Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

19.11.2014 - 

Stanford und Google

Neue Software "erkennt", was auf Fotos zu sehen ist

Thomas Cloer war viele Jahre lang verantwortlich für die Nachrichten auf computerwoche.de.
Er sorgt außerdem ziemlich rund um die Uhr bei Twitter dafür, dass niemand Weltbewegendes verpasst, treibt sich auch sonst im Social Web herum (auch wieder bei Facebook) und bloggt auf teezeh.de. Apple-affin, bei Smartphones polymorph-pervers.
Mit dem "Sehen" von Computern war es bis dato nicht wirklich weit her. Neue, von zwei Forscherteams unabhängig voneinander entwickelte Software könnte das nun ändern.

Die an der Stanford University und bei Google entwickelten Programme können einem Bericht der "New York Times" zufolge viel besser als jemals zuvor den Inhalt von Fotos und Videos erkennen und treffend beschreiben. Bis dato beschränkte sich die "Computer Vision" auf das Erkennen einzelner Objekte. Die neuen Algorithmen identifizieren hingegen ganze Szenen - zum Beispiel eine Gruppe junger Männer, die Frisbee spielen, oder eine Herde Elefanten auf ihrem Marsch durch die Savanne.

Googles Software erkennt und beschreibt das als 'Two pizzas sitting on top of a stove top oven' - nicht schlecht, oder?
Googles Software erkennt und beschreibt das als 'Two pizzas sitting on top of a stove top oven' - nicht schlecht, oder?
Foto: Google

Mit solcher Software lassen sich möglicherweise die Milliarden Fotos und Stunden von Videomaterial im Netz besser katalogisieren (natürlich stellt sich auf der anderen Seite die Frage, was sie in Händen von NSA und Co anrichten mag). Suchmaschinen wie Google sind dabei bislang primär auf schriftliche Metadaten wie Tags und Beschreibungen angewiesen. "Die Pixeldaten in Bildern und Videos sind für mich die 'dunkle Materie' des Internets", sagt Fei-Fei Li, Direktor des Artificial Intelligence Laboratory in Stanford, der die dortige Forschung gemeinsam mit dem Nachwuchswissenschaftler Andrej Karpathy betrieben hatte. "Wir fangen jetzt an, sie zu erhellen."

Professor Li und Karpathy haben ihre Ergebnisse in einem technischen Report der Uni Stanford publiziert; das Google-Team hat sein Paper auf der Open-Source-Seite arXiv.org der Cornell University veröffentlicht. Eine allgemeinverständlichere Kurzfassung gibt es im Google Research Blog.

Newsletter 'Produkte & Technologien' bestellen!