KI soll Filme verstehen

In Kooperation des MIT mit dem Unternehmen IBM versucht man KIs beizubringen, laufende Bilder zu verstehen.

Die Welt der Künstlichen Intelligenzen hat schon so manchen Meilenstein erreicht. Beim Autonomen Fahren setzt man die Algorithmen zur Bildererkennung ein. Dabei handelt es sich um einzelne Bilder, die von der KI interpretiert werden. Nun will man der KI beibringen, laufende Bilder interpretieren zu können.

Die Forschenden von MIT und IBM haben sich dafür eine große Datenbank mit Videos bereitgestellt: Moments in Time Dataset. Die Filme sind nur wenige Sekunden lang und reichen von Sport über Alltagsleben bis zu Naturphänomenen, die mit Schlagwörtern versehen sind. Die darin enthaltenen Informationen können mehr über dynamische Prozesse verraten, als Einzelbilder.

Damit wäre auch die Prognose der Verkehrsteilnehmenden für das Autonome Fahren besser abzuleiten. Denn aus der Bewegung kann man beispielsweise Richtung und Geschwindigkeit ableiten.

Die Fähigkeit nicht nur einzelne Bilder, sondern ganze Bildabfolgen analysieren zu können, geht mit einer steigende Rechenkapazität und Speicherleistung einher.

Projektseite

David Fluhr

Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren und berichte auch auf anderen Seiten, wie dem Smart Mobility Hub, darüber. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de

Das könnte dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

* Für einen Kommentar braucht es einen Blick in die Datenschutz-Bestimmungen