Audi: 3D Bilder mit Monokamera
Auf der NIPS zeigt Audi, wie man aus einer Monokamera ein 3D Modell der Umgebung machen kann.
Jüngst haben Apple Forschende ein Forschungspapier veröffentlicht, bei dem ein Lidarsensor ausreicht, um ein komplettes 3D Bild errechnen zu können. Audi schlägt auf der NIPS Konferenz ebenfalls in diese Kerbe und setzt noch einen drauf.
Die heute eröffnete NIPS (Neural Information Processing Systems) Fachkonferenz für Künstliche Intelligenz im US-amerikanischen Kalifornien dauert noch diese Woche an. Wie schon letztes Jahr ist auch dieses Jahr Audi vertreten.
Dort präsentiert man das Entwicklungsprojekt, das mit einer Monokamera ein exaktes 3D Modell der Umgebung generiert. Wie die menschlichen Augen auch, bedient man sich für 3D Aufnahmen eigentlich einer Stereokamera. Doch diese Daten werden bei dem KI-Projekt errechnet.
Die Monokamera verfügt über eine Auflösung von 1,3 Megapixel, macht 15 Bilder pro Sekunde und deckt 120 Grad ab. Die Verarbeitung der Bilder erfolgt durch eine Künstliche Intelligenz qua neuronalem Netz. Das System sortiert die Pixel nach Objektklassen, was die Unterscheidung von Objekten und auch die Erkennung von Fahrbahnmarkierungen oder Verkehrsschilder erlaubt. Selbst die Abstandsmessung soll damit erfolgen.
Die Tiefe wird dabei geschätzt und das System lernt von selbst, die Daten zu erhalten. Dafür wurden Bilder von Stereokameras zur Unterscheidung in die Datenbank geladen, so dass das System von selbst die 3D Informationen aus Monokamera-Bildern hinzuzufügen kann. Auf der Konferenz werden die Fähigkeiten des Fahrzeugs vorgeführt, das lernt die Umgebung selbstständig zu modellieren.
Der Vorteil der Methode ist, dass man keine Karten braucht und und auch keine GPS Positionierung. Das Fahrzeug selbst benötigt nur eine handelsübliche und günstige Kamera. Jedoch braucht das Auto zur Berechnung eine hohe Rechenkapazität, was wiederum viel Strom erfordert.