CMU: Mehr sehen ist sicherer

Unter der Leitung von Peiyun Hu haben Forschende der Carnegie Mellon University (CMU) die Sichtweite der Sensorik erweitert.

Der Forscher der Carnegie Mellon University, Peiyun Hu, will dem Autonomen Fahren beibringen, das Verdeckte zu erahnen.

Rot gesehen, grün nicht gesehen

Rot gesehen, grün nicht gesehen. Quelle: CMU

Das Autonome Auto mit seiner KI erkennt viel, vermutlich mehr als die Menschen und doch fehlt es ihnen an Erfahrungen mit den Objekten im Straßenverkehr. Ein Mensch sieht einen Teil eines größeren und weiß, dass hinter der Hauswand, hinter dem Auto noch mehr steckt als das, was man sieht. Ein Lidarbild ist für die KI eine Punktwolke, aus der man die Objekte aus einer Datenbank zuordnet.

Doch es sind keine tatsächlichen 3D Bilder und dass Teile des Objekts verdeckt sind, sehen die Algorithmen nicht immer. Diese Fähigkeit will Peiyun Hu dem Algorithmus beibringen. Denn wenn dieser berücksichtigt, was nicht zu sehen ist, versteht man die Verkehrssituation besser und kann besser darauf reagieren. Diese Daten müssen zum Teil bereits im Kartenmaterial hinterlegt werden. Das Auto muss jedenfalls über die sichtbaren und nicht-sichtbaren Teile reflektieren.

In Tests mithilfe eines Standard-Benchmarks übertrafen die CMU-Methode die bisherigen Systeme zur Erkennung von Verkehrssituationen. Bezüglich der Autos wurde ein Plus von 10,7 Prozent Leistung erreicht, beim Fußverkehr 7,4 Prozent, bei Lkws 18,4 Prozent und bei Anhängern 16,7 Prozent.

Dass man diese Sichtweise vernachlässigt hat, war der Sorge um die Rechenkapazität geschuldet. Doch das Team um den Forscher Hu reduzierte die Rechenzeit auf 24 Millisekunden. Die Forschung wird auch vom Start-up Argo AI unterstützt, das für Ford und Volkswagen an der Technik tüftelt.

Comments are closed.