Einblendung von Phantomhindernissen beim Autonomen Fahren

Die Lidarsensoren der Autonomen Fahrzeuge können manipuliert werden. Eine Untersuchung der Universität von Michigan.

Vor Jahren sah ein Fahrzeug durch den Widerhall der Radarwellen ein Phantomauto vor sich und vollzog eine Bremsung. Dies machte schnell die Runde. Die verschiedenen Sensoren dienen nicht nur der Umweltwahrnehmung, sondern auch der Redundanz. Ist ein Sensor gestört, können die anderen Sensoren das Bild komplettieren. Jeder Sensor ist jedoch anfällig gegenüber Manipulationen.

Velodyne Lidarsensoren

Velodyne Lidarsensoren

Der Lidar gilt als einer der wichtigsten Sensoren beim Autonomen Fahren. Die Forschenden der RobustNet Research Group an der University of Michigan haben sich der Manipulation des Lidarsensors gewidmet. Die Forschenden haben den Lidar dazu gebracht, Hindernisse zu sehen, die gar nicht vorhanden waren. Das hat selbstverständliche negative Folgen für die Entscheidungsfindung solcher Fahrzeuge.

Die Manipulation wurde durch strategisches Spoofing der LiDAR-Sensorsignale verursacht. Derart erreichte man, dass der Lidar ein Phantom sah. Dies kann dazu führen, dass das Auto abrupt bremst und damit unfallverursachend sein.

Der Lidar sendet ein Lichtsignal aus und misst die Dauer bis zur Rückkehr. Daraus resultiert der Abstand zum Objekt. Pro Sekunde werden Tausende von Lichtsignalen verschickt. Die Auswertung erfolgt durch eine Künstliche Intelligenz, die daraus ein 3D Abbild der Umgebung generiert.

Sendet man selbst ein Lichtsignal auf den Sensor, kann das System gestört werden. Man muss die Signale zeitlich festlegen. Im Nanosekundenbereich ausgesendet, kann man dem Sensor vorgaukeln, dass da ein Objekt steht. Doch auch die KI im Hintergrund muss von dem Phantom überzeugt werden. Forschende von OpenAI haben bestätigt, dass dies möglich ist. Schon bei Kameramodellen konnte man Manipulationen beweisen. Ob Schilder oder Aufkleber, es gibt einige Möglichkeiten.

Beim Lidar braucht es aktive Signale und diese müssen so gestaltet werden, dass es den Erwartungen der KI entspricht. Derart erreichten die Forschenden, das Signal eines Phantomfahrzeugs zu erzeugen. Diese Signale an ein Autonomes Fahrzeug gesendet, könnte einen gefährlichen Eingriff bedeuten.

Konkret nutzten die Forschenden die Signale bei der Baidu Plattform für Autonomes Fahren: Apollo. Man simulierte ein Phantomauto, das als Hindernis erkannt wurde. Das Autonome Auto hielt an. In einem anderen Versuchsablauf wurde ein Auto an einer Ampel simuliert, das bei Grün nicht losfährt. Das Autonome Auto blieb also auch stehen.

Die Forschenden wollen die Entwicklungsfirmen der Sensoren vor solchen Gefahren warnen, bevor es Menschen mit negativen Absichten ausnutzen.

,

Comments are closed.