Tesla: Fahrbahnlinien haben starken Einfluss

Mit einer Manipulation gelang es chinesischen Sicherheitsleuten einen Tesla auf die Gegenfahrbahn fahren zu lassen.

Die IT-Sicherheitsfirma Keen Security Lab gehört zu dem chinesischen Unternehmen Tencent, das selbst an der Entwicklung des Autonomen Fahrens tüftelt. Keen Security Lab hatte bereits 2017 einen Tesla gehackt und 2018 Sicherheitslücken bei BMW gefunden.

Tesla hinten

Nun hat man abermals einen Tesla ins Hacking-Visier genommen und dabei die Sensorik des Autos getäuscht. Derart hat man die Fahrbahnmarkierungen ins Auge gefasst. Die Tesla-Fahrzeuge finden darüber ihren Weg, was man mittels Kameras detektiert. Tesla-Fahrzeuge verfügen über keine Lidarsensoren.

Manipuliert man die Sensorik der Teslas in Bezug auf die Fahrbahnmarkierungen, so kann man die Autos in die Gegenfahrbahn leiten. Die Forschenden nennen das “Fake Lane Attack”. Die Fahrbahnmarkierungen müssten nicht mal detailgetreu dargestellt werden, um das Fahrzeug zu täuschen. Kleine Punkte in weitem Abstand hätten für eine Manipulation schon ausgereicht. Das menschliche Auge sieht dabei eindeutig keine Fahrbahnmarkierung, aber die Künstliche Intelligenz im Auto kann damit getäuscht werden. Die IT-Sicherheitsleute fanden den Punkt heraus, an dem die KI irregeleitet werden kann.

Jedoch seien die Fahrzeuge, so das Team des Keen Security Labs, gut gegen schlechte Sicht und Schnee auf der Fahrbahn gewappnet. Daher setzte man auf kontradiktorischen Markierungen, die eine Erkennung im System auslösten.

Nun könnte man anmerken, dass die Änderungen von Fahrbahnmarkierungen sehr aufwendig sind und es in der realen Welt eher selten vorkommt. Aber es kann vorkommen und für eine Manipulation dieser Art benötigt man keinen Zugriff auf den Wagen selbst. Tatsächlich kam es erst vor Kurzem zu einem Unfall, wobei es auch um mangelhafte Fahrbahnmarkierungen ging.

Quelle (englisch)

,

Comments are closed.