Tesla: Tödlicher Unfall mit Autopilot
Zum ersten Mal überhaupt gab es einen Unfall mit einem Teilautonomen Auto, der für den Fahrer tödlich endete.
Ein Tesla fuhr in den USA im Autopilot-Modus, der das Auto Teilautonom macht, auf einen Sattelschlepper auf. Weder der Fahrer, noch die Sensorik des Autos haben dieses große Hindernis wahrgenommen. Das lag vermutlich an den Lichtverhältnissen und an der Farbe des Lkws. Die Helligkeit soll niedrig gewesen sein und der Lkw war offenbar weiß – offenbar eine tödliche Kombination für den Sensor des Wagens. Schon vor wenigen Wochen ist ein Tesla in der Schweiz auf der Autobahn auf einen Lkw aufgefahren.
Und ähnlich ist dies beim Fahrzeug der FU geschehen, damals hatte der Fahrer des FU-Projektwagens auf die Bremse getreten, weil das Auto bei dem Sonnenstand geblendet wurde und das Rotlicht übersehen hatte.
Bisher hatte Google den heftigsten Unfall, wobei es aber nur um einen Blechschaden handelte. Das Google Auto war damals mit einem Bus kollidiert. Danach hat Google auch angegeben, dass es durchaus zu schwereren Unfällen kommen könnte. Dies ist nun bei Tesla passiert. Die NHTSA hat die Überprüfung des Vorfalls angekündigt.
Der Unfall wird das Vertrauen in die Technik senken. Dabei geht Tesla m.E. auch sehr unvorsichtig vor. Die Systeme sind nicht ausgereift, sondern werden von den Menschen im Beta-Test getestet. Darauf weist Tesla hin, aber der jetzige Unfall könnte vielleicht sogar zu einem Verbot der Tesla Modelle im Autopilot werden. Eigentlich bedarf es auch in der USA einer Lizenz für das Autonome Fahren und den Autopilot sollte man nur auf eigenen Privatgelände aktivieren – so war der ursprünglich Plan.
Die Autohersteller gehen nicht diesen Weg der Revolution, also dem Sprung bis zur Hochautonomie. Sie gehen den Weg der Evolution – von den Assistenten schrittweise zum Autonomen Modus.
Der Unfall war schon am ersten Mai. Warum, bzw. wie konnte Tesla solange geheim halten. Übrigens, guter Hinweis mit den verschiedenen Herangehensweisen von Herstellern und Tesla.
@Y.Friendly vlt hat Tesla um Verschwiegenheit gebeten, bis klar ist, dass es ein Softwarefehler gewesen ist. Ein defekter Sensor wäre zwar kritisch, sagt aber erstmal nichts über die Güte der Autonomie-Algorithmen. Das wäre vergleichbar mit defekten Bremsen, und da muss auch erstmal geprüft werden ob es herstellerseitig Konstruktionsmängel gab, oder vom Fahrzeughalter vermeidbar gewesen wäre.
Aber ehrlich, wie kann man einen weißen LKW übersehen? Ist er ohne Licht gefahren? Der Fahrer hat fahrlässig gegen die Bestimmungen gehandelt, und ein unausgereiftes System unbeobachtet gelassen, bzw sich voll darauf verlassen und als KFZ-Führer dem Straßengeschehen keine Beachtung geschenkt.