Tech.AD Vortrag: Fraunhofer ESK & die Sicherheit der Autonomen Fahrzeuge

Über den Vortrag von Prof. Dr. Mario Trapp des Fraunhofer ESK am ersten Tag der Tech.AD Konferenz in Berlin.

Der Titel des Vortrags von Prof. Dr. Trapp war die Frage, ob man je wissen wird, wann ein Autonomes Auto sicher genug sein wird. Einerseits kann man die Antwort geben: Nein, das kann man nicht. Das bezieht sich denn auch auf die Sicherheitsparadigmen von heute. Diese sind denn nicht für die Arbeiten mit Künstlicher Intelligenz ausgelegt. Es wäre, als würde man einen Uhrmacher bitten, eine Apple Watch zu reparieren. Es gibt immer nur einen Annäherungswert an die Realität, wobei man so nah wie möglich ran kommen sollte.

Vortrag Prof Dr Trapp Fraunhofer ESK TechAD 2019

Vortrag Prof Dr Trapp Fraunhofer ESK TechAD 2019

Die Programmierung und deren Qualitätsstandards sind noch zu unerfahren, um das Auto von Morgen zu bewerten. Man hat noch nicht genug Erfahrungen gesammelt, um diese Abkürzung aufzuzeigen. Die zu eng gefasste Sicherheitsbewertung behindere die Entwicklung der Vorteile durch die Künstliche Intelligenz. Wie soll man denn angesichts der vielen Ungewissheiten, Sicherheitsregeln definieren.

Bis zu der Behauptung, ein System wäre sicher, gibt es viele Abwägungen. Hat man eine gemeinsame Vorstellung des Wissens und der gestellten Aussagen? Gibt es eine Systemsicherheitsversicherung in Bezug auf das Produkt oder den Prozess? Wäre es dann sicher?

Eine Gefahr fängt mit einem Fehler an, es folgt die Erkennung einer Schwäche, eines systematischen Fehlers, der zu einem Defekt und wiederum zu einem Fehler führt, welcher letztlich den gefährlichen Ausfall meint. Dem entgegnet man mit einer Fehlervorhersage, was man versucht zu verhindern. Die Fehlerbeseitigung erfolgt in der Regel durch eine Analyse und durch das Testen der Technik.

Dabei können sich Fehler auf vielen Ebenen abspielen, von der technischen Einstellung, dem Kontext, dem Modell oder beim Testverfahren. Die Fehler könnten auch aufeinander aufbauen. Völlig fehlerfrei sei dabei eher eine akademische Frage und daher braucht es auch eine Fehlertoleranz. Zumal man sich die Frage stellen muss, ob tatsächlich alle Messungen vorgenommen werden (können).

Im Fazit kommt Prof. Dr. Trapp zu dem Schluss, dass es bezüglich der Künstlichen Intelligenz kein akzeptiertes Gemeinwissen gibt, daher auch keine gemeinhin akzeptierten Sicherheitsvorstellungen für Autonomes Fahren. Es bräuchte anfangs mehr formale, rigorose Herangehensweisen und man muss Vertrauen aufzubauen. Das erfolgt schrittweise durch die Akkumulation von Wissen. Die Aspekte von Sicherheit müssen sich vom Design zu Erfahrung verschieben, das Teil des adaptiven Sicherheitsmanagements ist, mit unvermeidbaren Ungewissheiten umzugehen.

,

Comments are closed.