MIT & Microsoft decken KI-Fehlleistungen auf

Ein neues Modell von Microsoft und dem MIT deckt Fehler der Künstlichen Intelligenz bei Autonomen Systemen auf.

In Zusammenarbeit des Massachusetts Institute of Technology (MIT) und dem IT-Riesen Microsoft entstand ein neuartiges Modell, mit dem man aufdecken kann, wann Künstliche Intelligenzen etwas falsch gelernt haben. Das neue Modell dient der Überprüfung der Sicherheit von Künstlichen Intelligenzen in Autonomen Fahrzeugen und Robotern.

Manuelles Fahren

Beim Autonomen Fahren setzt man auf die Künstliche Intelligenz zur Interpretation der Sensordaten. Der Vorteil der Technologie ist, dass sie dazu lernt. Aber manchmal bleibt etwas Falsches hängen oder es sollte dazu lernen, tut es aber nicht. Bei einem Vortrag auf der Autonomous Agents and Multiagent Systems-Konferenz wurde eine Lösung dafür präsentiert.

Die Lösung ist der menschliche Eingriff. Damit will man die sogenannten “blinden Flecken” erkennen. Dabei greift man auf Simulationen zurück, um die Künstliche Intelligenz zu trainieren. In der realen Welt überwacht ein Mensch das System und gibt entsprechende Rückmeldungen, wenn es dabei ist einen Fehler zu machen.

Diese Trainingsdaten werden dann mit der menschlichen Bewertung kombiniert, woraus ein Modell entsteht, das aufzeigt, wo die Künstliche Intelligenz Defizite aufweist und mehr Daten für das richtige Handeln benötigt. Die Validierung des Modells gelang mithilfe von Videospielen, wobei ein Mensch eine Spielfigur korrigierte. Dann wurde das Verfahren angewandt und die Fehler wurden ausgemerzt.

Die erste Trainingsphase setzt also den grundlegenden Handlungsstrang für die Künstliche Intelligenz. Durch das Training in der realen Welt mithilfe von Menschen werden die inakzeptablen Aktionen des Systems erkannt. Wie das menschliche Feedback geartet ist, ist nicht so sehr von Bedeutung. Es gelingt sowohl mit dem Modelllernen, also dem richtigen Vormachen, als auch mit durch Korrekturen, also dem Eingreifen bei Fehlern.

Derart wird dem automatisierte Fahrzeug in der Simulation beigebracht, zu fahren und durch den Menschen wird das Verhalten verfeinert. Solange das Auto sich korrekt verhält, bleibt eine Reaktion des Menschen aus. Daraus werden Situationen erkannt, welche gut und welche schlecht waren. Derart kann das Auto beispielsweise lernen, dass ein Kastenwagen normal zu behandeln ist, während einem Krankenwagen Vorfahrt gegeben werden muss.

Mehrdeutige Situation werden derart als “blinde Flecken” erkannt und gekennzeichnet. Dadurch wird die Sicherheit der Fahrzeuge gesteigert. Das System reagiert mit einer Wahrscheinlichkeitsberechnung, um die “blinden Flecken” zu finden und deren Sicherheit vorherzusagen. Kommt es dann zu einem “blinden Fleck”, kann der Mensch nach der richtigen Vorgehensweise gefragt werden.

Quelle (englisch)

,

Comments are closed.