AID: KI beim Autonomen Fahren
Florian Netter von AID hielt einen Vortrag über die Nutzung von Künstlicher Intelligenz beim Autonomen Fahren.
Der Vortrag wurde im Rahmen des Webinar ScaleUp 360 Automotive AI von We.Conect gehalten. Es sprach Florian Netter von AID zum Thema Artificial Intelligence for Self-Driving Cars: Opportunities & Technologies.
Das Unternehmen ist eine Tochterfirma von Volkswagen und Audi und wurde 2017 gegründet, um die Entwicklung der Technik voranzutreiben. Konkret entwickelt man einen Softwarestack für Autonomes Fahren in offenen Umgebungen. Das Unterfangen ist recht komplex und das sei auch der Grund, warum die Technik noch nicht auf dem Markt sei, so Netter.
Die Komplexität bezieht sich auf die Kreuzungen, die Infrastruktur, die Ampeln, den übrige Verkehr und beispielsweise Sonderfälle wie der Einsatz von Polizei im Verkehr. Denn gerade die seltenen Vorgänge müssen von der KI erlernt werden, sodass sie damit umgehen kann.
Bei AID verfolgt man den Ansatz, der aus drei Komponenten besteht: Wahrnehmung der Umwelt, die Interpretation der Daten und die Vorhersage des Verhaltens der Umwelt, was letztlich zur Streckenplanung führt. Dabei greift man auch auf konventionelle Programmierung zurück. Die KI kümmert sich um Fälle, wo die Modelle zu komplex werden und es viele Daten vorliegen.
Denn die Datenflut der Sensorik im Auto nimmt zu und das ist auch bei steigender Geschwindigkeit nötig. Für die Autonome Stadtfahren braucht man bei AID acht bis 14 Kameras, fünf bis zehn Lidarsensoren und fünf bis acht Radarsensoren, um 360 Grad abzudecken. Dabei spielt die Redundanz eine wichtige Rolle. Kameras haben Schwierigkeiten mit Dunkelheit, Nebel oder Staub. Jedoch können sie Texturen erkennen und verfügen über eine hohe Auflösung. Lidar ist dagegen beispielsweise gut bei Dunkelheit. Neuer Lidarsysteme können auch schon mit Nebel umgehen. Radar ist dagegen schlecht bei Texturen oder hat eine schlechte Auflösung. Fällt ein Sensor aus, müssen die Daten von anderen Sensorquellen kommen.
Weitere Faktoren sind die Vernetzung, die schnelle Übertragung der Daten und die Effizienz der Verarbeitung. Dabei müssen die Daten skalierbar sein, denn man kann kein Datenzentrum herumkutschieren.
Je schneller man fährt, desto mehr Daten müssen die Sensoren sammeln. Bei 50 Stundenkilometern muss die Kamera mindestens alle 46 Zentimeter ein Bild machen, was 30 Hz entspricht. Bei 100 Hz wären der Abstand bei 14 Zentimetern.
Dabei muss allerdings noch mehr beachtet werden, denn die Rechenkapazität ist begrenzt. So stehen die Bilder pro Sekunden im Verhältnis zur Latenzzeit, der Ressourcennutzung, dem Stromverbrauch, den Datenbanken, der Bandbreite bei der Übertragung und der Bearbeitungsplanung, wenn beispielsweise 15 Modellen von 5 CPUs berechnet werden müssen. Die Frage der Redundanz betrifft auch die unterschiedlichen Lösungsansätze für die Bewältigung des Autonomen Fahrens.
Des Weiteren spielt die Software- und Funktionsarchitektur eine entscheidende Rolle bei der Entwicklung des Autonomen Fahrens auf Level 4 und Level 5. Die Funktionsarchitektur ist unterteilt in Sensorik, der Wahrnehmung der Umwelt, die Verhaltensprognosen und die Planung. So erhält man die Kontrolle.
Bei der Softwarearchitektur gibt es den end2end-Ansatz, wobei die Sensorfusion von der KI analysiert wird, woraus sich die Steuerung des Fahrzeugs ergibt. Diesen Ansatz verfolgt man bei AID aber nicht. Sondern man nutzt einen modularen Ansatz, bei dem die Architektur im Verhältnis zur Sensorfusion, der Objekterkennung, der Interpretation, der Vorhersage und der Streckenplanung steht. Deren Ergebnisse werden miteinander verglichen. Dazu dienen verschiedene AI Techniken.
Die Fahrzeugflotte nimmt seltene Verkehrsmanöver oder Verkehrsszenarien auf, die im Backend von der KI trainiert werden. Dies führt zu einem Update, das in den Softwarestack der Flotte eingespielt wird. Derart setzt man auf permanentes Lernen.