Fernsteuerung | Fraunhofer FOKUS und TU Berlin

Semantische Strassenszene Hella Aglaia
Semantische Strassenszene Hella Aglaia

Die TU Berlin demonstriert in Kooperation mit dem Fraunhofer FOKUS die Fernsteuerung automatisierter Fahrzeuge und hat eine neue KI-Lernbasis geschaffen.

Anlässlich der GPU Technology Conference (GTC) von Nvidia haben das Fraunhofer FOKUS und die TU Berlin vergangene Woche die Fernsteuerung automatisierter Fahrzeuge demonstriert.

Semantische Strassenszene Hella Aglaia

Semantische Strassenszene Hella Aglaia

Sollte das Autonome Auto mal nicht weiter wissen, könnte die Entwicklung der beiden Forschungseinrichtungen zum Tragen kommen. Das könnte passieren, wenn es für das zu befahrende Gelände kein Kartenmaterial gibt oder es sich um Baustellen handelt, die nicht eingeplant waren.

Das Fraunhofer FOKUS und die TU Berlin, die schon auf dem Testfeld Diginet PS zusammenarbeiten, haben auf dem Messegelände die Fernsteuerung mit einer geringen Zeitverzögerung vorgestellt. Das ist ein weiterer Schritt hin zum Autonomen Fahren. Daher ist auch das Daimler Center for Automotive IT Innovations (DCAITI) mit von der Partie.

Bei der Fernsteuerung sitzt eine Person, genannt Operator, in einer Zentrale und ist mit dem Fahrzeug via WLAN oder 5G verbunden. Die Daten werden von der DRIVE Plattform von Nvidia ausgewertet. Die Meta-Daten, die nicht so rechenintensiv sind, werden an den Operator weitergeleitet. Das geringe Datenvolumen erlaubt eine geringe Latenz, also eine geringe Übertragungszeit. Derart kann man das Fahrzeug nahezu in Echtzeit steuern.

Des Weiteren haben die beiden Kooperationspartner eine Trainingseinheit für die Künstliche Intelligenz vorgestellt. Diese wird für die Bildauswertung der Kamera- und Lidarbilder eingesetzt. Für ein besseres Training der Künstlichen Intelligenz hat man die Lerndaten aufbereitet, sodass es einfacher ist, der Künstlichen Intelligenz eine bessere Unterscheidung beizubringen. Die dafür nötige Rechenkapazität liefert der DGX-1 Computer von Nvidia.

Das Schlüsselwort dabei heißt “Labeling”, was eine Zeitreduktion um 90 Prozent ausmacht. Konkret werden die Objekte auf den Bildern klassifiziert und damit besser unterscheidbar. Derart können selbst einzelne Personen in einer Menschenmenge individualisiert werden. Darüber hinaus wird die Position in einem 3D Bild berechnet.

Quelle

David Fluhr

Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de

Das könnte dich auch interessieren …

Ads Blocker Image Powered by Code Help Pro

Ads Blocker Detected!!!

We have detected that you are using extensions to block ads. Please support us by disabling these ads blocker.

Powered By
Best Wordpress Adblock Detecting Plugin | CHP Adblock