Tech AD 2017 in Berlin | Tag 1

Tech AD 2017 in Berlin | Tag 1
Tech AD 2017 Logo

Jedes Jahr findet in Berlin die Tech AD statt und hier eine kleine Zusammenfassung der Vorträge des ersten Tages.

Am Anfang der Woche war ich auf der Tech AD 2017 in Berlin. Eine Veranstaltung der Gruppe we.conect. Auch dieses Jahr gab es wieder viele interessante Vorträge.

Tech AD 2017 Logo

Tech AD 2017 Logo

Nvidia & KI

Sahin Kirtavit, Senior Director of Automotive Solutions des Unternehmens Nvidia hielt einen Vortrag über die Künstliche Intelligenz im Auto.  Vor allem das Deep Learning Verfahren hat die Entwicklung bestärkt und die Entwicklung trug er in Zahlen vor: Die Bilderkennung hat Microsoft binnen drei Jahre um den Faktor 16 erhöht. Während AlexaNet 2012 noch 8 Ebenen hatte und 1,4 GFLOP Daten mit 16 Prozent Fehlerwahrscheinlichkeit bearbeitete, hatte ResNet 2015 bereits 152 Ebenen. Die Rechenkapazität betrug 22,6 GFLOP und das bei einer Fehlerquote von 3,5 Prozent. Ähnlich verhält es sich mit der Spracherkennung am Beispiel von Baidus Deep Speech 1 und Deep Speech 2.

Bisher arbeitet man mit PX 2 aber künftig wird aber eine neue Plattform noch schnellere Ergebnisse vorweisen können: XAVIER ist ein AI Supercomputer SOC mit 20 TOPS DL (Deep Learning Tera-Operations Per Second) Leistung, bei aber lediglich eines Viertels des Stromverbrauchs.

infoware & das Vorausschauende Fahren

Thomas Schulte-Hillen von infoware gab einen Einblick über die Nützlichkeit des Vorausschauenden Fahrens oder Electric Horizon, den es bereits von Continental und HERE gibt. Die Datenübertragung via Cloud ermöglicht es Streckeninformationen über den MPP (Most Probable Path), in das Kartenmaterial einzuflechten.

Eine API (application programming interface), eine Programmierschnittstelle zur Datenübergabe soll Sicherheit bieten. Damit ermöglicht man die Anreicherung von Karten mit Daten zur Kurvenkrümmung, zu Kurven, zu Gefälle, zum Straßentypus, zur Anzahl der Spuren oder zum Wetter. Eine “Echtzeitübertragung” dauert derzeit rund 15 Minuten.

Bosch & das Bausatzprinzip

Aus dem Hause Bosch referierten zwei Sprecher über die Skalierbarkeit und Funktionen vom Assistierten zum Autonomen Fahren führt. Für 2017 gilt die Integration der Assistenzsysteme, wie Spurhaltesysteme bis 130 km/h oder automatisiertes Parken. Ab 2019 kommt der Autobahn-Assistent, samt Spurwechsel und Kommunikation mit der Infrastruktur. 2021 wird es Hochautonom, inklusive verlässlicher Erkennung der Umwelt. Ab 2025 wird das wahre Autonome Fahren möglich sein, vielleicht schon früher in den Metropolen.

Die Wiederverwendung und das Baukastenprinzip ermöglicht die bessere Nachrüstung der Fahrzeuge. Im Paketsystem kann man verschiedene Grade der Automatisierung anbieten, wobei die alten System die neuen Systeme mittragen. Eine Art Evolution der Systeme, aufbauend auf den Vorgängermodellen. Und es erhöht den Mehrwert der Hardware. Dafür bedarf es auch Handlungen der Hersteller.

Für die Entwicklung braucht es kombinierte Sensoren, ein Mix aus Kamera-, Radar- und mit steigendem Automatisierungsgrad auch Lidar. Damit lassen sich auch die Systeme miteinander kombinieren, was letztlich zum Autonomen Fahren führt.

Ibeo & 3D Flash Lidar

Max Schmidt von Ibeo sprach über die Möglichkeiten, die Lidar eröffnet. Von der Kartenerstellung bis zur Umweltwahrnehmung. Mit dem Solid-State Lidar, den auch andere Firmen im Angebot haben, gelingt eine höhere Auflösung und er ist kleiner, weil es keine beweglichen Teile darin gibt. Mit Lidar lässt sich zudem das ungenaue GPS verbessern.

GM – Sensorik im Auto

Dr. Wende Zhang von General-Motors gab Einblicke über die Nützlichkeit von Sensoren im Fahrzeug. Mit Datenfusion und vor allem den Einsatz von Lidarsystemen lassen sich Fahrbahnmarkierung, Passanten und Hindernisse erkennen. Selbst die Straßenoberfläche wird gespeichert. Ein GM Algorithmus berechnet etwaige Schwierigkeiten. Außerdem setzt man auf die Fahrendenüberwachung, wobei das System die Personen erkennt und ihren Bewegungen folgt. Tatsächlich soll es auch mit einer 70prozentigen Trefferquote, die Lippen lesen können.

CMOS SPAD 3D-Flash Lidar – Fraunhofer IMS

Das Fraunhofer IMS wartete mit einer technischen Neuerung auf, ebenfalls für den Lidarsensor. Dabei nutzt man CMOS Technik und bannt den Lidar auf einen Chip. Auch hier wird auf den Solid-State Lidar (Flash Lidar) verwiesen, dem mit dem SPAD Prinzip mehr Effektivität eingehaucht wird.

David Fluhr

Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de

Das könnte dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ads Blocker Image Powered by Code Help Pro

Ads Blocker Detected!!!

We have detected that you are using extensions to block ads. Please support us by disabling these ads blocker.

Powered By
Best Wordpress Adblock Detecting Plugin | CHP Adblock