Tech.AD 2015 in Berlin | Konferenz – Tag 1

Tech.AD 2015 in Berlin | Konferenz – Tag 1

Über zwei Tage ging das Seminar der Veranstalter Tech.AD in Berlin zum Thema Autonomes Fahren und deren Derivate.

Alles drehte sich um das Autonomes Fahren, bei der Konferenz, die ich bereits im November angekündigt hatte.. Die Tech.AD 2015 flutete das Publikum mit unglaublich vielen Informationen und hier seien die Highlights des ersten Tags, des zweitägigen Events, zusammengefasst. Selbstverständlich wird dabei nicht jeder Vortrag erwähnt, ich bitte dies zu entschuldigen.

Tech-AD 2015 berlin

Den Auftakt machte am ersten Tag die Studie von Volvo “Drive Me”. Im Anschluss fasste ein Sprecher des Hauses Daimler die Erfolge beim Future Truck 2025 zusammen. Hier betonte man, die Bedeutung des HMIs (Human-Machine-Interface) – wie viele andere später auch. Dies betreffe das Vertrauen in die und den Umgang mit der Technik. Denn die Aufregung der Fahrenden über ein autonomes Fahrzeug, in diesem Fall der Future Truck, würde nach nicht mal einer Stunde abebben. Ebenfalls Vertrauenserweckend und informativ soll die Farbänderung des Lkws sein (blau/weiß), beim Betätigen des Knopfes – und nur dies wird benötigt, damit der Lkw auf der Autobahn selbstständig fährt (Hochautonom).

In dem Vortrag des Unternehmens IBEO ging es teils um Sensorik, die in von vielen Autoherstellern genutzt werden, wie Opel, BMW, GM, Honda, Nissan und Audi. Ibeo’s Sensorik ist aber auch in dem Conceptcar “Budii” von Rinspeed, sowie bei einigen Vorgängern, integriert. Die Hauptprobleme bei der Sensorik ist die Entfernung, da es nicht bestimmt werden kann. Daher hat IBEO eine Software entwickelt, welche die Strecke mit Tracking abgleicht. Dafür unterscheidet man in unterschiedliche Reichweiten: Detection Range (DR), Classification Range (CR) und Best Situation Classification Range (BSCR), welche das System immer wieder durchläuft. Zu viel Sensorik, als Alternative, kann die Architektur des Systems überlasten. Zwar will man im Gegensatz zu Daimler das System aktivieren, sobald man den Motor startet und nicht per Knopfdruck, aber einig ist man sich bezüglich des HMIs. Das HMI soll den Menschen über die Aktionen des Fahrzeugs in Kenntnis setzen, beispielsweise beim Voraussehenden Fahren.

Von Großbritanniens Institution “Safe Car UK” wurden auch Probleme angesprochen, vor allem die finanziellen Problematiken die sich ergeben. Sicherlich ist das auch in Deutschland ein Thema, bedenke man die Mehrkosten durch das RDKS. Die Ersatzteile der angepriesenen neuen Technik werden recht teuer. Was wenn die Windschutzscheibe defekt ist, worauf das HUD angezeigt wird. Wie werden sich die steigenden Kosten auf die Werkstätten auswirken und deren über die neue Technik. Weitere Problematiken sieht man in der IT-Sicherheit. Dazu zählen Unsicherheiten im Auto, in der Übermittlung und im Backend. Jedoch verweist man auch auf die Vorteile. So liegt die Dauer bis zur Bremstätigkeit in einem Notfall bei einem teilautonomen Auto bei 2,5 Sekunden später, bei einem hochautonomen Auto 10,5 Sekunden und bei einem vollautonomen Auto, computerbedingt, 0,5 Sekunden. Das die Reaktionszeit beim hochautonomen Auto höher aufällt, liegt daran, dass der Mensch weniger damit rechnet, weil er zwar eine Kontroll-, jedoch keine Aufmerksamkeitsfunktion inne hat.

Die Nokia-Unternehmung “HERE” beschäftigt sich vermehrt mit der Cloud. Das Kartenmaterial von HERE basiert auf verschiedenen Layern, von der bloßen Topografie über die Fahrbahnen samt Richtungen, bis zu der Infrastruktur, also Brücken, Tunnel und dererlei mehr. Diese Karten werden in kleine Stücke zerteilt, sogenannte Tiles. Diese Stücke beinhalten alle nötigen Daten, sind aber vom Datenvolumen nicht so groß und werden derart aus der Cloud ins Fahrzeug geladen. So betrachtet man die Clouddaten als Sensorergänzung für Voraussehendes Fahren. Außerdem werden Fahrprofile angelegt, was ein “normales” Fahrerlebnis erlauben soll, so dass das Auto wie ein erfahrener Mensch fährt. Das bedeutet, das System auch mal etwas schneller oder langsamer fährt als erlaubt.

Audi‘s Vertreter verweist darauf, dass man nicht vor hat Robotertaxis zu bauen, es bleibe beim Konzept des Privatautos. Der Spaß beim Auto soll erhalten bleiben, nur in langweiligen Situationen soll das Auto das Steuer übernehmen. Interessanter Weise haben Audi Forschungen herausgefunden, dass die Übergabe der Steuerung an den Menschen bei Langweile länger dauert, als bei beschäftigten Menschen, obgleich dies ja verboten ist. Durchschnittlich dauert die Übergabe bei nicht beschäftigten Menschen 4,2 Sekunden. Personen die mit ihrem Handy beschäftigt sind, brauchen 3,2 Sekunden und Personen, die sich mit dem Bordsystem beschäftigen, brauchen nur 1,9 Sekunden für die Übernahme der Steuerung des Autos. Da diese Zeiten aber zu hoch sind (Audi geht von einer Notfallübernahmezeit von 0,9 bis 1,5 Sekunden aus), muss das System verlässlich sein, auch bei Fehlern oder teilweisem Systemausfall. Und es gibt genug Szenarien für einen Notfall: Straßenänderungen, Sensorausfall, Netzwerk- oder Stromausfall.

Bei Scania widmete man sich der Daten-Architektur in einem Autonomen Fahrzeug, da hier die Verantwortung auf das System zurückfällt. Einen sehr interessanten Ansatzpunkt erläuterte ein Sprecher von NXP, einem Halbleiterhersteller. Nach Vorgabe der Natur, speziell des Menschen, will man die Systeme schützen. Beispielsweise will man  Energieverwaltung im Notfall beim Menschen, bei der vor allem der Rumpf geschützt wird, auf das System übertragen. Oder die Datenverteilung ähnlich dem Gehirn zu leiten oder Reflexe einzubauen. Diese Reflexe sollen beim Auto Systeme sein, die automatisch anspringen, wenn ein bestimmter “Reiz” eingeht.

Der Professor der Universität Würzburg, Eric Hilgendorf, informierte über die rechtlichen Aspekte des Autonomen Fahrens. Das Thema der Datensicherheit, muss um die Frage der Schad-Software erweitert werden. Ähnlich der Internetkriminalität, wird auch die Auto-IT angegriffen werden. In puncto Moral entwarnt der Fachmann: Eine moralische Programmierung ist nahezu Unmöglich und stehe daher gar nicht auf dem Plan. Der Unterschied zwischen einem Menschen und einem Roboter ist, dass der Roboter jederzeit weiß was er tut, während der Mensch oftmals nur reagiert. Kommt es zu einem Unfall, spricht man i.d.R. von Pech.

Ein Vortrag des Beratungsunternehmen IHS ging auch der Frage nach, wer das Rennen machen wird: Google oder die Autohersteller und deren Zulieferer. Dabei wurde hervorgehoben, dass Google sich in sehr vielen Bereichen tummelt, doch im Bereich der Autos ist wohl zu wenig zu verdienen. Zwar spiele Google mit, aber will ja bekanntlich gleich beim Autonomen Fahrzeug einsteigen. Google’s Vorteil liegt in der Sofware und Datenhoheit, als auch beim Lobbyismus. So sieht man bei IHS die Strategie, dass Google vor allem die Software für Autonomes Fahren stellen wird, sowie Maps und die Infrastruktur. Vermutlich werde Google diese Investitionen durch Lizenzen wieder einholen.

David Fluhr

Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de

Das könnte dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ads Blocker Image Powered by Code Help Pro

Ads Blocker Detected!!!

We have detected that you are using extensions to block ads. Please support us by disabling these ads blocker.

Powered By
Best Wordpress Adblock Detecting Plugin | CHP Adblock