Lidar versus Kameras

Die Lidarhersteller überlegen sich schützende Maßnahmen gegenüber Kameras.

Auf der CES 2019 in Las Vegas gab es einen Zwischenfall, der nun Konsequenzen nach sich zieht. Ein Hobbyfotograf macht ein Bild von einem mit Lidar bestückten Fahrzeug. Der Laser des Lidars hat dabei offenbar die Kamera beschädigt. Nach dem Vorfall auf der CES mehren sich die Stimmen, die den Lidar und seine Laser reglementieren wollen.

Lidarsensor auf Dach

Lidarsensor auf dem Dach

Die Sicherheitsbestimmungen zum Schutz des menschlichen Auges bestimmen das Design der Lidarsensoren. Diese emittieren unsichtbares Infrarotlicht bei rund 900 Nanometern und erreichen damit eine Streckenabdeckung von bis zu 100 Metern. Für höhere Geschwindigkeiten ist das aber zu wenig, um Fahrzeuge auszumachen und Unfälle zu verhindern.

Eine längere Wellenlänge neuer Lidarsysteme erreicht höhere Reichweiten und hat dabei keine negativen Auswirkungen auf das menschliche Auge. Allerdings gibt es eine Gefährdung für die Augen von Menschen, wenn die Laserstrahlen parallel ankommen. Dadurch kann die Lichtintensität auf einem kleinen Punkt gesteigert werden und so das Auge schädigen. Daher gibt es Vorkehrungen, die das verhindern.

Die Gefahr ist aber eventuell für Fotoapparate hoch. Denn treffen die Lichtstrahlen den Charge-Coupled-Device (CCD) Sensor, könnte dieser dadurch beeinträchtigt werden. Das war zuvor offenbar von der Entwicklungsfirmen kaum beachtet worden – bis zu dem Vorfall auf der CES.

Dabei geht es weniger um Fotoapparate als mehr um Videokameras, wie sie in Fahrzeugen installiert sind und die Augen der Assistenzsysteme darstellen. Das hat auch Auswirkungen auf das Autonome Fahren. Denn auch hierbei bedient man sich der Kamerasensoren für die Erkennung von Objekten oder der Fahrbahnmarkierung.

Für längere Distanzen beim Lidar greift man auf 1.550 Nanometer Wellenlänge zurück. Eine solche Technik benutzt beispielsweise Luminar, womit man eine Reichweite von 250 Metern und mehr abdecken kann. Das menschliche Auge ist davor gefeit, aber Kamerasensoren sind sensibler.

Nach dem Vorfall auf der CES wollte das Unternehmen AEye die fragliche Kamera untersuchen, allerdings antwortete der Fotograf, dass er die Kamera nicht mehr finden würde. Den Bildern könne man zwar eine Schädigung entnehmen, doch kann man den Schaden ohne die Kamera nicht korrekt bewerten. Denn eigentlich sind solche Kameras mit Filtern davor gefeit. Dabei geht man jedoch von Infrarotlicht mit 900-Nanometer-Wellenlänge aus.

Wie der Vorfall der CES auch gelagert ist, sprechen sich Fachleute dafür aus, dass die Lidarhersteller nicht nur die Sicherheit des menschlichen Auges, sondern auch der Kameras fokussieren sollen.

Quelle (englisch)

Comments are closed.