Waymo Open Dataset Updates und Challenges 2023

I-Pace Waymo
I-Pace Waymo. Quelle: Waymo

Waymo stellt eine Datensatzerweiterung vor, die vor Sensordaten und Labels strotzt.

Waymo stellt regelmäßig Datensätze für die Forschung zur Verfügung. Denn das autonome Fahren alleine bringt nicht viel. Allerdings werden die Daten nicht für Wettbewerber bereitgestellt. Außerdem startete Waymo seine vierte Waymo Open Dataset Challenges 2023, wozu die Forschung eingeladen ist.

Seit der Einführung des Waymo Open Dataset 2019 haben es über 36.000 Forschende weltweit genutzt, um KI-Grundlagenforschung zu betreiben und wichtige Fortschritte in den Bereichen Computer-Vision, Verhaltensvorhersage und andere Themen des maschinellen Lernens zu erzielen. Die Forschungsgemeinde hat diesbezüglich über 1.300 Artikel veröffentlicht, wie zur Punkt-basierten 3D-Objekterkennung, end-to-end-Modellierung für Trajektorienvorhersage und Vogelperspektiven-Darstellung – als Zusammensetzung mehrerer Kamerabilder. Dabei ging es nicht nur um das autonome Fahren.

Waymo nutzte den Datensatz mit Google Brain genutzt, um eine neue Benchmark für “kausale Agenten” zu erstellen – Agenten dienen dem Aufbau von Bewegungsmodelle für dessen Prognose.

Die Waymo Open Dataset Challenges 2023 umfasst

  • 2D Video Panoptic Segmentation Challenge: Objektverfolgung in der Szene.
  • Pose Estimation Challenge: Lidargestützte Vorhersage von Bewegungen.
  • Motion Prediction Challenge: Vorhersage künftiger Positionen mehrerer Agenten mit den Daten der letzten Sekunde
  • Sim Agents Challenge: Herstellung von Sim-Agenten-Modellen. Dies ist der erste Wettbewerb für simulierte Agenten.

Die Erstplatzierten in jeder der vier Herausforderungen erhalten 10.000 US-Dollar an Google Cloud-Guthaben. Zusätzlich sind die erfolgreichsten Teams eingeladen, ihre Arbeit auf dem Workshop zum autonomen Fahren auf der CVPR im Juni 2023 vorzustellen.

Die 2023 Waymo Open Dataset Challenges enden am 23. Mai 2023 um 23:59 Uhr Pazifischer Zeit.

Neben den Herausforderungen für 2023 veröffentlichen wir auch neuere Versionen der Perception- und Motion-Datensätze sowie eine neue Datensatzstruktur, den Modular-Datensatz. Der Perception-Datensatz, das u.a. über eine neue Funktion für die 2D-Video-Panoptikum-Segmentierung verfügt. Der Motion-Datensatz mit Lidardaten aller Segmente.

Quelle mit Teilnahme-Informationen

David Fluhr

Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de

Das könnte dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ads Blocker Image Powered by Code Help Pro

Ads Blocker Detected!!!

We have detected that you are using extensions to block ads. Please support us by disabling these ads blocker.

Powered By
Best Wordpress Adblock Detecting Plugin | CHP Adblock