Ein gemeinsames Lagebild sieht mehr als jeder Sensor allein
Wie können fahrzeug- und infrastrukturseitige Sensoren gemeinsam ein verlässliches Lagebild erzeugen – und damit automatisiertes Fahren sicherer machen? An dieser Fragestellung haben die Partner des Projekts VALISENS drei Jahre lang intensiv geforscht und untersucht, wie sich das Umfeld automatisierter Fahrzeuge so erfassen lässt, dass alle Verkehrsteilnehmenden sicher unterwegs sind. Bei der Abschlussveranstaltung am Fraunhofer IVI in Dresden präsentierte das Konsortium die Ergebnisse vor einem Fachpublikum und zeigte bei einer Vorführung auf dem Testoval, wie Forschung direkt in die Anwendung gelangen kann.
Unfälle vermeiden und Vertrauen stärken
Kern des Projekts VALISENS war es, durch die Fusionierung von Sichtfeldern eine ganzheitliche, robuste und vernetzte sensorische Umfeldwahrnehmung zu erreichen und so Automatisierungsfunktionen der Level 3–5 auch in komplexen Umgebungen abzusichern. Das Ziel: Unfälle mit ungeschützten Verkehrsteilnehmenden (VRU) vermeiden und Vertrauen in autonome Systeme stärken.
Gemeinsam mit den Praxispartnern LiangDao, NXP Semiconductors, XITASO und smartmicro entstanden hierzu mehrere System-Einzelkomponenten, die im Zusammenspiel ihre Stärken entfalten. Drei Testfahrzeuge, ein mobiler Rover sowie infrastrukturseitige Sensoren tragen jeweils eigene Umfeldinformationen bei. Diese Daten werden dezentral in der Edge-Cloud fusioniert und anschließend über standardisierte V2X-Kommunikation zwischen den Systemen ausgetauscht. Alle angeschlossenen Einheiten – ob Fahrzeug oder Infrastruktur – können die empfangenen Informationen nahtlos integrieren und so ihr eigenes Umfeldmodell verbessern.
Aus der Zusammenführung dieser vielfältigen Datenquellen entsteht ein Gesamtsystem für Umfeldwahrnehmung, das ein präzises Lagebild erzeugt: Jedes System »sieht«, was die anderen erfassen. Die unterschiedlichen Sensorarten wie LiDAR, Radar, RGB- und Infrarotkameras bringen jeweils spezifische Stärken mit, deren Kombination Schwächen einzelner Technologien ausgleichen kann. So trägt die Fusion dazu bei, die Qualität der Wahrnehmung insgesamt zu erhöhen.
Um die Zuverlässigkeit der Sensorik zu gewährleisten und Sensordegradation frühzeitig zu erkennen, kommen digitale Selbsttests sowie Verfahren der Remote Inspection und Predictive Maintenance zum Einsatz.
Validierung im digitalen Testfeld
In mehreren Messkampagnen führten die Projektpartner praxisnahe Tests der Implementierungen in den digitalen Testfeldern in Dresden und Ingolstadt (»Erste Meile«) durch. In Dresden stand dafür insbesondere die mit Sensorik ausgestattete Smart Intersection, die intelligente Kreuzung, zur Verfügung. In Kombination mit den Testfahrzeugen des Instituts ließ sich das Zusammenspiel der Sensoren hier im regulären Straßenverkehr erproben. Ein Besuch der Smart Intersection war auch Teil der Live-Tour im Rahmen der Abschlussveranstaltung.
Gemeinsam mit den Praxispartnern möchte das Institut auch in weiteren Vorhaben das Potenzial der Sensorfusion erforschen, um die Mission einer unfallfreien Mobilität der Zukunft zu unterstützen.
VALISENS wurde vom Bundesministerium für Wirtschaft und Energie im Rahmen des KoPa4Mobility-Programms gefördert.