Autonomes Fahren – Offene Schnittstellen für viele Sensordaten

Redakteur: Dipl.-Ing. (FH) Hendrik Härter

Sensordaten spielen beim autonomen Fahren eine entscheidende Rolle. Doch fehlt es bisher an einer einheitlichen Schnittstelle. Mit einer Fusionsplattform soll sich das ändern.

Anbieter zum Thema

Sensordaten von verschiedenen Sensoren sollen künftig über eine standardisierte Schnittstelle zur zentralen Steuereinheit fließen.
Sensordaten von verschiedenen Sensoren sollen künftig über eine standardisierte Schnittstelle zur zentralen Steuereinheit fließen.
(Bild: Hella)

Mithilfe einer seriennahen Fusionsplattform will ein deutscher Forschungsverbund aus Hochschulen, IT-Unternehmen und Forschungseinrichtungen aus dem Umfeld der Automobilindustrie es den Automobilherstellern und ihrer Zulieferern ermöglichen, hoch- und vollautomatisierte Fahrerassistenzfunktionen für das automatisierte Fahren zu ermöglichen. Die Fusionsplattfom verfügt über offene Schnittstellen (Offene-Fusions-Plattform, OFP).

Das vom Bundesministerium für Bildung und Forschung mit 4,4 Mio. Euro geförderte Projekt wurde mit der Integration erster vollautonomer Fahrfunktionen in drei Demonstrationsfahrzeugen erfolgreich nach knapp über drei Jahren abgeschlossen. Bei dem umgesetzten Szenario fährt ein Elektrofahrzeug vollautomatisiert eine freie Ladestation auf einem Parkplatz an und positioniert sich über der Ladeplatte. Nach dem abgeschlossenen Ladevorgang sucht es sich vollautomatisiert einen freien Parkplatz ohne Ladeplatte. „Für derartige hoch- bzw. vollautomatisierte Szenarien existierten bislang lediglich Prototypen, die noch nicht seriennah waren“, sagt Dr. Michael Schilling, Projektleiter für die Vorentwicklung Automated Driving bei Hella und Verbundkoordinator für das OFP-Projekt. Die OFP wurde vom Verbundkoordinator Hella gemeinsam mit dem Deutschen Zentrum für Luft- und Raumfahrt, Elektrobit Automotive, Infineon Technologies AG, InnoSent, Hella Aglaia Mobile Vision, der Hochschule Reutlingen, der Geschäftsstelle Elektromobilität RWTH Aachen, Streetscooter Research und TWT Science and Innovation entwickelt. Zusätzlich unterstützten Continental und Nvidia als assoziierte Partner.

Sensor und Steuereinheit verbinden

Schon heute sind zwar Fahrerassistenzsysteme in Serie, etwa Stauassistenten, die Daten von zwei Sensoren fusionieren. „Doch für das vollautomatisierte Fahren ist es notwendig, dass die Fahrzeuge ihre gesamte Umgebung wahrnehmen können. Dafür müssen Daten von vielen Sensoren und Kameras fusioniert werden, um ein vollständiges Umgebungsmodell zu erzeugen, dass mit der erforderlichen Genauigkeit die Umwelt abbildet und auf dem sich die Fahrfunktion zuverlässig umsetzen lässt.“ Bislang ist eine standardisierte Schnittstelle zwischen den einzelnen Sensoren und der zentralen Steuereinheit nicht vorhanden. Aktuell sind die Schnittstellen der Fahrerassistenzsysteme sehr funktionsspezifisch und abhängig vom jeweiligen Zulieferer bzw. Automobilhersteller. Genau hier setzte das Forschungsprojekt an.

Als Input für die OFP dienten im Projekt vier Kameras und acht 77-GHz-Radarsensoren, die jeweils 360° um das Fahrzeug herum abdecken. Ein zusätzliches Vehicle-to-X-Communication-Modul (V2X-Modul) ermöglichte außerdem die Kommunikation zwischen Fahrzeugen und externer Infrastruktur, etwa der Ladeplatte. Die Verbundpartner haben gemeinsam die Schnittstellenbeschreibungen der einzelnen Komponenten in einer frei verfügbaren „Interface Specification“ offengelegt. Noch während des Projektes wurde vom Forschungsverbund gemeinsam mit weiteren führenden Automobilherstellern und Zulieferern ein ISO-Standardisierungsprozess für die Sensordatenschnittstellen gestartet.

Einheitliche Schnittstelle geplant

Mit Beendigung des Projektes wird eine aktualisierte Schnittstellenbeschreibung veröffentlicht, die auch in den laufenden ISO-Prozess einfließen wird. Damit haben erstmals alle Automobilhersteller und Zulieferer die Möglichkeit, ihre Produkte schnell und einfach in die Fusionsplattform zu integrieren. Hella Aglaia Mobile Vision hat mit dem Umgebungsmodell den zentralen Bestandteil der OFP entwickelt. Über die Visualisierungsmöglichkeiten können Entwickler sehen, wie das Fahrzeug die gesamte Umgebung wahrnimmt und auf dieser Basis entscheiden, welche Sensordaten fusioniert werden sollen. Ob komplexe Fahrerassistenzfunktionen oder vollautomatisierte Fahrfunktionen – sämtliche Funktionen können sie so programmieren.

Die Arbeiten an der OFP gehen auch nach dem Projekt weiter. Zentrale Fragestellungen werden sein, wie sich die Sensordaten mit Machine Learning verarbeiten lassen, um die Funktionen zu verbessern und die Entwicklungsarbeit weiter zu beschleunigen. Auch soll das Parkplatz-Szenario um urbane Fahrsituationen bzw. bei über 20 km/h erweitert werden. Diese Szenarien erfordern ein Zusammenspiel mit weiteren Sensoren, wie LiDAR. Genau in diesem Bereich der multisensoriellen Datenfusion kann die OFP schließlich ihr gesamtes Potenzial ausspielen. Darüber hinaus wird bei der Weiterentwicklung die funktionale Sicherheit eine große Rolle spielen, um zu gewährleisten, dass sämtliche entwickelte Funktionalitäten ausfallsicher funktionieren.

(ID:45827224)