Suchen

Fahrerassistenzsysteme: Vier Schritten für eine höhere Genauigkeit und Zuverlässigkeit

| Autor / Redakteur: Stewart Haston / Benjamin Kirchbeck

Der Weg hin zum Autonomen Fahren ist vorgezeichnet. Immer mehr Fahrzeughersteller entwerfen und erproben schrittweise Lösungen für das Endziel vollautonomer Fahrzeuge. Doch bis zum flächendeckenden Einsatz sind noch einige Hürden zu überwinden.

Firma zum Thema

Ein mit Radar ausgestattetes Fahrzeug kann andere Fahrzeuge, Fußgänger oder Objekte auf der Straße erkennen und feststellen, wie weit sie entfernt sind und wie schnell sie sich bewegen.
Ein mit Radar ausgestattetes Fahrzeug kann andere Fahrzeuge, Fußgänger oder Objekte auf der Straße erkennen und feststellen, wie weit sie entfernt sind und wie schnell sie sich bewegen.
(Bild: Clipdealer)

Gerade in Deutschland müssen bis zur Straßentauglichkeit autonomer Mobilitätskonzepte neben zahlreichen technischen und infrastrukturellen Herausforderungen geklärt werden – etwa Fragen der Fahr- sowie der Datensicherheit. Denn die Fahrzeuge sollen in Zukunft ja alle möglichen Verkehrsszenarien beherrschen, und zwar überall auf der Welt. Das bedeutet, die Systeme müssen in Zukunft nicht nur verkehrssicher, sondern auch datensicher entwickelt sein, um mögliche Cyber-Angriffe abwehren zu können.

Um Fahrzeugführer dazu zu bewegen, die Kontrolle über ihr Vehikel abzugeben, müssen sie absolutes Vertrauen in das Autonome Fahren haben. Dieses Vertrauen speist sich aus der Sicherheit der Systeme und ihrer Fähigkeit, das Verkehrsgeschehen um sie herum vollständig erfassen, analysieren und in Echtzeit angemessen darauf reagieren zu können. In diesem Zusammenhang spielt die Art und Weise der Informationsgewinnung im laufenden Verkehr durch Sensoren eine entscheidende Rolle.

Fusion verschiedener Sensortechnologien

Den ersten Schritt zur Unterstützung von Fahrern haben Fahrerassistenzsysteme (ADAS = Advanced Driver Assistant System) bereits geliefert. Es gibt allerdings noch immer Debatten darüber, welche Art von Sensoren am besten für diese Systeme geeignet sind. Zwar gibt es jeweils viele Befürworter von singulären Radar-, Lidar- und Kamerasensoren, doch es besteht ein wachsender Konsens darüber, dass sich letztendlich eine Kombination oder Fusion verschiedener Sensortechnologien durchsetzen wird.

ADAS-Lösungen umfassen in der Regel eine Mischung aus mehreren Standard-Sicherheitsfunktionen, darunter Spurhalteassistent, Warnung vor Front- und Heckaufprall sowie Toter-Winkel-Erkennung. Hardwareseitig arbeiten Anbieter hier etwa mit FOV-40°-Kameras (FOV = Field of View) aus dem Automobilbereich, die an ein Computer-Vision-System angeschlossen sind. Neben der Bereitstellung zusätzlicher Funktionen wie z. B. der dynamischen Erkennung bewegter Objekte sowie Lösungen zur Fahrerüberwachung, aktualisieren und verbessern Anbieter auch die KI-Algorithmen, die auf der Software-Ebene diese Funktionen ermöglichen.

Radarsensoren als Ergänzung von ADAS-Systemen

Eine weitere Option, mit der die Genauigkeit der Systemlösungen verbessert werden kann, ist die Erweiterung der ADAS-Lösung um Radarsensoren im Zusammenspiel mit einer Technologie, die Daten von verschiedenen Sensortypen zusammenführt. Bei Radar handelt es sich um eine ausgereifte Technologie, die es bereits vor dem Zweiten Weltkrieg gab und die einige Vorteile mit sich bringt. Es werden zunächst Radiowellen auf ein Ziel gerichtet und dann die Frequenz der Wellenreflexionen gemessen, um die Entfernung und Geschwindigkeit des Zielobjekts zu berechnen. Auf diese Weise kann ein mit Radar ausgestattetes Fahrzeug andere Fahrzeuge, Fußgänger oder Objekte auf der Straße erkennen und feststellen, wie weit sie entfernt sind und wie schnell sie sich bewegen – das liefert exakt die Daten, die für eine genaue Frontal-Kollisionswarnung (FCW = Forward Collision Warning) erforderlich sind. Das Problem mit Radarsystemen ist jedoch, dass sie dazu neigen, alles innerhalb ihres spezifischen Sichtfeldes oder ihrer Reichweite zu erfassen, einschließlich Bäumen, Gebäuden und sogar Grashalmen neben der Straße.

An dieser Stelle kommen Lösungen wie etwa das VIA Mobile360 Sense System zum Zuge, die Daten verschiedener Sensortypen kombinieren und quasi vervollständigen können. Bei diesem System verwendet die an der Fahrzeugvorderseite angebrachte FOV-40°-Kamera Objekterkennungsalgorithmen, die dem Radar helfen, sich nur auf Objekte zu konzentrieren, die für die Fahrsicherheit von Bedeutung sind (Autos, Lastwagen, Fußgänger usw.). Die Kamera erkennt das Zielobjekt und ermöglicht es dem Radar dann, Entfernung und Geschwindigkeit genau zu berechnen.

KI-Algorithmen zur Unterstützung von Spurhalteassistenten

Erwähnenswert ist auch, dass die Kameras KI-Algorithmen verwenden, um die Fahrspur zu erkennen, in welcher das Fahrzeug fährt. Dadurch kann das System Spurhalteassistenten (LDW = Lane Departure Warning) einsetzen, die den Fahrer warnen, wenn er aus der Fahrspur gerät, zum Beispiel aufgrund von Müdigkeit oder Ablenkung. Ein dafür benötigter Radarsensor kann etwa über der Stoßstange an der Vorderseite des Autos angebracht werden. Der Sensor kann beispielsweise im Nahbereichsmodus konfiguriert werden, der eine effektive Objekterfassung in Entfernungen von bis zu 60 Metern bei einem Sichtfeld von 90° ermöglicht. Alternativ kann das Radar im Langstreckenmodus konfiguriert werden, der eine Objekterfassung bis zu einer Entfernung von 127 Metern mit einem schmaleren Sichtfeld (FOV) von 20° ermöglicht.

Verbesserter Annäherungswahrnehmung durch Ultraschallsensoren

Neben der Verbesserung von ADAS-Systemen mithilfe von Radarsensoren, bietet sich zudem die Möglichkeit, die Kameras von Fahrerassistenzsystemen mit Ultraschall-Näherungssensoren zu ergänzen, um eine 360°-Rundum-Ansicht mit verbesserter Annäherungswahrnehmung zu erreichen. Auch hier geht es darum, die Sensordaten aus zwei Quellen zu integrieren, um dem System eine verbesserte „Intelligenz“ und ein klareres Bild von dem zu geben, was im Umfeld geschieht – als ob man einem Augenpaar ein Paar Ohren hinzufügen würde.

Surround View Systeme umfassen in der Regel mehrere FOV 190°-Kameras, die auf jeder Seite des Fahrzeugs positioniert und beispielsweise über FAKRA-Kabel mit dem Computer-Vision-System verbunden sind. Mithilfe einer besonderen Bildverarbeitungstechnologie können die Aufnahmen der Kameras dann zusammengefügt werden, um eine einheitliche und klare Panoramasicht des Fahrzeugs von oben zu erhalten. Diese Ansicht kann dem Fahrer dann etwa in Echtzeit über ein robustes, im Fahrzeug montiertes Display angezeigt werden. Die Fähigkeit, alle vier Seitenbereiche des Fahrzeugs einsehen zu können, ist natürlich nützlich, wenn man rückwärts um eine Kurve fährt oder andere komplizierte Fahrmanöver durchführt. Aber in Wirklichkeit sind die Aufmerksamkeit und der Fokus des Fahrers die meiste Zeit auf die vor ihm liegende Straße gerichtet. Aus diesem Grund können akustische oder optische Abstandswarnungen eine sehr wichtige Nebenrolle bei der Vermeidung von Unfällen und Kollisionen spielen.

Ultraschallsensoren verwenden Schallwellen, die mit hohen Frequenzen abgestrahlt werden und für Menschen nicht zu hören sind. Der Sensor misst die Zeit zwischen der Reflexion und der Rückkehr der Schallwellen, ähnlich, wie Radarsensoren Radiowellen zur Erkennung von Objekten verwenden. Treffen die Schallwellen auf ein Objekt (z.B. einen Fußgänger oder ein Fahrzeug), kann dessen Position berechnet werden. All dies geschieht fast ohne Zeitverlust. Einmal richtig konfiguriert, erkennen alle Sensoren zusammen sämtliche Objekte in der Umgebung.

Die Daten der Ultraschall-Näherungssensoren können mit dem Surround-Videodatenstrom integriert und so Näherungsalarme visuell durch Linien dargestellt werden, wenn eine Person oder ein Objekt erkannt wird. Zudem können Audiowarnungen den Fahrer auf Fälle aufmerksam machen, in denen sich ein Objekt gefährlich nahe am Fahrzeug befindet. Zur Unterstützung des Fahrers, der die vor ihm liegende Straße im Blickfeld hat, können akustische Warnungen so konfiguriert werden, dass der Fahrer auf jedes Objekt oder jede Person aufmerksam gemacht wird, das/die in den Sensorbereich eintritt, um Kollisionen zu vermeiden.

Fazit

Koordinative 360-Grad-Systeme führen Daten von verschiedenen Sensortechnologien in Echtzeit zusammen, um dem ADAS-System bzw. dem Fahrer ein klareres Bild der vor ihm liegenden Strecke sowie der gesamten Fahrzeugumgebung zu vermitteln. Solche koordinativen Systeme sind die Voraussetzung für die Einführung vollautonomer Fahrzeuge der Zukunft und können als entscheidender angesehen werden. Bereits heute dient diese Technologie als Grundlage für fahrzeuginterne Sicherheitssysteme für Kraftfahrer und ist damit ein wichtiger Schritt zur Vermeidung von Verkehrsunfällen und zur Rettung von Leben.

* Stewart Haston ist für VIA Technologies im Bereich des technischen Marketings tätig.

(ID:46734980)