Fahrerassistenz und autonomes Fahren Vom Automotive-Radar zum Supersensor

Von Hwee Yng YEO * 8 min Lesedauer

Anbieter zum Thema

Bei der Technologie des autonomen Fahrens geht es darum, das autonome Fahrzeug so zu trainieren, dass es besser als ein Mensch fährt – oder zumindest sein Niveau erreicht. So wie sich der Mensch beim Fahren auf seine Sinne und kognitiven Reaktionen verlässt, ist die Sensortechnologie ein unverzichtbarer Bestandteil des autonomen Fahrens. Die Radartechnologie bietet große Vorteile, bringt aber Herausforderungen mit sich.

So wie sich der Mensch beim Fahren auf seine Sinne und kognitiven Reaktionen verlässt, ist die Sensortechnologie ein unverzichtbarer Bestandteil des autonomen Fahrens. (Bild:  Volvo)
So wie sich der Mensch beim Fahren auf seine Sinne und kognitiven Reaktionen verlässt, ist die Sensortechnologie ein unverzichtbarer Bestandteil des autonomen Fahrens.
(Bild: Volvo)

Unter den Kamera-, Radar- und Lidar-Sensoren hat das Radar vielleicht die längste Geschichte in der Verkehrssicherheit. Eine der ersten patentierten Radartechnologien, die für die Verkehrssicherheit zum Einsatz kam, war das „Telemobiloskop“. Es wurde vom deutschen Erfinder Christian Hülsmeyer als Tool zur Kollisionsvermeidung für Schiffe entwickelt.

Seitdem hat die Radartechnologie große Fortschritte gemacht und ist heute ein wichtiger Faktor für die Sicherheit von Fahrzeugen – mit einem beträchtlichen Markt, der auf über 5 Milliarden US-Dollar im Jahr 2023 geschätzt wird.

Vorteile betrachten

Automotive-Radar bietet mehrere Vorteile, die in Tabelle 1 aufgeführt sind. Diese Vorteile tragen dazu bei, dass Entwickler es für Fahrerassistenzsysteme (Advanced Driving Assistance Systems, ADAS) einsetzen. Radarsysteme in modernen Fahrzeugen ermöglichen automatische Notbremssysteme, Kollisionswarnungen, Totwinkelerkennung, Spurwechselassistenten, Auffahrwarnungen, adaptive Geschwindigkeitsregelungen auf Autobahnen und Stop-and-Go-Verkehr im dichten Verkehr.

Tabelle 1: Vorteile und derzeitige Grenzen der Automotive-Radartechnologie(Bild:  Keysight Technologies)
Tabelle 1: Vorteile und derzeitige Grenzen der Automotive-Radartechnologie
(Bild: Keysight Technologies)

Nur gibt es auch einige Nachteile – daher wird daran gearbeitet, die Einschränkungen der Technologie zu überwinden. Die Verfeinerung der Auflösung ist nach wie vor eine zentrale Herausforderung, aber die Innovationen der letzten Jahre haben zu Radarsystemen geführt, die eine höhere Genauigkeit bei der Objekterkennung bieten.

Differenzierung in 3D

Herkömmliche 3D-Automotive-Radarsensoren nutzen Hochfrequenzsignale, um Objekte in 3D zu erkennen: Entfernung, Position und Doppler oder Geschwindigkeit des Objekts. Um die Wertschöpfungskette in der Sicherheit für autonomes Fahren voranzutreiben, versucht die Branche weiterhin, die Grenzen des 3D-Radars zu überwinden. Seit 2022 wird sowohl in Europa als auch in den USA die Verwendung von 24-GHz-Ultrabreitband-Radarfrequenzen (UWB) von 21,65 GHz bis 26,65 GHz aufgrund von Frequenzvorschriften und -normen des Europäischen Instituts für Telekommunikationsnormen (ETSI) und der Federal Communications Commission (FCC) schrittweise eingestellt.

Mit der Abschaffung des 24-GHz-UWB-Spektrums haben die Regulierungsbehörden ein zusammenhängendes 5-GHz-Band mit Frequenzen von 76 GHz bis 81 GHz für Automotive-Radartechnologien geöffnet. Während das 76-GHz-Band für die Weitbereichserfassung genutzt wird, kommt das 77-81-GHz-Band für die hochpräzise Kurzbereichserfassung zum Einsatz.

Die höhere Frequenz und die größere Bandbreite moderner Automotive-Radarsysteme tragen dazu bei, die Entfernungsauflösung des Radars zu verbessern. Diese bestimmt, wie weit Objekte voneinander entfernt sein müssen, damit sie als zwei Objekte unterscheidbar sind. Bei einem 77-GHz-Radarsystem beispielsweise müssen zwei Objekte nur 4 cm voneinander entfernt sein, damit das Radar sie als einzelne Objekte erkennen kann, während bei einem älteren 24-GHz-System die Objekte mindestens 75 cm voneinander entfernt sein müssen, damit das Radar sie als einzelne Objekte erkennen kann (Bild 1).

Bild 1: Das 24-GHz-Radar (links) kann einzelne Objekte, die zu nahe beieinander liegen, nicht unterscheiden, während Radarsensoren, die im 77-GHz-Band arbeiten (rechts), die Ziele als separate Objekte erkennen.(Bild:  Keysight Technologies)
Bild 1: Das 24-GHz-Radar (links) kann einzelne Objekte, die zu nahe beieinander liegen, nicht unterscheiden, während Radarsensoren, die im 77-GHz-Band arbeiten (rechts), die Ziele als separate Objekte erkennen.
(Bild: Keysight Technologies)

Die Fähigkeit von Automotive-Radaren, Objekte zu unterscheiden, ist wichtig. Angenommen, ein Mädchen und sein Hund stehen zusammen am Straßenrand. Ein menschlicher Autofahrer kann dieses Szenario unter den meisten Umständen leicht erkennen und höchstwahrscheinlich auf eine plötzliche Bewegung des Hundes reagieren. Aber nur der Automotive-Radarsensor mit größerer Bandbreite kann das Mädchen und den Hund getrennt erkennen und dem autonomen Fahrsystem die richtigen Informationen liefern (Bild 2).

Bild 2: Der Testvergleich zwischen den Bandbreiten 1 GHz (links) und 4 GHz (rechts) zeigt, dass nur die weitere Bandbreite auf der rechten Seite zwei verschiedene Objekte erkennen kann.(Bild:  Keysight Technologies)
Bild 2: Der Testvergleich zwischen den Bandbreiten 1 GHz (links) und 4 GHz (rechts) zeigt, dass nur die weitere Bandbreite auf der rechten Seite zwei verschiedene Objekte erkennen kann.
(Bild: Keysight Technologies)

Sicherer navigieren mit 4D-Radar

Wenn der Mensch das Lenkrad an das System übergibt, muss die Radarsensorik in der Lage sein, Objekte in der Umgebung des Fahrzeugs genau zu erkennen, zu klassifizieren und zu verfolgen. Das treibt die Entwicklung von 4D-Radaren voran, die zusätzlich zu den bereits von 3D-Radaren angezeigten Entfernungen, horizontalen Positionen und Geschwindigkeiten noch genauere und detailliertere Informationen über Objekte im 3D-Raum einschließlich ihrer vertikalen Positionen liefern (Tabelle 2).

Tabelle 2: Unterschied zwischen 3D- und 4D-Radar(Bild:  Keysight Technologies)
Tabelle 2: Unterschied zwischen 3D- und 4D-Radar
(Bild: Keysight Technologies)

Das Aufkommen bildgebender 4D-Radare bedeutet, dass automatisierte Fahrzeuge kleinere Objekte mit höherer Auflösung erkennen können, wobei das bildgebende Radar eine vollständigere „Rundum“-Kartierung der Umgebung ermöglicht.

Die Fähigkeit, die Höhe von Objekten mit 4D- und bildgebenden Radaren zu erkennen, ist für automatisierte und autonome Fahrzeuge unerlässlich, um Objekte in der vertikalen Perspektive richtig zu interpretieren. Beispielsweise könnte das 3D-Radar eines autonomen Fahrzeugs Signale, die von einem flachen Gullydeckel abprallen, fälschlicherweise als Hindernis auf der Straße erkennen und plötzlich anhalten, um ein nicht vorhandenes Hindernis zu vermeiden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

In der realen Welt sind die von den Radarsystemen erfassten „Verkehrsereignisse“ nie einzelne Episoden, wie die oben genannten Beispiele. Der menschliche Fahrer manövriert zwischen Hunderten von anderen Fahrzeugen, Fußgängern, Baustellen und sogar dem gelegentlichen wilden Elch, der die Straße überquert (Bild 3). Er kombiniert dabei die von ihm visuell und akustisch wahrgenommenen Informationen sowie Verkehrsregeln, Erfahrung und Instinkt.

Bild 3: Wenn der Elch den Weg Ihres AV in der Dunkelheit der Nacht kreuzt, wird er dann im Scheinwerferlicht des Fahrzeugs erstarren, oder hätte das Weitbereichsradar rechtzeitig gewarnt und in einem respektvollen Abstand gebremst?(Bild:  Tony Campbell)
Bild 3: Wenn der Elch den Weg Ihres AV in der Dunkelheit der Nacht kreuzt, wird er dann im Scheinwerferlicht des Fahrzeugs erstarren, oder hätte das Weitbereichsradar rechtzeitig gewarnt und in einem respektvollen Abstand gebremst?
(Bild: Tony Campbell)

Ebenso ist das autonome Fahrzeug auf genaue Daten von Radarsensoren und anderen Systemen wie Kamera, Lidar und Vehicle-to-Everything-Systemen angewiesen, um die Verkehrsumgebung zu erkennen. Die verschiedenen Datenströme kommunizieren mit den ADAS- oder autonomen Fahralgorithmen. Diese helfen, die relative Position und Geschwindigkeit der erkannten Fahrzeuge oder Objekte zu erkennen. Die Steuerungsalgorithmen in den ADAS- oder AD-Systemen helfen dann, entweder passive Reaktionen auszulösen, wie das Aufleuchten von Warnleuchten, um den Fahrer auf die Gefahr eines toten Winkels aufmerksam zu machen oder aktive Reaktionen, beispielsweise eine Vollbremsung, um eine Kollision zu vermeiden.

Automotive-Radarerfassungen auf dem Prüfstand

Derzeit testen Automobilhersteller und Anbieter von Radarmodulen die Funktionalität ihrer Radarmodule sowohl mit Software als auch mit Hardware. Es gibt zwei Hauptmethoden für Hardware-basierte Tests:

  • Verwendung von Radarreflektoren, die in unterschiedlichen Abständen und Winkeln vom zu prüfenden Radargerät (DUT) aufgestellt sind, wobei jeder Reflektor ein statisches Ziel darstellt. Wenn eine Änderung dieses statischen Szenarios erforderlich ist, müssen die Reflektoren physisch an ihre neue Position gebracht werden.
  • Verwendung eines Radar-Zielsimulators (RTS), der eine elektronische Simulation der Radarziele ermöglicht und somit sowohl statische als auch dynamische Ziele sowie Entfernung, Geschwindigkeit und Größe der Ziele simulieren kann. Die Unzulänglichkeiten von RTS-basierten Funktionstests ergeben sich bei komplexen/realistischen Szenarien mit mehr als 32 Zielen. RTS-basierte Tests können auch nicht die Fähigkeiten von 4D- und bildgebenden Radargeräten zur Erkennung von ausgedehnten Objekten charakterisieren, d. h. von Objekten, die durch Punktwolken anstelle von nur einer Reflexion dargestellt werden.

Das Testen von Radargeräten gegen eine begrenzte Anzahl von Objekten liefert ein unvollständiges Bild von Fahrszenarien für autonome Fahrzeuge. Dabei wird die Komplexität der realen Welt ausgeblendet, insbesondere in städtischen Gebieten mit verschiedenen Kreuzungen und Abbiege-Szenarien mit Fußgängern, Radfahrern und Elektrorollern.

Intelligentere Radar-Algorithmen am Start

Machine Learning hilft Entwicklern zunehmend dabei, ihre ADAS-Algorithmen zu trainieren, um Daten von Radarsensoren und anderen Sensorsystemen besser interpretieren und klassifizieren zu können. In jüngster Zeit ist der Begriff YOLO in den Schlagzeilen über Automotive-Radar-Algorithmen aufgetaucht. Das Akronym steht für 'you only look once'. Dieses Akronym ist treffend, denn was das Radar wahrnimmt und wie die ADAS-Algorithmen die Daten interpretieren, sind einsatzkritische Prozesse, bei denen es um Leben und Tod gehen kann. Die YOLO-basierte Radar-Zielerfassung zielt darauf ab, mehrere Objekte gleichzeitig genau zu erkennen und zu klassifizieren.

Bevor diese selbstfahrenden Systeme in die letzte, kostspielige Phase der Straßenerprobung eintreten, müssen sowohl die physischen Radarsensoren als auch die ADAS-Algorithmen strengen Tests unterzogen werden. Um einen realistischeren 360-Grad-Blick auf verschiedene reale Verkehrsszenarien zu erhalten, haben die Automobilhersteller damit begonnen, Radarszenen zu emulieren, um die Straße ins Labor zu bringen.

Bild 4: Das Testen von Radarsensoren mit der Radarzielsimulation bietet keine vollständige Verkehrsszene für die Validierung von Anwendungen des autonomen Fahrens.(Bild:  Keysight Technologies)
Bild 4: Das Testen von Radarsensoren mit der Radarzielsimulation bietet keine vollständige Verkehrsszene für die Validierung von Anwendungen des autonomen Fahrens.
(Bild: Keysight Technologies)

Eine der größten Herausforderungen beim Übergang zum autonomen Fahren der Level 4 und 5 ist die Fähigkeit, zwischen dynamischen Hindernissen auf der Straße zu unterscheiden und autonom über das weitere Vorgehen zu entscheiden, anstatt nur ein Signal zu geben oder eine Warnung auf dem Armaturenbrett anzuzeigen. Bei der Nachbildung eines Verkehrsszenarios können zu wenige Punkte pro Objekt dazu führen, dass ein Radargerät eng beieinander liegende Ziele fälschlicherweise als eine einzige Einheit erkennt. Dadurch wird es schwierig, nicht nur den Sensor, sondern auch die Algorithmen und Entscheidungen, die sich auf die vom Radarsensor gelieferten Daten stützen, umfassend zu testen.

Eine neue Technologie zur Emulation von Radarszenen nutzt Raytracing und Punktwolken, um die relevanten Daten aus äußerst realistisch simulierten Verkehrsszenen zu extrahieren und ermöglicht eine bessere Erkennung und Unterscheidung von Objekten (Bild 5). Der Radar-Szenen-Emulator verwendet eine neuartige Millimeterwellen-Technologie (mmWave) und kann mehrere statische und dynamische Ziele aus einer Entfernung von 1,5 Metern bis 300 Metern und mit Geschwindigkeiten von 0 bis 400 km/h für Automotive-Radare mit kurzer, mittlerer und langer Reichweite erzeugen. Somit wird ein viel realistischeres Verkehrsszenario geschaffen, an dem die Radarsensoren getestet werden können.

Bild 5: Ein Screenshot des Tests des Erkennungsalgorithmus unter Verwendung der Radarszenenemulation. Der rechte Bildschirm zeigt ein simuliertes Verkehrsszenario, das durch den Radarszenen-Emulator auf der linken Seite emuliert wird. Die grünen Punkte stellen emulierte Radarreflexionen dar, während die roten Punkte Radarsensorerfassungen zeigen.(Bild:  Keysight Technologies)
Bild 5: Ein Screenshot des Tests des Erkennungsalgorithmus unter Verwendung der Radarszenenemulation. Der rechte Bildschirm zeigt ein simuliertes Verkehrsszenario, das durch den Radarszenen-Emulator auf der linken Seite emuliert wird. Die grünen Punkte stellen emulierte Radarreflexionen dar, während die roten Punkte Radarsensorerfassungen zeigen.
(Bild: Keysight Technologies)

Die Emulation von Radarszenen ist für Tests im Vorfeld von Fahrversuchen äußerst nützlich, weil sowohl die Radarsensoren als auch die Algorithmen zahlreiche Design-Iterationen durchlaufen können, um Fehler zu beheben und das Design zu verfeinern. Neben Funktionstests für ADAS und autonomes Fahren kann sie Automobilherstellern auch bei der Handhabung von Varianten helfen, zum Beispiel bei der Validierung der Auswirkungen verschiedener Stoßfänger-Designs, Lackierungen und der Positionierung von Radarmodulen auf die Radarfunktionen.

Die Verbesserung der fahrzeugseitigen Erfassung verschiedener realistischer Verkehrsszenen durch mehrere reproduzierbaren und anpassbaren Szenarien trägt dazu bei, dass Radarsensoren, riesige Datenmengen für das Machine Learning von Algorithmen für autonomes Fahren erfassen können.

Heutzutage spielt auch die digitale Signalverarbeitung (DSP) eine entscheidende Rolle bei der Feinabstimmung der einzelnen Radarerfassungen. So kann das Radar beispielsweise verschiedene Punkte der Arme und Beine eines Fußgängers erfassen, einschließlich Geschwindigkeit, Entfernung, Querschnitt (Größe) und Winkel (sowohl horizontal als auch vertikal), wie in Bild 6 dargestellt. Diese Informationen sind wichtig für das Training von Radaralgorithmen zur Identifizierung von Fußgängern im Gegensatz zum digitalen 4D-Formfaktor eines Hundes, der die Straße überquert.

Bild 6: Die fortschrittliche digitale Datenverarbeitung mit Radarszenenemulation ermöglicht eine größere Granularität dynamischer Ziele, wie z. B. eines sich bewegenden Fußgängers.(Bild:  Keysight Technologies)
Bild 6: Die fortschrittliche digitale Datenverarbeitung mit Radarszenenemulation ermöglicht eine größere Granularität dynamischer Ziele, wie z. B. eines sich bewegenden Fußgängers.
(Bild: Keysight Technologies)

Zuverlässige Tests sind A und O

Vom Design des Chips bis hin zu seiner Herstellung und der anschließenden Testphase des Radarmoduls erfordert jeder Schritt im Lebenszyklus von Design, Entwicklung und Herstellung von Automotive-Radaren strenge Tests.

Bei der Arbeit mit mmWave-Frequenzen für Automotive-Radaranwendungen gibt es viele Testherausforderungen. Entwickler müssen den Testaufbau berücksichtigen, sicherstellen, dass die Testausrüstung Ultrabreitband-mmWave-Messungen durchführen kann, den Verlust durch das Signal-Rausch-Verhältnis minimieren und die aufkommenden Standardanforderungen verschiedener Marktregionen für Interferenztests erfüllen.

Auf der Ebene der Radarmodule erfordert der Test moderner 4D- und bildgebender Radarmodule Messgeräte, die eine größere Bandbreite und eine bessere Entfernungsgenauigkeit bieten können.

Die ultimative Herausforderung besteht schließlich darin, das Automotive-Radar in das ADAS-System und das automatisierte Fahren zu integrieren und die Algorithmen von Standard-Fahrsituationen auf den "One-in-a-million"-Einzelfall zu testen. Das gut trainierte und getestete Radar-Supersensorsystem wird für reibungslosere und sicherere Fahrten für die Insassen sorgen, da immer mehr Fahrer in Zukunft in den Hintergrund treten werden.  (se)

* Hwee Yng YEO ist E-Mobility Advocate / Industry & Solutions Marketing Manager bei Keysight Technologies.

(ID:50054597)