NVIDIA-Hardwareplattform und CarMaker trainieren Deep-Learing-Algorithmen

Redakteur: Hendrik Härter

Wird die Hardwareplattform von NVIDIDA mit der Simulationssoftware CarMaker verknüpft, lassen sich Deep-Learning-Algorithmen für den virtuellen Fahrversuch trainieren. Damit sollen sichere Systeme für selbstfahrende Autos möglich werden.

Firmen zum Thema

Algorithmen basierend auf neuronalen Netzen lernen, relevante Informationen wie andere Fahrzeuge und Fahrbahnmarkierungen in Echtzeit zu erkennen.
Algorithmen basierend auf neuronalen Netzen lernen, relevante Informationen wie andere Fahrzeuge und Fahrbahnmarkierungen in Echtzeit zu erkennen.
(Bild: IPG)

Wie bringt man ein Fahrzeug dazu, selbstständig und autonom zu fahren? Man lässt es bei echten Fahrern zuschauen und lernen. Möglich macht das die offene Computing-Plattform DRIVE PX 2 von NVIDIA. Das Besondere der Hardwareplattform ist die Graphics Processing Units (GPUs). Mit ihr lassen sich neuronale Netze und Deep Learning-Anwendungen schneller entwickeln und testen, als wenn eine herkömmliche CPU zum Einsatz kommt.

Die auf neuronalen Netzen basierenden Algorithmen erkennen schon nach Kurzem in Echtzeit, wie andere Verkehrsteilnehmer oder Verkehrsschilder aussehen und ermöglichen selbst in komplexen Verkehrssituationen eine Orientierung im Straßenverkehr. Die Simulationssoftware CarMaker kann mit der NVIDIA-Hardwareplattform verknüpft und zum Training von neuronalen Netzen im virtuellen Fahrversuch verwendet werden. Darüber hinaus ermöglicht es die Verknüpfung, auch Deep Learning-Sensorfusionsalgorithmen zur Steuerung von Fahrerassistenzsystemen und automatisierten Fahrfunktionen virtuell zu entwickeln und testen.

360-Grad-Umgebung in Echtzeit

Die NVIDIA-Grafikprozessoren sind so leistungsfähig, dass sie auch für die Interpretation von Sensordaten einsetzbar sind. Die Daten von bis zu zwölf Kameras sowie von Lidar-, Radar- und Ultraschallsensoren können ausgewertet werden und so eine vollständige 360-Grad-Umgebung in Echtzeit abbilden. Deep Neural Networks (DNN) ermöglichen bei der Erkennung und Klassifizierung von Objekten eine hohe Genauigkeit der Ergebnisse aus den zusammengelaufenen Sensordaten und lassen das autonome Auto präzise und auf einer sicheren Route fahren, die angepasst an die jeweiligen Umstände ist.

Die Simulationslösungen der CarMaker-Produktfamilie und der NVIDIA-Hardwareplattform miteinander zu verknüpfen, eröffnet den Entwicklungsabteilungen der Fahrzeughersteller und Zuliefererindustrie auch die Möglichkeit, frühzeitig Fahrerassistenzsysteme und automatisierte Fahrfunktionen im virtuellen Fahrversuch zu testen. Bislang wurde dem neuronalen Netz ein reales Fahrvideo mit entsprechenden Daten zu Fahrbahnmarkierungen, Verkehrsteilnehmern, Gebäuden oder geparkten Autos in verschiedenen Sicht- und Wetterverhältnissen wie Wolken, Nebel, Schnee und Regen, Tag oder Nacht vorgespielt. Mithilfe von CarMaker lassen sich reproduzierbare Daten unterschiedlichster Szenarien virtuell erzeugen und zum Training der neuronalen Netze verwenden.

Kamerabilder sind mit Steuergerät verknüpft

Verknüpft mit der Video-Interface-Box sind zudem Closed-Loop-Testverfahren von Kamerasteuergeräten durch direkte Bildeinspeisung möglich. Beim Testen von Fahrerassistenzsystemen auf sogenannten Hardware-in-the-Loop-Prüfständen kann es aufgrund der fehlenden Synchronisation zwischen Bildaufbau im Monitor und der Bilderfassung in der Kamera zu zerrissenen Bildern kommen. Gleichzeitig sind digitale Flachbildschirme zu licht- und kontrastschwach, um Eingangsdaten für Lichtassistenzfunktionen liefern zu können.

Ebenfalls ist es möglich über GMSL (Gigabit Multimedia Serial Link) Bilder der Simulationsumgebung direkt in das NVIDIA DRIVE PX 2 einzuspeisen. Im Closed-Loop-HIL-Verfahren kann die Video-Interface-Box kamerabasierte Funktionen mit weiteren Steuergeräten inklusive der simulierten Umfeldsensorik überprüfen und somit die Vorteile des virtuellen Fahrversuchs auch im Kontext einer Sensordatenfusion nutzen.

(ID:45341410)