Moral bei Maschinen:Wie sollen sich Roboterautos bei unvermeidbaren Unfällen verhalten?
Quelle:
sp-x
5 min Lesedauer
Autonom steuernde Fahrzeuge sollten im Notfall besser reagieren als ein Mensch. Was aber, wenn ein Unfall trotz überlegener Reaktionszeit unvermeidbar ist?
Technisch und juristisch ist beim autonomen Fahren noch einiges zu klären. Auch moralische Fragen sind noch offen: Wie zum Beispiel soll sich ein Robotermobil bei nicht abzuwendenden Unfällen verhalten? Forscher der TU München haben nun einen Algorithmus entwickelt, der die Frage ethisch korrekt beantworten soll.
Das autonome Auto der Zukunft tötet bei einem Unfall planvoll. Während der Mensch in den Sekunden vor dem Aufprall kaum eine Chance zum bewussten Reagieren hat, kann das Roboterauto in dieser Zeit Millionen Berechnungen durchführen – und aus mehreren Handlungsoptionen wählen. Rast es lieber vor die Wand und opfert seine Insassen oder nimmt es den Weg in die Menschenmenge? Kollidiert es mit dem dicken SUV oder dem für ihn ungefährlicheren Kleinwagen? Rammt es eher den Radfahrer mit oder den ohne Helm aus dem Sattel? Um das zu entscheiden, braucht die Maschine eine Art moralischen Kodex. Und den muss der Mensch ihr einprogrammieren.
Einheitliche Vorgaben für alle Hersteller gefordert
Die Ethik von Roboterautos beschäftigt zunehmend auch die Autohersteller: Wie soll das vollautomatisiert fahrende Auto der Zukunft in derartigen Dilemma-Situationen entscheiden? Wenn trotz mehrerer Handlungsalternativen immer Menschenleben oder zumindest Sachwerte auf dem Spiel stehen? Schon 2017 sprachen sich 86 Prozent der befragten Branchenvertreter bei einer Umfrage des IT-Verbands Bitkom für die Schaffung eines unabhängigen Ethikrates ein, der die Regel für das Verhalten bei Unfällen festlegt. Besetzt werden sollte das Gremium mit Philosophen, Juristen, Technikern und Politikern.
Die Alternative, dass jeder einzelne Autohersteller seine eigenen Regeln anwendet, galt schon damals als gefährlich. Dann nämlich würde die Programmierung des Fahrzeugs zu einem wichtigen Punkt bei der Kaufentscheidung. Und wer würde ein Auto kaufen wollen, dass bei einem unvermeidbaren Unfall im Zweifel seinen Fahrer gefährdet, um andere Schäden zu vermeiden? Die Folge könnte ein rigoroser Egoismus der Algorithmen sein.
Dieser „Charakterschwäche“ soll der nun in der Zeitschrift „Nature Machine Intelligence“ veröffentlichte ethische Algorithmus der Münchner Forschergruppe nicht unterliegen. Dafür hat sie fünf Faktoren bestimmt, die bei der Entscheidungsfindung eine Rolle spielen sollen: das akzeptable Maximalrisiko eines Manövers, den besonderen Schutz der gegebenenfalls am schlimmsten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmer. So soll das Risiko künftig fair zwischen autonomen Fahrzeugen, normalen Autos, Fußgängern und Zweiradfahrern verteilt werden.
Auto müsste zwischen unerwünschten Folgen abwägen
Bis jetzt gibt es diesen Algorithmus nur im Labor und nicht auf der Straße. Allerdings existieren auch noch keine komplett autonom fahrenden Serienautos. Doch die Technik schreitet voran, langsam, aber stetig. Bereits heute können Pkw ohne menschlichen Eingriff Bremsmanöver durchführen, die Fahrtrichtung ändern oder im Stau mitschwimmen. Bis zum Ende des Jahrzehnts soll der Computer dem menschlichen Fahrer einen immer größeren Teil seiner Aufgaben abnehmen.
Erste Autos wie der Mercedes EQS fahren zumindest unter bestimmten Bedingungen vollständig automatisiert, während der Mensch hinterm Steuer sich anderen Tätigkeiten widmen darf. Dazu dürften auch in Deutschland mittelfristig Roboauto-Fahrdienste ihren Serienbetrieb starten und Passagiere ganz ohne Fahrer, Lenkrad oder Pedalerie durch die Gegend chauffieren.
Die autonomen Autos sollen durch eine vorausschauende und eher defensive Fahrweise kritische Entscheidungen nach Möglichkeit vermeiden. In komplexeren Verkehrssituationen sind mittelfristig aber Situationen denkbar, in denen das nicht mehr ausreicht. Dann könnte das Auto gezwungen sein, zwischen mehreren Handlungen mit unerwünschten Folgen abzuwägen. Und – wie eingangs erwähnt – zwischen der Kollision mit einem Laster und einem Kleinwagen entscheiden.
Widersprüche zwischen den Kriterien
Dass die Software der Münchner Forscher bei der Bewertung solcher Situationen grundsätzlich taugt, haben die Wissenschaftler nach eigenen Angaben in Tausenden Simulationen bestätigt. Trotzdem wird das System immer an Grenzen stoßen. So kann es bei der Bewertung der Eigenverantwortung anderer Verkehrsteilnehmer beispielsweise nicht unterscheiden, ob jemand aus Unachtsamkeit auf die Straße tritt oder ob er gestoßen wird.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.