Moral bei Maschinen:

Wie sollen sich Roboterautos bei unvermeidbaren Unfällen verhalten?

< zurück

Seite: 2/2

Claudia Brändle vom Institut für Technikfolgenabschätzung am Karlsruher Institut für Technologie (KIT) bewertet die Berücksichtigung „persönlicher Verantwortung“ generell zurückhaltend: Es sei problematisch, „persönliche Verantwortung“ verschiedener Akteure in einen Algorithmus einzubeziehen, „vor allem wenn die Konsequenzen für Fehlverhalten so schwerwiegend ausfallen können.“

Auch Ortwin Renn, wissenschaftlicher Direktor des Research Institute for Sustainability (RIFS) in Potsdam, sieht noch offene Fragen. So könnten Widersprüche zwischen den fünf Kriterien auftreten. „Man stelle sich vor, links stehen zwei junge kraftstrotzende Männer und rechts eine gebrechliche ältere Frau. Zielt der Fahrer auf die ältere Frau, nimmt er in Kauf, dass diese Frau bei einem Aufprall wesentlich mehr Verletzungen davontragen wird als die beiden Männer, demnach wäre das zweite Kriterium der Priorität für die höchst verwundbare Person verletzt. Gleichzeitig würde aber dadurch das Gesamtrisiko verringert, weil jetzt eine Person statt zwei zu Schaden kommen würde. Damit wäre das erste Kriterium erfüllt. Welches der beiden Kriterien hat dann Vorrang?“

Auch individuell konfigurierbare Einstellungen denkbar

Den Münchner Forschern sind solche Probleme bewusst. Wie genau diese Fragen jeweils gewichtet werden sollen, muss ihrer Ansicht nach gesellschaftlich diskutiert werden. Eine Position, die auch große Teile der Autoindustrie vertreten. Sie spricht sich bei der Aufstellung der Verhaltensregeln für einen breiten gesellschaftlichen Konsens aus. Andere Hersteller sehen sich selbst in der Pflicht, da die Verantwortlichkeit für das Produkt bei ihnen liegt. Ein dritter Akteur könnte der Kunde selbst sein, der durch sein Kaufverhalten Einfluss nimmt. Denkbar ist überdies, dass der Kunde die Einstellungen der Maschine in einem abgesteckten Rahmen selbst verändern kann.

Wie auch immer es weitergeht: Klar ist, dass Autos schon heute moralische Entscheidungen treffen könnten. Man denke zum Beispiel an Kamerasysteme mit Bilderkennung, die zwischen Menschen und Tieren unterscheiden. Noch machen sie ihre Fahrstrategie nicht davon abhängig, wer vor der Motorhaube auftaucht – technisch wäre es ohne weiteres möglich, für das eine Lebewesen auszuweichen, für das andere nicht. Ein paar wichtige Fragen sind also noch zu klären, bevor Roboterautos in großer Zahl die Straßen bevölkern können.

Klar ist aber, dass es im Einzelfall nicht immer eine moralisch perfekte Lösung geben kann. Denn die Künstliche Intelligenz ist limitiert, nicht nur in der Version der Münchner Forscher: „Man muss wissen, auch dieser Algorithmus kann – genau wie andere – Risiken für Schäden lediglich minimieren, aber nicht ausschließen“, kennzeichnet Brändle die Grenzen der Technik.

(ID:49107523)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung