2 Min Lesezeit
Autonomes Fahren: TUM Forschungsfahrzeug EDGAR
© TUM

Autonomes Fahren möglich zu machen, ist nicht nur technisch eine große Herausforderung, es wirft auch viele ethische und juristische Fragen auf. Wer entscheidet in heiklen Situationen, in denen andere Verkehrsteilnehmer*innen gefährdet werden oder zu Schaden kommen können? Wer übernimmt die Verantwortung und steht für die Folgen gerade? Bevor autonom fahrende Fahrzeuge also flächendeckend auf den Straßen unterwegs sein können, muss nicht nur die technische Umsetzung gemeistert werden. Bei der Entwicklung von Algorithmen müssen auch ethische Fragen berücksichtigt werden. Die Software muss mit unvorhersehbaren Situationen umgehen können und im Falle eines drohenden Unfalls die notwendigen Entscheidungen treffen.

Forschende der Trchnischen Universität München (TUM) haben nun erstmals einen ethischen Algorithmus entwickelt, der nicht nach der Maxime entweder/oder handelt, sondern das Risiko fair aufteilt. Rund 2.000 Szenarien mit kritischen Situationen wurden den Angaben zufolge getestet, verteilt auf verschiedene Straßentypen in Europa, aber auch in den USA und China. Für die Forschungsarbeit, die im Fachjournal „Nature Machine Intelligence“ veröffentlicht wurde, haben die Lehrstühle für Fahrzeugtechnik und für Wirtschaftsethik am „Institute for Ethics in Artificial Intelligence“ (IEAI) der TUM zusammengearbeitet. Die ethischen Rahmenbedingungen, an denen sich die Risikobewertung der Software orientiert, wurde 2020 im Auftrag der EU-Kommission in einem Empfehlungsschreiben definiert, das Grundsätze wie den Schutz schwächerer Verkehrsteilnehmender und die Aufteilung von Risiko im gesamten Straßenverkehr enthält.

Maximilian Geißlinger, Wissenschaftler am Lehrstuhl für Fahrzeugtechnik, erklärt den Ansatz: „Bislang wurden autonome Fahrzeuge im Falle einer ethischen Fragestellung immer vor die Entscheidung entweder/oder gestellt. Allerdings lässt sich der Straßenverkehr nicht in schwarz und weiß einteilen, sondern bedarf auch der Betrachtung der unzähligen Graustufen. Unser Algorithmus wägt verschiedene Risiken ab und trifft aus tausenden möglichen Verhaltensweisen eine ethische Entscheidung – und das in Sekundenbruchteilen.“ Bislang, so Franziska Poszler, Wissenschaftlerin am Lehrstuhl für Wirtschaftsethik, „wurden häufig traditionelle ethische Denkmuster gewählt, um Entscheidungen autonomer Fahrzeuge zu begründen. Das führte letztlich in eine Sackgasse, weil in vielen Verkehrssituationen nichts anderes übrigblieb, als ein ethisches Prinzip zu verletzen. Wir dagegen betrachten den Verkehr mit der Risikoethik als zentralem Ausgangspunkt. Das ermöglicht uns, mit Wahrscheinlichkeiten zu arbeiten und differenzierter abzuwägen.“

Die Forschenden betonen, dass auch Algorithmen, die nach der Risikoethik handeln, keinen unfallfreien Straßenverkehr garantieren können. Auch müssten künftig weitere Differenzierungen (etwa kulturelle Unterschiede) bei ethischen Entscheidungen berücksichtigt werden. Nach einer Validierung in Simulationen soll die Software nun mit dem Forschungsfahrzeug EDGAR auf der Straße getestet werden. Der Code der Software  steht Open Source zur Verfügung.


Mehr auf ndion

Entdecken Sie weitere Beiträge zum Thema Innovation und Automobilität.


Diese Seite auf Social Media teilen:

Print Friendly, PDF & Email