Eichstätt
Ethische Neuorientierung durch autonome Autos

Lukas Ohly spricht im Rahmen des K’Universale über die ethischen Implikationen Künstlicher Intelligenz

09.11.2022 | Stand 09.11.2022, 18:00 Uhr

Der Theologe und Religionsphilosoph Lukas Ohly fragt, wie ein autonom fahrendes Auto unsere Ethik verändert. Foto: Luff

Von Robert Luff

Eichstätt – Wie verändert das autonom fahrende Auto unsere Ethik?, fragte der Frankfurter systematische Theologe und Religionsphilosoph Lukas Ohly, der zugleich als evangelischer Gemeindepfarrer tätig ist, am Montagabend und gab eine fundierte Antwort auf diese komplexe Frage: Die Künstliche Intelligenz, die bereits jetzt in den Bereich menschlicher Autonomie eindringt, wird zwar den Menschen als Fahrer nicht abschaffen, doch wird sich die Ethik an Algorithmen anpassen müssen, die auch für Dilemma-Situationen eine Lösung vorsehen, die in unserer bisherigen Ethik als unlösbar galten.

Von einer Dilemma-Situation spricht man bei jenen bekannten „Trolley Cases“, in denen sich zum Beispiel die Frage stellt: Wenn das Auto nicht mehr anhalten kann, weil Fußgänger plötzlich als Hindernis auftauchen, soll es dann eher ein Kind oder eher eine alte Person überfahren? Eine KI bedient sich für die Lösung einer derartigen Frage stets eines Verfahrens, das algorithmisch darstellbar sein muss und auf einer kasuistischen, rigorosen Ethik beruht, ähnlich Immanuel Kants Kategorischem Imperativ, der wie folgt lautet: „Handle stets nach der Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“

Allerdings gibt es zwischen einem Algorithmus und Kants Leitsatz beträchtliche Unterschiede. So ist ein Algorithmus stets monologisch und intransparent angelegt, bedarf einer Test- und Trainingsphase und wandelt nach einer langen Versuchsreihe die Ethik im Grunde in Technik um. Ein Mensch aber kommuniziert im Unterschied zum autonomen Auto leiblich mit seiner Umgebung, ist relativ frei in seinen Entscheidungen und macht auch Fehler, weil er auch unbewusst entscheidet. Für Trolley Cases hat er daher zu keinem Zeitpunkt eine Lösung parat, während die KI diese antizipiert. Dabei hat man in Tests auch sogenannte „rassistische“ Vorurteile autonom fahrender Autos festgestellt, wenn sie bei Tagesdämmerung dunkel gekleidete Menschen fälschlicherweise als Tiere identifizieren und diese dann überfahren.

Daher müsste man eigentlich die Interaktionssysteme KI und Mensch trennen, also eigene Straßen für menschliche Fahrer und davon getrennte für autonome Autos konstruieren. Doch schon beim Einsteigen in diese Fahrzeuge kommt es unweigerlich zu Berührungen zwischen beiden Systemen. Eine dilemmatische Situation überfordert herkömmliche ethische Systeme auch deshalb, weil sie die Kategorie des Bösen impliziert. Die traditionelle Ethik entscheidet aber nicht zwischen Gut und Böse, sondern zwischen Gut und Schlecht. „Böse“ Situationen sind eigentlich Gegenstand der Dogmatik und Luthers „Zwei-Regimenten-Lehre“ stellte einen Versuch dar, wie Staat und Kirche mit dem Bösen umgehen sollen.

Problematisch sah der Referent vor allem den Fall, wenn Menschenleben gegeneinander aufgerechnet werden. Denn obwohl selbstfahrende Autos viel besser fahren als Menschen und deutlich weniger Unfälle verursachen, sei es ethisch statthaft, autonome Autos zu verbieten und damit jene extrem seltenen Fälle zu verhindern, in denen ein KI-Fahrzeug einen Menschen tötet. Eine Verschiebung unserer ethischen Maßstäbe in Richtung einer Abstumpfung gegenüber Menschenleben wird die automotive KI aber wohl unausweichlich nach sich ziehen.

EK



Am Montag, 14. November, spricht Professor Daniel Cremers von der TU München über „Künstliche Intelligenz und Computer Vision“. Der Vortrag mit Diskussion beginnt um 18.15 Uhr in Raum A 201.

EK