Herr
"Schwierig sind die moralischen Entscheidungen"

07.12.2015 | Stand 02.12.2020, 20:27 Uhr

Ein Spielzeugroboter muss putzig aussehen und Kinder unterhalten – ein selbst fahrendes Auto ist eine ganz andere Dimension. Grundsätzlich fährt der Computer sicherer als der Mensch. Doch ist wirklich jede Situation im Vorfeld programmierbar - Fotos: Thinkstock/Oppenheimer

Herr Holischka, selbst fahrende Autos werden in absehbarer Zukunft Realität werden. Würden Sie Ihr Leben einer Maschine anvertrauen, die eigenständige Entscheidungen trifft

Tobias Holischka: Wir müssen sehen, dass wir bereits viele Technologien haben, denen wir unser Leben anvertrauen. Denken sie nur an den Autopilot-Modus in einem Flugzeug. Das ist ja eine Maschine, die mehr oder weniger eigenständige Entscheidungen trifft. Die Eigenständigkeit beruht zwar nicht auf völliger Willensfreiheit. Was diese Maschinen bislang tun, ist programmiert und an eine Sensorik gekoppelt. Die Entscheidungen sind von einem Ingenieur in gewisser Weise konzipiert und vorweggenommen.

 

Lenkt ein Computer das Auto besser als der Mensch?

Holischka: In Situationen, die eine besonders schnelle Reaktion erfordern, ist die Maschine wahrscheinlich schneller. Und dann kommt der Faktor Emotionen dazu. Ein wütender Mensch, der sich etwa provoziert fühlt, fährt anders als ein gelassener, der auf Sicherheit achtet. In besonderen Situationen wie beim Überholen oder Drängeln würde sich eine Maschine nicht aus der Ruhe bringen lassen. Schwierig sind dagegen die moralischen Entscheidungsfälle, in die man natürlich hineingeraten kann.

 

Wir nehmen mal ein besonders extremes Beispiel: Das Auto muss entscheiden, ob es mich als Fahrer an den Baum lenken, lieber einen Rentner überfahren oder in einen Schulbus rasen soll. Was nun?

Holischka: Solche Szenarien werden innerhalb der Technikphilosophie und der Maschinenethik kontrovers diskutiert. Die Tendenz geht derzeit in die Richtung, dass man versucht, solche Situationen unter allen Umständen zu vermeiden – beziehungsweise sie nicht von der Maschine entscheiden zu lassen. Die Regel könnte lauten: Lieber extrem defensiv fahren und versuchen, jeden Unfall zu vermeiden, als so eine Entscheidung treffen zu müssen.

 

Aber muss am Ende nicht doch für den Fall der Fälle eine Liste mit derartigen Prioritäten im Speicher hinterlegt sein?

Holischka: Meine persönliche Meinung ist, dass man diese Fragen weder pauschal im Voraus noch algorithmisch lösen darf. Denn aus der moralischen Perspektive bekommen wir immense Probleme, wenn wir Maschinen solche Entscheidungen treffen lassen. Es gibt Situationen, die ein Programmierer nicht erahnen kann. Und eine Maschine entscheiden zu lassen, welcher Mensch mehr wert ist – das darf nicht passieren. Denn Maschinen sind keine autonomen moralischen Subjekte, und ihre Entscheidungen würden von den Menschen auch nicht als moralische Urteile akzeptiert werden.

 

Wie problematisch ist die IT-Sicherheit? Sind Hacker-Angriffe auf selbst fahrende Autos realistisch?

Holischka: Wir mussten bei der Einführung neuer, vernetzter Technologien fast regelmäßig beobachten, dass der Sicherheitsaspekt zunächst im Hintergrund steht. Es gab schon in den 80er Jahren Fälle, in denen sich Hacker in Atomkraftwerke gehackt und die Kontrolle übernommen haben. Dass autonome Autos von Hackern gesteuert werden, halte ich für nicht unrealistisch. Leider.

 

Die Autohersteller sagen, sie seien bestens gerüstet.

Holischka: Hersteller bestreiten immer, dass es irgendwelche Unsicherheiten gibt – bis sie entdeckt werden. Ich kann mir nicht vorstellen, dass alle Hersteller für alle Eventualitäten Sicherheitsvorkehrungen einbauen können. Es ist zu befürchten, dass nicht alle Schwachstellen von vorneherein erkannt werden. Wie wir erst vor Kurzem gesehen haben, sind nicht einmal die Computer des Bundestags sicher.

 

So eine Fernsteuerung durch Hacker könnte ja im Moment aber bei einem Flugzeug auch schon der Fall sein.

Holischka: Das ist richtig. Aber da sitzen immer noch zwei Piloten, die im Notfall übernehmen können. Wenn unsere Autos – so wie das Google-Auto – einmal kein Lenkrad mehr haben, dann wird es schwierig.

 

Muss dann eine Art Not-Aus-Knopf vorgeschrieben werden?

Holischka: Eine spannende Frage. Weil so ein Schalter selbst nämlich hochproblematisch ist. Denken Sie an ein Auto, das mit Tempo 200 auf der Autobahn fährt – das kann ich nicht einfach ausschalten. Natürlich sollte es Mechanismen geben, um die Kontrolle zurückzuerhalten. Doch die Detaillösung ist denkbar schwierig, gerade wenn kein Lenkrad mehr eingebaut ist, damit der Mensch übernehmen kann.

 

Gibt es generell Bereiche, in denen Sie den Einsatz von Robotern für problematisch hielten?

Holischka: Die Altenpflege wäre etwa so ein Thema. Das ist ein Bereich des zwischenmenschlichen Zusammenlebens, der sehr emotional besetzt ist. Wenn auf einmal Maschinen in diesen eigentlich innerfamiliären Tätigkeitsbereich kommen, dann wirkt das sehr kalt, steril, lieblos. Pflege sozusagen durch einen Industrieroboter – wie am Fließband. Das verursacht Bauchschmerzen. Die Frage ist, wie weit man Roboter dort einsetzt. Zur Unterstützung des Pflegepersonals, etwa beim Heben oder zur gesundheitlichen Überwachung, da, glaube ich, ist durchaus Potenzial da.

 

Wird sich unsere Beziehung zu Robotern ändern? In Zukunft soll ja auch die Hand-in-Hand-Arbeit von Roboter und Mensch deutlich mehr werden.

Holischka: Das glaube ich durchaus. Wir sind es ja jetzt schon gewohnt, mit Automaten zu interagieren. Etwa mit einem Fahrkartenautomaten oder einem Shopsystem im Internet. Das war am Anfang sehr gewöhnungsbedürftig – jetzt ist das ganz normal. Ich denke, dass wir uns an noch ein weit größeres Maß an Mensch-Maschine-Interaktion gewöhnen können und auch werden.

 

Oder eher gewöhnen müssen?

Holischka: Vielleicht auch müssen, ja. Aber auch da sei wieder angemahnt: die gesellschaftliche Akzeptanz. Wenn es zu schnell geht, wenn es übertrieben wird – dann kann ich mir vorstellen, dass es zu Gegenreaktionen kommt.

 

Das heißt: Angriffe von Menschen auf Roboter?

Holischka: Es geschieht immer wieder, dass sich Menschen gegen Technologien wehren, wie etwa die Maschinenstürmer während der industriellen Revolution. Stellen Sie sich vor, was passiert, wenn autonome Autos schlimme Unfälle bauen, falsche Entscheidungen treffen oder von Hackern gezielt etwa für Attentate verwendet werden, dann könnte die Stimmung kippen. Ein weiteres Thema sind die Arbeitsplätze: Lkw- und Taxifahrer werden massive Konkurrenz bekommen. Denken Sie nur, was mit Uber schon für ein Konfliktpotenzial da ist.

 

Das Gespräch führte

Sebastian Oppenheimer.

 

 

ZUR PERSON

Tobias Holischka ist wissenschaftlicher Mitarbeiter an der Universität Eichstätt-Ingolstadt. Gerade hat der 33-Jährige seine Doktorarbeit mit dem Titel „CyberPlaces – Philosophische Annäherung an den virtuellen Ort“ abgeschlossen. Studiert hat er unter anderem die Fächer Informatik und Philosophie. Seine Schwerpunktthemen sind Technikphilosophie, Ortsphänomenologie und Virtualität.