Ingolstadt
"Wir müssen die Kontrolle übernehmen"

07.12.2018 | Stand 02.12.2020, 15:04 Uhr
Julian Nida-Rümelin wird beim Tag der Menschenrechte von Amnesty International am Sonntagvormittag (Beginn 10 Uhr) einen Vortrag im Stadttheater über das Thema "Menschenrechte und Gerechtigkeit für eine Welt der Zukunft" halten . −Foto: Eberl

Ingolstadt (DK) Julian Nida-Rümelin über Gefahren der Künstlichen Intelligenz - Der Philosoph hält einen Vortrag im Stadttheater.

Herr Nida-Rümelin, alle Welt diskutiert derzeit über Digitalisierung und Künstliche Intelligenz. Ist das gerechtfertigt? Befinden wir uns mitten in einer "revolutionären Phase", wie es die Bundeskanzlerin Angela Merkel vor ein paar Tagen formuliert hat?

Julian Nida-Rümelin: Eine Botschaft dessen, was ich als Digitalen Humanismus bezeichne, ist genau das: mehr praktische Vernunft, weniger Hype, weniger übertriebene Erwartungen einerseits und überzogene Ängste andererseits.

Das Zeitalter der Digitalisierung beruht auf einer einzigen nicht einmal so neuen Technologie: Deep Learning. Computer können sich heute nach bestimmten vorgegebenen Regeln selber programmieren und sind dann in der Lage, zum Beispiel bestimmte Muster zu erkennen. Was hat das überhaupt mit Intelligenz zu tun?

Nida-Rümelin: Wir müssen uns davor hüten, die Sprache, die wir in diesem Zusammenhang verwenden, wirklich ernst zu nehmen. Wir sprechen von "erkennen", "prognostizieren", möglicherweise von Empathie, etwa bei Robotern im Pflegeeinsatz. Da ist aber niemand, der erkennt, da gibt es keine E-Persons, keine Personeneigenschaften von Software-Systemen. Das ist alles eine Mystifizierung.

Vor ein paar Jahren haben dennoch bedeutende Wissenschaftler und Unternehmer wie Stephen Hawking und Elon Musk in einem Manifest vor den Gefahren der Künstlichen Intelligenz gewarnt. Sie halten es für möglich, dass eines Tages intelligente Systeme die Macht übernehmen.

Nida-Rümelin: Der entscheidende Denkfehler ist, anzunehmen, diese Systeme hätten gute oder schlechte Absichten gegenüber Menschen. Die haben keine Absichten. Natürlich ist jede Technologie ambivalent. Wie wir sie einsetzten, ist aber letztlich unsere Entscheidung. Allerdings gibt es Gefahren. Wenn etwa Roboter im Krieg kämpfen, kommt es zu einer Dehumanisierung, weil Menschen aus sicherer emotionaler Distanz heraus über Leben und Tod entscheiden.

Eine Technologie, die in naher Zukunft erwartet wird, ist das selbstfahrende Auto. Wird es wirklich bald kommen?

Nida-Rümelin: Das hängt nicht von der technischen Entwicklung ab, sondern ist vor allem eine Frage unserer Entscheidung. Wollen wir getrennten Verkehr von autonomen Autos, der vom herkömmlichen Individualverkehr, von Fußgängern, Fahrradfahrern separiert wird? Mit Hürden etwa, die verhindern, dass Kinder auf die Straße laufen? Oder wollen wir die urbane Unübersichtlichkeit, die momentan noch ein stadtplanerisches Ideal ist. Zum Beispiel in Form gemischter Verkehrsflächen, die sehr wenig reguliert sind. Die sind allerdings für autonome Fahrzeuge nur sehr schwer zu bewältigen. Wollen wir zudem Fahrzeuge, in die wir überhaupt nicht mehr eingreifen können, weil sie kein Lenkrad und Gaspedal mehr besitzen? Wollen wir das in Anbetracht des Flugzeugabsturzes kürzlich in Indonesien, wo es den Piloten nicht mehr gelungen ist, manuell einzugreifen. Andere Piloten hatten vorher bereits solche Software-Probleme dadurch behoben, dass sie die Stromzufuhr zum Bordcomputer unterbrochen haben. Wollen wir die zusätzliche Sicherheit durch die Möglichkeit menschlicher Intervention aufrechterhalten? Oder ist der Werbespruch eines großen Automobilherstellers doch beim Publikum angekommen: "Freude am Fahren"? Wir wollen vielleicht zumindest gelegentlich selber fahren.

Mit den selbstfahrenden Autos sind allerdings auch immense ethische Probleme verbunden. Wie etwa soll sich die Computersteuerung im Falle eines Konflikts bei einem Unfall verhalten? Soll sie etwa lieber einen einzelnen jungen Menschen durch ein bestimmtes Lenkverhalten töten oder drei ältere Damen? Soll sie den Tod des Fahrers in Kauf nehmen, um mehrere andere Menschen zu retten?

Nida-Rümelin: Normalerweise würde man von einer Software für ein selbstfahrendes Auto bestimmte Optimierungsstrategien erwarten. Etwa: Sie sollte so agieren, dass möglichst wenig Schaden entsteht, wenige Tote oder Verletzte. Das ist zunächst plausibel. Aber: Diese Sichtweise steht in Konflikt mit unseren gesetzlichen Normen. Es gibt in unserer gesetzlichen Ordnung ein Verrechnungsverbot. Man kann zum Beispiel nicht sagen: Ich töte dich, weil dann viele Menschen Spenderorgane bekämen und überleben könnten. Oder denken Sie an den verletzten Motorradfahrer, jung und mit vielen gesunden potenziellen Spenderorganen: Selbst wenn die Überlebenswahrscheinlich gering ist, müsste man alles tun, um ihn zu retten. Alles andere wäre Totschlag oder sogar Mord. Das ist ein nicht ganz einfaches Problem für die Genehmigungsstellen selbstfahrender Autos.

Die Ängste vor der Digitalisierung sind groß. Viele Experten gehen davon aus, dass bis zu 50 Prozent aller Arbeitsplätze wegrationalisiert werden. Droht Massenarbeitslosigkeit?

Nida-Rümelin: Ich habe mir die amerikanischen Studien, die da immer wieder zitiert werden einmal genauer angesehen. Das Interessante ist: Die bringen überhaupt keine Einschätzung der Per-Saldo-Arbeitsplatzverluste. Die schätzen ab, welche Berufe ersetzbar sind in Zukunft durch Software-Systeme. Und da kommen sie auf hohe Zahlen. Da wird daraus in der öffentlichen Diskussion, dass 50 Prozent der Berufstätigen ihre Arbeit verlieren. Das wurde aber gar nicht behauptet. Bisher liegen die Produktivitätszuwächse durch die Digitalisierung noch unter dem allgemeinen Wirtschaftswachstum. Daher kann es vorläufig keinen Arbeitsplatzverlust geben.

Unser tägliches Leben ist dabei, sich erheblich zu verändern - durch die sozialen Medien, Smartphones und anderes. Lauern hier Gefahren?

Nida-Rümelin: Ja. Es gibt besorgniserregende Studien, etwa was die Zeiten betrifft, die vor dem Display verbracht werden. In den USA verbringen etwa bereits zehnjährige Jungen sieben Stunden durchschnittlich vor Bildschirmen. Es gibt zweifellos Tendenzen zur Sucht, und zwar nicht nur bei Spielen, sondern auch bei so alltäglichen Programmen wie etwa Whatsapp oder Facebook. Die Brexiteers haben ihre Kampagne zum Erfolg geführt mit dem Slogan "Take over control again". Man könnte das abwandeln und behaupten, das ist unsere gegenwärtige Herausforderung. Wir wollen nicht nur Kontrolle behalten über unser Nutzerverhalten am Bildschirm, sondern es wird auch darum gehen, Kontrolle wieder über unsere eigenen Daten zu erlangen. Nehmen Sie Facebook. Man kann damit hochinteressante Debatten führen. Aber mit den Nutzerdaten wird doch am Ende Marketing betrieben. Das ist die Geschäftsgrundlage. Auch bei Google wird die Suche kommerziell verfälscht: Wer etwas zahlt, wandert bei bestimmten Begriffen weit nach oben. Aber wollen wir das wirklich auf Dauer?

Wird die Kommerzialisierung unserer privaten Daten nicht am Ende unsere Demokratie unterlaufen?

Nida-Rümelin: Wenn die Trennung zwischen privat und öffentlich aufgehoben würde, dann würde die wichtigste Bedingung von Demokratie zerstört. Demokratie ist erst möglich, wenn nicht alles unter öffentlicher Kontrolle stattfindet, wenn nicht alle alles über mich wissen und kommentieren. Es ist interessant, dass in den sozialen Medien die Menschen freiwillig die privatesten Dinge öffentlich machen. Aber nach meinem Eindruck gibt es da inzwischen eine massive Trendwende. Die Selbstoffenbarungssucht geht deutlich zurück. Ich will aber mal eine kühne Idee skizzieren: Wenn man in Europa etwa Suchmaschinen zur Neutralität verpflichten würde, dann wäre das für Google kein interessanter Bereich mehr. Die Firma würde ihre Geschäftsgrundlage verlieren. Man kann sich aber ein anderes Finanzierungsmodell überlegen, etwa ein Abosystem ähnlich wie bei Spotify. Oder ein öffentlich-rechtliches Suchsystem, das den Vorteil hätte, dass nicht all unsere Daten in den USA gebunkert würden.

Das Interview führte Jesko Schulze-Reimpell.

ZUR PERSON
Julian Nida-Rümelin (64) war Kulturstaatsminister und ist derzeit Professor für Philosophie in München. Zuletzt hat er zusammen mit Nathalie Weidenfeld das Buch "Digitaler Humanismus" (Piper-Verlag) veröffentlicht.