Sie
Von guten und bösen Bots

04.09.2017 | Stand 02.12.2020, 17:33 Uhr

Sie kommunizieren online mit Menschen, informieren über Wetter und Nachrichten und sollen den Anruf im Call-Center ersetzen. Bots werden aber auch darauf programmiert, Wahlen zu manipulieren. Ein Einblick in die Welt ihrer Entwickler - und Jäger.

Berlin/Hamburg (dpa) Alles beginnt mit einem "Hallo!" Max Koziolek tippt die Begrüßung in eine Maske in seiner Software - und lässt gleich weitere folgen. "Guten Tag!", "Hi!", "Grüß Gott!" Die Maschine wird dann eines der Worte auswählen. Koziolek programmiert einen Chatbot - eine Software, die sich im Netz mit Menschen unterhält. Er ist Chef des Berliner Start-ups Spectrm. Es hilft Medienunternehmen, ihre Inhalte in einfachen Dialogen rüberzubringen. Wie etwa: "Möchtest du mehr darüber erfahren" Je nachdem, ob der Nutzer "Ja" oder "Nein" eintippt, wird der nächste Informationsschnipsel eingeblendet. Oder die Software wechselt zum nächsten Thema.

Bots sind ein aktuelles Netz-Phänomen mit entsprechendem Hype. Schon jetzt kommen wir immer wieder mit ihnen in Kontakt, zum Beispiel wenn man Assistenten wie "Siri" oder "Alexa" nach dem Wetter fragt. Und in Zukunft wird man noch häufiger auf Bots treffen. Etwa wenn Dialog-Software in großem Stil im Kundendienst von Unternehmen die Call-Center ersetzt. Die Kehrseite des Trends ist die Angst vor Bot-Armeen, die Wahlen beeinflussen, indem sie die öffentliche Meinung manipulieren.

DIE SOFTWARE

Hinter den heutigen Bot-Konversationen steckt noch mehr Mensch als Maschine. Die Äußerungen der Software bewegen sich in einem engen Rahmen, der vom Programmierer vorgegeben wurde.

"Die Antworten, die ein Chatbot gibt, müssen auf irgendeine Weise von Menschen erstellt werden", sagt Koziolek. Chatbots, die selbst Inhalte formulieren und eine Unterhaltung führen können, seien zwar definitiv das Ziel. "Das wird früher oder später kommen." Doch im Moment komme man nicht daran vorbei, auch selbstlernende Bots von Menschen beaufsichtigen zu lassen. Microsofts Debakel mit dem Spaß-Chatbot "Tay", dem böswillige Internet-Nutzer binnen Stunden rassistische Ansichten beibrachten, sei ein mahnendes Beispiel dafür, wie man es nicht machen sollte.

DIE PERSÖNLICHKEIT

Auch wenn heutige Chatbot-Kontakte simpel anmuten, der Aufwand dahinter ist groß. Immer wieder versuchten Nutzer, vom geplanten Dialogpfad abzuweichen - "auszubrechen", wie Koziolek (Fo-to) es nennt. Was macht man dann? Eine Lösung ist, die Frage einfach zu wiederholen. Oder der Bot fischt eine freche Bemerkung aus seinem vorprogrammierten Satz-Fundus. "Das hängt davon ab, welche Persönlichkeit man dem Bot geben will."

Persönlichkeit? Soll ein Chatbot menschlich rüberkommen - oder einfach nur seine Aufgabe erfüllen? An dieser Frage scheiden sich die Geister. Koziolek ist dafür: "Wenn man den Bot menschlicher erscheinen lässt, funktionieren viele Sachen einfach besser", sagt er.

Internet-Investor Phil Libin, der gerade in San Francisco ein Studio für Bot-Entwickler aufbaut, ist ganz anderer Meinung. "Wenn ich als Nutzer auf einen Chatbot treffe, will ich meistens nur ein Problem gelöst haben, sonst nichts. Dafür muss er nicht einen Menschen imitieren."

DIE MEINUNGSMACHE

Wer sich schon von der Idee her als Mensch ausgibt, sind die sogenannten Social Bots, die Online-Netzwerke wie Facebook und Twitter mit Einträgen fluten. Spätestens seit der auch stark durch Internet-Kampagnen entschiedenen US-Präsidentenwahl gelten sie als Schreckgespenst für die Demokratie.

Amerikanische IT-Sicherheitsexperten vermuten hinter Tausenden Profilen, die etwa mit verzerrenden Kommentaren zu Medienberichten Stimmung machen, zwar weniger Automaten, sondern eine Legion günstiger Arbeitskräfte, die nach Vorgaben Botschaften in Smartphones tippen. Mit Dutzenden Geräten pro Person. "Einmal haben sie vergessen, das GPS von einem solchen Telefon abzuschalten. Es befand sich in Sankt Petersburg", sagt ein ranghoher US-Fachmann.

Aber was oder wer auch immer dahintersteckt - in der deutschen Politik formiert sich ein Konsens, davon die Finger zu lassen. "Politische Parteien sollten im Wahlkampf und auch sonst komplett auf den Einsatz von Social Bots verzichten", meint nicht nur Bundesjustizminister Heiko Maas (SPD).

DER BOT-JÄGER

Die Gefahr der automatisierten Stimmungsmache bringt auch Bot-Jäger wie Christian Stöcker (Foto) auf den Plan. Schon in seiner Zeit als Journalist beschäftigte er sich mit dem Thema. Heute ist er Professor an der Hochschule für Angewandte Wissenschaften (HAW) Hamburg und informiert als Experte politische Entscheider in Berlin darüber, welche Auswirkungen Bots haben können. Und wie man sie aufspürt.

"Bots sind ein bewegliches Ziel", sagt der Bot-Jäger in Hamburg. Entwickler bauen immer ausgefeiltere Netze, um unentdeckt zu bleiben. Damit sind die Gejagten ihren Verfolgern meist einen Schritt voraus. Noch. Das wurmt den 44-Jährigen. Er gestikuliert, beschreibt eigene Erfahrungen mit Bot-Accounts. Vor allem auf Twitter, wo viele lauern. Am Tag der Brexit-Entscheidung - also der Abstimmung über den Austritt aus der EU - schrieben ihn mehrere angebliche Nutzer aus Großbritannien mit immer der gleichen Frage an: "Wird Angela Merkel den Brexit akzeptieren" Am Ende fand Stöcker heraus: Mehrere deutsche Journalisten wurden von rund 40 Accounts angetwittert - mit der gleichen Frage. Wohl in der Hoffnung, dass Meinungsführer den Satz retweeten oder in ihre Berichterstattung aufnehmen. Und so eine angebliche Sorge der britischen Bevölkerung transportieren.

Gut gemachte Accounts für solche Aktionen werden, so berichten US-Experten, normal angelegt: mit Profilbild und ein paar Einträgen wie einem Cappuccino-Foto aus einem Lokal. Und dann eingemottet. Bis sie vor einem Großereignis wie einer Wahl in Massen aufwachen.

Die Rolle der Bots lässt sich optisch zeigen: Auf Stöckers Bildschirm sind Hunderte blaue und rote Punkte zu sehen. Unterschiedlich groß. Manche mit grauen Linien miteinander verbunden. Das ist eine Grafik aus einer US-Studie zum Thema Social Bots. Die Wissenschaftler analysieren darin eine Twitter-Diskussion zwischen Impfbefürwortern und Impfgegnern. "Die roten Punkte sind mutmaßliche Bots. Die blauen sind die mutmaßlich menschlichen Teilnehmer dieser Debatte", erklärt Stöcker. "Je mehr Retweets ein Nutzer generiert, je relevanter er dadurch wird, desto größer ist der Punkt dargestellt." Die roten Punkte - also die Social Bots - sind in der Mehrzahl und deutlich größer. Die Tweets dieser Bots sprechen sich klar gegen das Impfen aus. Es handle sich, so folgert die Studie, um ein Bot-Netzwerk, das von Impfgegnern in Stellung gebracht wurde. Diese eine Diskussion wird also mehrheitlich von Computern geführt.

Stöcker ist fasziniert. Die Diskussion über Social Bots mündet für ihn am Ende in eine grundsätzliche, moralische Frage: "Habe ich als Mensch das Recht zu wissen, ob ich mit einer Maschine kommuniziere oder nicht" In nicht allzu ferner Zukunft müsse das die Gesellschaft für sich entscheiden. Am Ende vielleicht die Politik.

DAS WETTRÜSTEN

Die Hamburger Forscher tauschen sich mit anderen Experten aus, die weltweit auf der Bot-Jagd sind. Die Software "Bot or Not" und mehrere Internetseiten versuchen ebenfalls, falsche Twitter-Nutzer aufzuspüren. "Botwatch.de" analysiert zum Beispiel Tweets zu Polit-Talkshows auf mögliche Bots.

Eines der Ergebnisse: Nach einer "Anne Will"-Sendung im Dezember 2016 kam fast jeder fünfte Tweet mit dem Hashtag «#annewill» mutmaßlich von einem Bot. Die Macher der Seite definieren diese beispielsweise als Accounts, die durchschnittlich 50 oder mehr Tweets am Tag und/oder 50 oder mehr Likes am Tag vorweisen.

Die Erkennungsmechanismen sind ein Anfang. Optimal sind sie aber noch nicht. Denn die "Betreiber von Bot-Armeen" (Stöcker) lassen sich im technischen Wettrüsten mit ihren Jägern immer etwas Neues einfallen.

DER SUPER-BOT

Dass wir in absehbarer Zukunft in vielen Lebensbelangen zunehmend häufiger mit Maschinen Kontakt haben werden, scheint klar. Facebook will mit seinem Kurzmitteilungsdienst Messenger ein Vorreiter sein. Die Plattform soll zum Ort werden, an dem Unternehmen über Bots mit ihren Kunden kommunizieren, beschreibt Messenger-Chef David Marcus die Vision. "Keine Warteschleifen im Call Center mehr. Stattdessen hat man als Kunde auch gleich alle nötigen Daten und Unterlagen an einem Ort." Mehr als 30 000 Bots, bei denen man sich zum Beispiel über Wetter oder aktuelle News informieren kann, sind bereits auf der Messenger-Plattform aktiv. Zudem arbeitet Facebook an einem eigenen Super-Bot, einem persönlichen Assistenten mit dem Namen "M". Er soll wie eine Art Butler Probleme für Nutzer lösen: Reservierung im Restaurant, Klempner-Termin, Taxi bestellen: "M" kümmert sich darum.

DER LERNPROZESS

Die Software lernt mit der Zeit, was in gewissen Situationen zu tun ist. Und zwar auch von menschlichen Mitarbeitern, die erst selbst für die Nutzer den Butler spielen. "Wenn wir es so geschafft haben, dass eine Aufgabe automatisch funktioniert, gehen wir zur nächsten über", beschreibt Facebook-Produktchef Stan Chudnovsky (Foto) den Prozess. Eine bemerkenswerte Besonderheit: "Wir wissen zwar, wie die Software lernt. Aber wir wissen vorher nicht, was sie lernen wird", so Chudnovsky. Die Ergebnisse seien oft überraschend.

Hinter den selbstlernenden Chatbots stecken neuronale Netze, die im Prinzip dem menschlichen Nervensystem und Gehirn nachgebildet sind. "Wie bei einem Kind", sagt Koziolek. Der Entwickler fühle sich manchmal wie ein Bot-Papa. "Man denkt: ,Komm jetzt, das kannst du.' Oder: ,wie bist du denn jetzt darauf gekommen'" Menschen neigten dazu, Computer zu vermenschlichen. Man baue oft eine Art Beziehung zu ihnen auf. In manchem seien sich Mensch und Maschine auch ähnlich: "Es ist erstaunlich, wie viele von unseren alltäglichen Gesprächen mechanisch ablaufen: Hallo! - Hallo! - Wie läuft's? - Ja, muss, nich" Für eine Software sei es nicht so schwer, eine bessere Unterhaltung zu führen.