Künstliche Intelligenz
Interview mit Ingolstädter KI-Experten: „Es ist fatal, ChatGPT blind zu vertrauen“

21.05.2023 | Stand 16.09.2023, 21:53 Uhr

Im Gespräch mit Künstlicher Intelligenz – ChatGPT macht es möglich. Fotos: Albert, dpa, THI/

Das große Thema des Jahres 2023 heißt „ChatGPT“. Wir haben mit Munir Georges, Experte für KI und Sprachprogramme an der Technischen Hochschule Ingolstadt über das Thema gesprochen.



Das könnte Sie auch interessieren: KI für unterwegs: ChatGPT veröffentlicht Smartphone-App

Herr Georges, fangen wir doch ganz von vorne an: Dass Computer bestimmte Operation aufgrund ihrer Programmierung selbstständig durchführen, ist seit Jahrzehnten alltäglich. Was aber nun ist Künstliche Intelligenz – KI?


Munir Georges: KI ist zuerst einmal der Sammelbegriff für verschiedene Funktionsweisen in verschiedenen Fachbereichen der Informatik. Beispielsweise für die Objekterkennung, für Textverständnis, für die Fähigkeit, Bilder zu erkennen; oder in einem nächsten Schritt für die Fähigkeit, für Menschen zumindest auf den ersten Blick sinnvolle Bilder oder Texte selbst zu erstellen – das ist dann die generische KI.

Also schwimmt bei dem Begriff eine gewisse Unschärfe mit.

Georges: Sagen wir es mal so: Der Begriff wandelt sich. Vor ein paar Jahren wurden im Automobilbereich Techniken entwickelt, damit ein Auto eigenständig Verkehrszeichen erkennt, ein Stoppschild etwa oder die Zahl, die auf einem Schild für eine Geschwindigkeitsbegrenzung steht. Das galt damals als KI. Inzwischen ist es einfach eine Bilderkennungssoftware, und niemand spricht hier noch wirklich von KI.

Je komplexer die Vorgänge sind, die in einem Computer ablaufen, desto mehr ist von KI die Rede.

Georges: Vielleicht so in etwa. Zum einen bezeichnet KI ein ganzes Sammelsurium von statistischen Verfahren, bei denen Klassifikationen oder Regressionen vorgenommen werden, die dann wiederum zu KI-Anwendungen führen; auf der anderen Seite, so meine Beobachtung, werden damit häufig auch neue Anwendungen umschrieben, deren Funktionsweise nicht direkt ersichtlich scheint. Zuletzt wird „KI“ auch sehr häufig einfach als Schlagwort genannt.

Dann also weiter zu ChatGPT, dieser faszinierenden Möglichkeit, sich mit einem Computer zu unterhalten. Meines Wissens rechnet hier ein Computer aus, welches die wahrscheinlichste Weiterführung eines Textes ist und setzt ihn so fort. Müsste demnach nicht auf die selbe Frage immer die selbe Antwort kommen?

Georges: Streng genommen kommt bei gleicher Eingabe das gleiche Ergebnis heraus. Die Ergebnisse folgen einer Wahrscheinlichkeitsverteilung. Also hat man verschiedene Möglichkeiten zur Auswahl und muss nicht immer die Möglichkeit mit der höchsten Wahrscheinlichkeit nehmen. Wenn man also zweimal die gleiche Frage stellt, kann es sein, dass nicht zweimal die gleiche Antwort kommt − weil bei der Programmierung kleine Zufälligkeiten eingebaut wurden, die dazu führen, dass nicht immer das wahrscheinlichste Ergebnis als Antwort verwendet wird, sondern mal das zweitwahrscheinlichste, mal das drittwahrscheinlichste, die sich jeweils minimal voneinander unterscheiden. Das ist auch häufig von den Entwicklern der Software gewünscht, weil die zweitwahrscheinlichste Antwort vielleicht semantisch mehr Sinn ergibt, aber auch weil etwas Varianz in den Antworten natürlicher wirkt.

Das heißt also der Zufall ist für die Veränderungen verantwortlich, nicht die KI.

Georges: Nicht unbedingt. ChatGPT ist ein großes Softwaresystem; man weiß nicht, wie häufig, in welchen Abständen die Modelle aktualisiert werden. Wenn dem System zwischen zwei Anfragen ein neues Modell eingespielt wurde, kann das auch dazu führen, dass auf eine gleiche Anfrage eine neue Antwort geliefert wird.  Die Qualität der Antworten hängt aber auch mit dem Kontext zusammen, den sie dem System mitgeben.

Das Wissen stecktbereits im System



Ihre Antwort impliziert, dass es auch Bereiche gibt, die nicht so gut funktionieren.

Georges: Wenn Sie bei Ihren Fragen etwas vage bleiben oder etwas variieren, kann es sein, dass Wissen verknüpft wird, das gar nicht zu verknüpfen wäre – dann entsteht Unsinn.

Das sogenannte Wissen, das ChatGPT besitzt, ist bereits hineinprogrammiert; das System durchsucht also nicht beispielsweise das Internet.

Georges: Das System, wie es jetzt aufgebaut ist, zieht sein Wissen aus einem Datensatz. Man hat diesen aus allen Daten, die verfügbar waren gebaut. Das darin enthaltene Wissen wurde nicht manuell strukturiert. Die Modelle wurden direkt darauf trainiert. Das ist eine andere Herangehensweise als beispielsweise bei einer Suchmaschine.

Der nächste logische Schritt wäre also, beides zu verknüpfen – die Suchmaschine und das Arbeiten mit den Datensätzen?

Georges: Daran wird gerade gearbeitet, und es gibt auch erste Prototypen. Wie das verknüpft werden kann, dazu gibt es verschiedene Ansätze. Da werden die nächsten Monate bestimmt spannend werden.

Sind Sie selbst an der Entwicklung solcher Systeme beteiligt?

Georges: Ich betrachte das Ganze von der Forschungsseite und untersuche, wie solche Systeme funktionieren, warum sie das machen, was sie machen, und wie man sie dazu bringt, das zu machen, was wir wirklich wollen. Meine Forschungsgruppe an der Technischen Hochschule Ingolstadt forscht daran, wie solche Systeme verbessert werden können.

Das System hatseine Grenzen



Ist also Ihrer Ansicht nach ChatGPT technologisch weit vorn oder lächelt ein ausgewiesener Experte wie Sie schon darüber, weil die wirklich innovativen Systeme schon viel weiter sind?

Georges: Die Methoden und Techniken die ChatGPT möglich machen, haben sich in der Forschung schon länger abgezeichnet. Mit entsprechendem Investment, nicht nur in Speicher- und Rechenleistung, aber auch in der Aufbereitung von Corpora, sind durchaus Konkurrenzprodukte entwickelbar. Es kommen ja jetzt auch nahezu täglich Konkurrenzprodukte auf den Markt. ChatGPT basiert auf InstructionGPT, was die gleiche Firma bereits ein Jahr zuvor vorgestellt hatte. Da ging es in erster Linie um Programmieraufgaben – das war damals schon spannend, hat aber nur Insider interessiert. Die Firma OpenAI hat mit ChatGPT eine Anwendung gefunden, die die breite Öffentlichkeit stark anspricht. Das hat jetzt voll eingeschlagen.

Eingeschlagen hat das freilich – aber das System hat auch seine Grenzen. Wo liegen die genau?

Georges: Die liegen da, wo es um harte Fakten geht. Es ist fatal, dem System blind zu vertrauen, zu meinen, dass die Antworten von ChatGPT, auch wenn sich diese so unglaublich natürlich lesen, stets der Wahrheit entsprechen. Dem ist nicht so, das kann noch nicht gewährleistet werden. Auch mit Schlussfolgerungen haben diese Ansätze noch Probleme; ChatGPT und andere generische KI-Systeme die ähnliche Ansätzen folgen, neigen dazu zu halluzinieren.

Wo liegen die Möglichkeiten? Etwa im – für mich naheliegenden – Bereich des Journalismus? Inhalte zusammenfassen und in Form bringen: Geht das?

Georges: Das geht. Ob es aber Ihren Anspruch erfüllt, ist eine andere Frage. Zumindest, wenn es um einfache Formulierungen geht, die nicht zu verzweigt sind, sind für viele Anwendungen hinreichend gute Ergebnisse möglich. Eine spannende und schon länger diskutierte Anwendung ist die automatische Transkription und Zusammenfassung von Besprechungen: Für ein Besprechung, bei dem mehrere Personen eine halbe Stunde über ein Thema sprechen, wird ein zusammenfassendes Protokoll erstellt.  Das wird sicherlich bald verfügbar sein. Vielleicht dann auch direkt kombiniert mit einem Chatbot, der einen niederschwelligen Zugang zum Protokoll ermöglicht.

DKMUNIR GEORGESMunir Georges (Foto) ist Professor für Sprach- und Textverstehen an der THI. Das dortige Institut „Almotion Bavaria“ ist weltweit vorne mit dabei bei der Erforschung der auf KI basierten Mobilität der Zukunft – Paradebeispiel: selbst fahrende Autos. Georges forscht und lehrt zu fünf Bereichen: Wie kann ein Computer Sprache erkennen? Wo liegen die Fehler bei falschen Ergebnissen? Wir kann der Computer die Ergebnisse der Spracherkennung sinnvoll gruppieren? Wie kann er Dialoge führen? Wie kann diese Rechnertätigkeit möglichst kosten- und energiesparend ablaufen? DK