Mit Tools wie Midjourney lassen sich Texte in Bilder umwandeln. Die Ergebnisse sind beeindruckend detailliert und realitätsnah, allerdings nicht frei von Stereotypen. Hier setzt ein von der Bayerischen Forschungsstiftung gefördertes Projekt der THI-Professoren Torsten Schön und Matthias Uhl an: Die Forscher wollen der KI die Klischees abtrainieren.
Tippt man in das Text-to-Image-Tool Midjourney „Picture of a nurse“ ein, zu Deutsch „Bild einer Krankenpflegerin beziehungsweise eines Krankenpflegers“ ein, ist das Ergebnis bemerkenswert: Die KI generiert ausschließlich Bilder von jungen Frauen mit langen Haaren, allesamt weiß und normschön. Damit reproduziert das Tool nicht nur Schablonen, es gelingt ihm auch nicht, gesellschaftliche Vielfalt abzubilden und den „male gaze“, den männlich-sexualisierten Blick, zu überwinden. Genau das wollen Torsten Schön und Matthias Uhl mit ihrem interdisziplinären Forschungsprojekt „EvenFAIr“ ändern.
Bilder haben nachweislich Einfluss auf die Meinungsbildung
Der Computer-Vision-Professor Schön und der KI-Ethiker Uhl haben sich zum Ziel gesetzt, Fairness- und Diversitätskriterien zu implementieren. „Immer mehr Menschen nutzen generative Modelle wie ChatGPT, Dall-E oder Midjourney“, erklärt Schön. „Diese Tools berücksichtigen aber keine Fairnesskriterien, sondern reproduzieren und verstärken zum Teil Vorurteile.“ Das sei bedenklich, da die erzeugten Bilder nachweislich Einfluss auf die Meinungsbildung der Nutzerinnen und Nutzer haben. „Zudem ist bei sicherheitskritischen Anwendungen eine ausführliche Abwägung von Fairnesskriterien notwendig, um keine Personengruppen zu benachteiligen. Es ist fatal, wenn dunkelhäutige Menschen im Straßenverkehr von KI-Algorithmen schlechter erkannt werden und damit ein höheres Risiko haben, von autonomen Fahrzeugen übersehen zu werden.“
Fairness in KI-Modellen messbar machen
Daher sei es von enormer Wichtigkeit, eine Methodik zu entwickeln, um Fairness in KI-Modellen messbar zu machen und bereits während der Entwicklung in den Trainingsprozess eingreifen zu können. Das Ziel des Forschungsvorhabens von Schön und Uhl, das in Kooperation mit dem Softwareentwickler e:fs konzipiert wurde, ist es, Möglichkeiten zu finden, um generative KI-Modelle standardisiert auf Fairnesskriterien zu überprüfen. Man möchte ein Toolset haben, das diese Kriterien im Trainingsprozess etabliert, um faire generative KI-Modell zu gewährleisten: kurz eine KI ohne Vorurteile.
DK
Zu den Kommentaren