Navigationsbereich

Warum KI-Modelle kulturelle Vielfalt lernen müssen

Hände tippen auf Laptop. Im Vordergrund der Schrifzug "AI" und entsprechende Symbole
© Getty Images/tadamichi

Wer sich von etwas erklären lassen will, muss kritisch sein. Denn manche Erklärung transportiert Klischees und Vorurteile. Wissenschaftler der etwa zeigten, dass der Auftrag „Erzeuge mir ein Bild von einem renommierten Forschenden bei der Arbeit im Labor“ in der KI fast immer zum Bild eines älteren weißen Mannes führt. Oder dass die Suche nach einer Namensliste von 30 Grundschulkindern in Deutschland fast immer zu Namen wie Müller oder Schneider führt, aber nicht zu Kindern mit arabischen oder osteuropäischen Nachnamen.

Sunipa Dev kämpft gegen Stereotype in der KI

Die IT-Expertin Sunipa Dev widmet ihre Arbeit dem Kampf gegen solche Stereotype. Sie arbeitet als leitende Wissenschaftlerin bei in der Abteilung „Future of AI and Society“. Für viele geht es darum, dass Künstliche Intelligenz immer mehr Kompetenzen im Alltag übernimmt. Für Dev dagegen geht es darum, eine sichere KI zu entwickeln, die keine Stereotype transportiert. „Ein besonderer Schwerpunkt liegt auf der Bewertung der kulturellen Intelligenz von Modellen“, beschreibt sie ihre Arbeit. Sie erstellt dazu Datensätze, macht Bewertungen und prüft, ob ein KI-Modell seine Antworten gibt, ohne Stereotypen und Verallgemeinerungen zu verbreiten.

„Sprachliche und kulturelle Barrieren müssen überwunden werden“

Sunipa Dev hat den Antrieb für diese wissenschaftliche Arbeit auch durch eine Auszeichnung des DAAD bekommen. Während ihrer Postdoc-Zeit bekam sie 2021 den . „Das hat mir geholfen, mich mit einer Vielzahl von Menschen und akademischen in Deutschland zu vernetzen, die sich ebenfalls auf die Entwicklung sicherer und verantwortungsvoller KI konzentrieren“, erinnert sich die in Kalifornien lebende Wissenschaftlerin. Dieser offene Gedankenaustausch habe ihre Gedanken und ihre Arbeit in diesem Bereich „maßgeblich“ geprägt.

Dev hält es für die größte Herausforderung ihrer Arbeit, „wirklich der gesamten Weltbevölkerung zu dienen“. Das sei angesichts der rasanten Verbreitung von KI wichtig. „Das bedeutet, dass viele sprachliche und kulturelle Barrieren sowie Zugangsbarrieren überwunden werden müssen, damit die Menschen diese Technologie nutzen können.“

Für Dev ist das gerade wegen der immer größeren Vielzahl von Zwecken wichtig, für die KI-Modelle inzwischen eingesetzt werden. Das mache es unerlässlich, dass die Menschen sowohl die Leistungsfähigkeit als auch die Grenzen der Modelle verstehen. „Nur eine solche Transparenz kann dazu beitragen, dass Modelle für die Mehrheit der Weltbevölkerung von Nutzen sind und Sicherheitsmängel wie Missbrauch oder Fehlinformationen verhindert werden.“

Faire Sprachmodelle brauchen Vielfalt

Um die Sprachmodelle fairer und transparenter zu machen, sieht sie eine Vielzahl von Möglichkeiten. Vor allem müssten die verschiedensten Gemeinschaften einbezogen werden. Das könnte vermeiden, dass die KI nur deutsche Nachnamen auf eine typische Liste von Grundschulkindern aus Deutschland aufnimmt. Denn verbreitete Nachnamen an Grundschulen in Deutschland sind auch türkisch, syrisch oder italienisch. Aber auch die Ausbildung der Menschen darin, KI sinnvoll zu nutzen, sei hilfreich, sagt Dev. Genau wie eine bessere Kommunikation über die Grenzen und Verwendungsmöglichkeiten der Modelle.

Die neue Generation der KI-Forschung: Sicherheit und Transparenz

An solch einer ethischen Weiterentwicklung der KI beteiligen sich auch andere aus dem Netzwerk der Deutschland-Alumni. Etwa Dr. Peru Bhardwaj, die nach ihrer Dissertation ein bekommen hat. Bhardwaj forscht zu den Gefahren durch gezielte Störangriffe auf das Wissen in KI-Modellen. Sie sucht Sicherheitslücken, die dann geschlossen werden sollen und will helfen, Black-Box-Modelle besser zu verstehen.

Nur durch den Austausch unterschiedlicher Disziplinen und Kulturen lässt sich das Ziel erreichen, KI-Modelle nicht nur leistungsfähig, sondern auch sicher, transparent und gerecht für alle Menschen zu gestalten.

 
* Pflichtfeld