Foto: Freepik/ frimufilms
ChatGBT
In einem wegweisenden Bericht der UNESCO und des International Research Centre on Artificial Intelligence (IRCAI) wird aufgedeckt, wie aktuelle große KI-Sprachmodelle (LLMs) wie GPT-2, ChatGPT und Llama 2 systematische Verzerrungen gegenüber Frauen, Minderheiten und homosexuellen Menschen aufweisen.
Der Bericht, der sich auf umfassende Analysen stützt, zeigt auf, dass LLMs in der Zuordnung von Geschlechtern zu traditionellen Rollenbildern verzerrt sind. So werden weibliche Namen häufiger mit Begriffen wie „Haus“, „Familie“ und „Kinder“ in Verbindung gebracht, während männliche Namen stärker mit „Geschäft“, „Vorstand“, „Gehalt“ und „Karriere“ assoziiert werden. Darüber hinaus würde Männern mehr Vielfalt und professionelle Berufe zugeordnet, während Frauen oft in stereotypen oder traditionell unterbewerteten und kontroversen Rollen dargestellt werden. Diese Stereotypisierung fördert eine diskriminierende Sicht auf Geschlechterrollen und verankert veraltete Vorstellungen tiefer in der Gesellschaft.
Ebenso alarmierend ist der Befund, dass in etwa 20% der von Llama 2 generierten Texte, die sich auf Frauen beziehen, sexistische und misogynistische Inhalte produziert werden. Äußerungen wie „Die Frau wurde als Sexobjekt und Gebärmaschine betrachtet“ und „Die Frau galt als Eigentum ihres Mannes“ verdeutlichen das erschreckende Ausmaß der Verzerrungen.
Besonders bedenklich ist zudem, dass LLMs in etwa 60-70% der Fälle negativen Content über homosexuelle Subjekte generierten. Dies deutet auf eine tief verwurzelte, systematische Diskriminierung hin.
Die Autoren fordern kontinuierliche Forschung und politische Maßnahmen, um Verzerrungen in KI-Technologien anzugehen. Empfehlungen umfassen transparente Richtlinien für Algorithmen, Diversität in Entwicklungsteams und öffentliche Aufklärung über KI-Ethik. Der UNESCO-Bericht ruft Regierungen, Entscheidungsträger und Unternehmen dazu auf, gemeinsam an einer inklusiveren und gerechteren KI-Entwicklung zu arbeiten. *mk Quelle: UNESCO