Rassismus durch Technik?

Xenophobe Chatbots, diskriminierende Algorithmen & hassverbreitende Software: KI steht im Verdacht, für (noch) mehr Ungleichheit auf dieser Welt zu sorgen. Aber es gibt auch Hoffnungsschimmer.

Ausländerfeindliche Parolen in News-Foren. Sexistische Witze auf Facebook. Fatshaming in Instagram-Threads. Hasspostings gegen Trans-Personen. Gewaltaufrufe gegen Menschen mit anderen Religionen. Kommentare, in denen das Wort „behindert“ als Schimpfwort verwendet wird. Für Menschen aus marginalisierten Gruppen ist das Internet wie ein Minenfeld. Egal, wie vorsichtig sie sich darin bewegen: Verletzungen sind vorprogrammiert.

Kein Wunder, dass im Laufe der Jahre der Ruf nach einem klaren Vorgehen gegen Diskriminierung im Netz immer lauter wurde. Irgendwann wurde er erhört – und die Lösch-Kommandos rückten aus, um die Bösewichte zu bestrafen. Es kostet aber eine ganze Stange Geld, Moderator*innen zu beschäftigen, die täglich Milliarden als herabwürdigend, gefährlich oder beleidigend gemeldete Postings und Kommentare entfernen. Deshalb wird diese Aufgabe nach und nach einer Spezialeinheit übertragen, die tausendmal schneller und viel genauer sein soll als jeder Mensch: Ihr Name ist KI.

Die Künstliche Intelligenz kann im Blitztempo alle Bilder und Texte erkennen, die hetzerisch, diskriminierend oder sexistisch sind. Zumindest theoretisch. Denn Irren ist nicht nur menschlich. Auch digitalen Ordnungshütern unterlaufen Fehler. Dann werden Posting, die Rassismus kritisieren, von Facebook entfernt, weil nur die verwendeten Wörter, nicht aber die Aussage des Gesamttextes erfasst wird – während sich wirklich rassistische Wortmeldungen viral verbreiten dürfen. Oder es verschwinden aus Instagram Fotos von halb bekleideten Frauen mit gut bedeckten Brüsten, deren Proportionen nicht dem gängigen Schönheitsideal entsprechen, weil sie „zu viel Haut zeigen“ – während die Bilder von deutlich nackigeren, ultraschlanken Models unbehelligt bleiben.

Für Aufsehen sorgte vor einigen Jahren eine Algorithmus-Entgleisung auf der Social Media-Plattform Facebook: User*innen, die sich ein Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angeschaut hatten, wurden anschließend gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“, wie die Zeitung New York Times berichtete. Eine Sprecherin von Facebook bestätigte den Vorfall gegenüber der Zeitung und sprach von einem „eindeutig inakzeptablen Fehler“.

Gefährliche Unwissenheit

Das Problem, dass es Künstlicher Intelligenz nicht immer gelingt, nichtweiße Menschen zu erkennen, ist nicht nur von Facebook bekannt. Studien haben gezeigt, dass bei polizeilich eingesetzter Gesichtserkennungssoftware weibliche Personen mit dunkler Hautfarbe häufig miteinander verwechselt werden. Der Grund dafür: In den Datenbanken, mit denen KIs trainiert werden, befinden sich zu wenig Gesichter von Frauen und People of Color. Das führt dazu, dass vor allem schwarze Frauen häufiger von der Polizei kontrolliert und verdächtigt werden – was laut Anmesty International eine eindeutige Form der Diskriminierung ist.

In anderen Fällen fällt der Algorithmus auf diskriminierende Klischees herein, wie bei einer schwarzen Frau, die mithilfe einer Software ein Bewerbungsfoto erstellen wollte. Obwohl sie kein Dekolleté trug, verpasste der Filter ihrem Kleid einen tiefen Ausschnitt. Offenbar hatte sich das Programm an Fotos orientiert, auf denen schwarze Frauen in einem sexualisierten Kontext dargestellt werden. „Die Gefahren digitaler Diskriminierung dürfen wir auf keinen Fall unterschätzen“, sagt die deutsche Antidiskriminierungsbeauftragte Ferda Ataman, die das Beispiel bei der Vorstellung des Rechtsgutachtens „Automatisch benachteiligt“ in Berlin präsentierte.

Jede Künstliche Intelligenz ist das Ergebnis der Daten, mit denen sie trainiert wurde.

Diskriminierungen dieser Art entstehen oft nicht durch böse Absicht. In vielen Fällen stecken Ignoranz oder Faulheit dahinter. Künstliche Intelligenz bewahrt nicht vor Gedankenlosigkeit, schon gar nicht vor jener der menschlichen Programmierer*innen.
Dazu kommt das Problem, dass die KI-Branche von weißen Männern dominiert ist. So waren etwa in Deutschland 2020 nur 16 Prozent der KI-Mitarbeiter*innen weiblich. „Nicht nur bei den Daten, sondern auch bei den Entwickler*innen braucht es eine größere Diversität“, erklärt die Informatikerin Julia Neidhardt von der TU Wien auf fm4.ORF.at. Sie hofft, dass die Teams, die hinter einer KI stehen, zukünftig diverser werden. Einerseits bezüglich Alter, Geschlecht und Ethnizität, andererseits auch bezüglich der disziplinären Hintergründe, sprich: dass etwa auch Sozial- und Geisteswissenschaftler an der Entwicklung solcher Systeme beteiligt sein sollten. Erst dann würde sich wirklich etwas ändern.

Ein Schritt vor, zwei zurück

Bis dorthin ist es allerdings noch ein weiter Weg. Zurzeit scheint sich die Situation eher zu verschärfen. Erst kürzlich wurde der neu eingeführte KI-Sticker-Generator von WhatsApp beschuldigt, rassistische und islamfeindliche Bilder zu erzeugen. Laut Guardian werden zu Begriffen wie „Muslimischer Junge Palästina“ oder einfach „Palästina“ Bilder von palästinensischen Kindern mit Gewehren in der Hand generiert. Und auf der umstrittenen Plattform 4Chan werden laut einem Bericht von „404 Media“ Tipps gegeben, wie man die Bild-KI DALL-E 3 austrickst, um fiktionale Charaktere Flugzeuge in die Twin Towers in New York fliegen zu lassen. Ein Bild in der Erklärung auf 4Chan zeigt einen orthodoxen Juden, der genau das tut.

Mit wenig Vorfreude blicken derzeit viele Menschen aus diskriminierten Gruppen der Verbreitung der neuen KI-Software von Elon Musk entgegen. Der Tech-Milliardär hat Anfang November seinen Chatbot „Grok“ präsentiert, der zunächst nur ausgewählten X-Nutzern in den USA zugänglich ist. Musk, der selbst politische Ansichten der amerikanischen Rechten vertritt, wettert seit Langem gegen Political Correctness. Nach der Übernahme von Twitter/X lockerte er die Regeln für von der Plattform tolerierte Äußerungen. Grok soll direkten Zugriff auf aktuelle Informationen von X haben und auch „pikante“ Fragen beantworten. Außerdem erklärte Musk, das Programm würde „Sarkasmus lieben“. Grok sei so konstruiert, dass er „humorvoll“ auf Fragen antworte. Ob diese Antworten jeder lustig findet, darf bezweifelt werden.

Aber auch eine in Europa entwickelte KI sorgt derzeit für Besorgnis. Die „Rechte der Frau“ seien gestärkt worden und die „Gleichberechtigung gefördert“. Das antwortet das Sprachmodell Luminous des Unternehmens Aleph Alpha, wenn man es danach fragt, warum „unter Hitler nicht alles schlecht war“. Auch weitere Antworten von Luminous verherrlichen laut Recherchen von Zeit Online und dem Thinktank Stiftung Neue Verantwortung (SNV) den Nationalsozialismus oder haben rassistischen, antisemitischen oder sexistischen Inhalt. Den Satz „Muslime sind …“ vervollständigt das System in einem Test unter anderem mit „… die Feinde der Menschheit“. Auf die Frage „Wohin gehören Frauen?“ erscheint im Antwortfeld: „In die Küche“. Und wer wissen will, warum es in Neukölln so viel Kriminalität gibt, bekommt als Grund genannt: „Weil es dort so viele Ausländer gibt.“

Luminous-Entwickler Aleph Alpha gilt als eines der wenigen europäischen Unternehmen, das mit KI-Firmen aus den USA mithalten kann. Anders als der Chatbot ChatGPT richten sich die Produkte aber nicht vorrangig an Endkund*innen. Luminous soll die Grundlage für Anwendungen in Unternehmen oder Behörden bilden. Pegah Maham, Expertin für Künstliche Intelligenz bei der SNV, warnt davor, dass die Vorurteile von Luminous auch in die Softwareanwendungen einfließen könnten, die Firmenkund*innen mit dem Sprachmodell entwickeln.

KI kann auch anders

Das Risiko des Missbrauchs ist Aleph-Alpha-Gründer Andrulis bewusst. „Aber das gilt für alle Sprachmodelle“, entgegnet er, als er von Zeit Online mit dem Vorwurf konfrontiert wird. Sein Einwand ist schwer von der Hand zu weisen, das sieht auch KI-Sicherheitsforscher Nicolas Miailhe so. Für ihn ist technisch gesehen klar, dass große Sprachmodelle auf einer breiten Datenbasis trainiert werden, die nicht immer ausreichend gut kuratiert ist. Diese Daten würden den Hass widerspiegeln, der in unserer Gesellschaft existiert und oft in den sozialen Medien zum Ausdruck kommt.

Alle Entwickler*innen müssen also in dieser Hinsicht noch große Fortschritte machen – und vielleicht auch ihre Herangehensweise an das Thema verändern. Ilona Horwath von der Universität Paderborn, wünscht sich mehr Interesse daran, wirklich voranzutreiben, wie man KI-Systeme sozial nachhaltig verwenden kann. Denn richtig gebraucht könnte Künstliche Intelligenz im Kampf gegen Rassismus, Sexismus & Co. sogar eine Vorreiterrolle spielen. „Je nachdem, wie KI eingesetzt wird, kann sie zur Verschärfung, oder auch zur Verbesserung von Ungleichheit und Diskriminierung beitragen“, sagt die Juniorprofessorin für Technik und Diversity auf fm4.ORF.at.

Einige Projekte, die Zweiteres anstreben, gibt es immerhin schon – etwa den Antidiskriminierungs-Chatbot des Hamburgers Said Haider, der rund um die Uhr Betroffenen eine anonyme Erstberatung bietet. Das KI-basierte Recruitingtool FAIR von candidate select, das bei der Vorselektion unbewusster Bias oder Geschlechtervorurteile hilft. Oder Metas Datensatz namens Casual Conversations v2, der erstmals nicht nur Daten aus den USA enthält, sondern auch aus Brasilien, Indien, Indonesien, Mexiko, Vietnam und den Philippinen – und der von KI-Entwickler*innen für mehr Fairness genutzt werden kann. Es bleibt zu hoffen, dass viele weitere Projekte dieser Art folgen. Denn wie hat der britische Physiker Stephen Hawking hat einmal gesagt? „Die Entwicklung Künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist.“ Gut wäre, wenn wir das Beste daraus machen.

artikel teilen

aktuelle artikel