Digitale Ungleichheiten: Data Workers, Gender Bias und Digitale Gewalt
Digitale Technologien prägen zunehmend unser Leben, unsere Wahrnehmung und unsere Arbeitswelt. Doch sie sind nicht neutral: Stereotype Geschlechterbilder, Machtverhältnisse und globale Ungleichheiten spiegeln sich in digitalen Räumen und in KI‑Systemen wider - und werden durch sie häufig noch verstärkt. Entgegen der verbreiteten Vorstellung von KI als neutrales Werkzeug reproduzieren und vertiefen viele Anwendungen bestehende Diskriminierungen.
Frauen und andere marginalisierte Gruppen sind in digitalen Räumen besonders häufig von Gewalt, Abwertung und Ausschluss betroffen. Gleichzeitig bleibt die Grundlage vieler digitaler Dienste und KI-Systeme weitgehend unsichtbar: die Arbeit von Data Worker*innen im Globalen Süden, die Trainingsdaten erstellen, Inhalte moderieren und Systeme am Laufen halten – oft unter prekären, belastenden und mitunter traumatisierenden Bedingungen.
Data Workers
Hinter vielen digitalen Anwendungen stehen Data Workers, die große Mengen an Daten sortieren, prüfen, verschlagworten oder moderieren. Diese Arbeit findet oft unter unsichtbaren, unsicheren und schlecht bezahlten Bedingungen statt. Hinzu kommt die psychologische Belastung, die durch das Filtern gewaltvoller und pornographischer Bilder entstehen kann und von den auftraggebenden Firmen oft nicht ausreichend begleitet wird. In diesem neuen, prekären und unerforschten Arbeitsfeld ist es wichtig, die Arbeitsrechte aller zu stärken, aber vor allem auch nicht die Fehler anderer Branchen zu wiederholen und Mehrfachdiskriminierungen bei Arbeiter*innen im Globalen Süden unerkannt zu lassen, nur weil nicht danach gefragt wird.
Gender Bias
KI‑Systeme übernehmen und verstärken häufig bestehende gesellschaftliche Vorurteile. Das zeigt sich in verzerrten Datensätzen, diskriminierenden Entscheidungen oder einer mangelnden Repräsentanz von Frauen und marginalisierten Gruppen. Der Begriff Bias bezeichnet dabei systematische Voreingenommenheit: Generative KI baut auf riesigen Datenmengen auf – etwa Texte, Webseiten oder Bilder – und reproduziert daraus häufige Muster, auch wenn sie sexistisch, rassistisch oder queer feindlich sind.
Damit wird sichtbar, wie KI‑Systeme gesellschaftliche Benachteiligungen festhalten und verschärfen, statt „neutrale“ Antworten zu liefern. Trainingsdaten, Systemprompts und Machtstrukturen im Hintergrund entscheiden, welche Perspektiven überrepräsentiert sind und welche – etwa von Frauen, Jugendlichen oder LSBTIQ*‑Personen – kaum bis gar nicht vorkommen. Gender Bias in digitalen Systemen ist daher kein technisches Randproblem, sondern eine zentrale Frage von Macht, Teilhabe und Gerechtigkeit, an der vor allem politische Entscheidungsträger*innen ansetzen müssen.
Digitale Gewalt
Digitale Gewalt trifft Frauen, Aktivistinnen und andere marginalisierte Gruppen in besonderem Maße. Dazu gehören Hassrede, Belästigung, Drohungen, sexualisierte Angriffe, Nudify‑Tools und Deepfake‑Nacktbilder ohne Einwilligung. Solche Formen digitaler Gewalt schränken nicht nur die individuelle Sicherheit ein, sondern auch die Beteiligung an Öffentlichkeit, Debatten und digitaler Teilhabe. Digitale Gewalt ist eine gesellschaftliche und rechtspolitische, nicht bloß technische Frage. Daher muss die bestehende Rechtslage auf EU‑ und nationaler Ebene gezielt geschärft und ausgeweitet werden. Bereits das Herstellen und Verbreiten nicht einvernehmlicher sexualisierter Bilder muss grundsätzlich strafbar sein. Zudem braucht es klare Haftungsstrukturen, die nicht nur Täter*innen, sondern auch Plattformen und Diensteanbieter*innen in die Verantwortung nehmen.
Unsere Ziele
Das wollen wir erreichen:
- Politische Entscheidungsträger*innen kennen die Arbeits‑, Macht‑ und Ausbeutungsverhältnisse in der digitalen Lieferkette – etwa bei Data Workers– und wissen, wie diese aus feministischer und globalgerechter Perspektive sichtbar gemacht und politisch angegangen werden können.
- Politische Entscheidungsträger*innen erkennen, wie Gender Bias in KI‑Systemen entsteht und welche Macht‑ und Geschlechterverhältnisse sich in Daten, Algorithmus‑Design und Entscheidungen über „neutrale“ Technik widerspiegeln.
- Politische Entscheidungsträger*innen verstehen, wie misogyne Strukturen im Netz entstehen, sich verbreiten und auf Frauen sowie marginalisierte Gruppen wirken – von Hassrede über digitale Gewalt bis hin zu KI‑basierten Übergriffen.
Weitere Informationen
Digitale Räume feministischer gestalten: FEMNET setzt neue Schwerpunkte
Digitale Gewalt: Was Europa kann und was Deutschland noch lernen muss