Nachrichten zu unserer Arbeit - Nachrichten zu Frauenrechten allgemein

Ein Mann hält ein Smartphone in der Hand, auf dem ein Instagram-Profil zu sehen ist.

© KI-generiert

Digitale Gewalt: Was Europa kann und was Deutschland noch lernen muss

Der jüngste Fall der Schauspielerin Collien Fernandes zeigt die strafrechtlichen Schutzlücken im Umgang mit digitaler Gewalt in Deutschland. Ihr Ex-Mann Christian Ulmen soll über Jahre hinweg ihre Identität im Netz missbraucht, Fake-Profile erstellt und in ihrem Namen mit Hunderten Männern sexualisierte Gespräche geführt sowie pornografisches Material verbreitet haben. Bundesjustizministerin Stefanie Hubig (SPD) reagierte bereits und kündigte ein digitales Gewaltschutzgesetz an, das im Frühjahr 2026 vorgelegt werden soll. Welche Lücken der Fall offenlegt, wie die Rechtslage in Europa ist und wo Deutschland dringend nachbessern muss - eine Einordnung. 

Was ist digitale sexualisierte Gewalt? 

Digitale sexualisierte Gewalt ist kein Randphänomen. Sie umfasst ein breites Spektrum an Handlungen: Das nicht einvernehmliche Verbreiten intimer Bilder („Revenge Porn“), das Erstellen von KI-generierten Deepfake-Pornos, Identitätsdiebstahl für sexualisierte Kommunikation, Cyberstalking, sexualisierte Belästigung über soziale Netzwerke sowie sogenanntes Cyberflashing, das unaufgeforderte Zusenden von intimen Fotos.  

Was all diese Formen eint: Sie greifen tief in die sexuelle Selbstbestimmung, die Würde und die psychische Gesundheit der Betroffenen ein - meist von Frauen. Sexualisierte Gewalt kann auch ohne körperliche Übergriffe stattfinden und ebenso Angst, Ohnmacht und Scham auslösen. Dennoch werden digitale Übergriffe oft als „weniger real“ wahrgenommen und entsprechend weniger ernst genommen - ein Problem, das sich auch in Teilen des deutschen Rechtssystems widerspiegelt. 

Der europäische Rechtsrahmen - ein Überblick 

Im Juni 2024 trat die EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt (RL 2024/1385) in Kraft - das erste umfassende Rechtsinstrument auf EU-Ebene zu diesem Thema. Die Richtlinie verpflichtet alle Mitgliedstaaten, die nicht einvernehmliche Herstellung oder Weitergabe von intimen Bildern oder manipuliertem Material - explizit einschließlich sexualisierter Deepfakes - unter Strafe zu stellen. Die Umsetzungsfrist läuft bis zum 14. Juni 2027. 

Darüber hinaus kriminalisiert die Richtlinie Cyberstalking, Cyberbelästigung (einschließlich Cyberflashing) und frauenfeindliche Hetze im Netz. Ergänzt wird dieser Rahmen durch den EU AI Act (VO 2024/1689), der Transparenzpflichten für KI-generierte Inhalte einführt, sowie durch den Digital Services Act (DSA), der Plattformen zur Risikobewertung und geeigneten Maßnahmen verpflichtet. Der Rechtsrahmen auf EU-Ebene ist also vorhanden - die Umsetzung in nationales Recht hinkt jedoch erheblich hinterher. 

Vorbilder in Europa: Was bereits funktioniert 

Ein Blick in andere europäische Länder zeigt, dass ein wirksamerer Umgang mit digitaler sexualisierter Gewalt möglich ist. Großbritannien hat mit dem Online Safety Act 2023 und weiteren Reformen einen besonders weitgehenden Ansatz etabliert: Sowohl die Weitergabe als auch die Herstellung nicht einvernehmlicher intimer Bilder und Deepfakes stehen unter Strafe, während Plattformen verpflichtet sind, entsprechende Inhalte konsequent zu adressieren. Gleichzeitig wird deutlich, dass gesetzliche Verschärfungen allein nicht ausreichen - bislang führen nur wenige Fälle tatsächlich zu Anklagen. 

Spanien verfolgt mit seinem Einwilligungsansatz („Nur Ja heißt Ja“) einen breiten Schutzrahmen, der digitale Gewalt ausdrücklich einbezieht, weist jedoch weiterhin Lücken bei der spezifischen Regulierung von Deepfakes auf. Italien arbeitet derzeit an gesetzlichen Anpassungen, um den Missbrauch KI-generierter Inhalte gezielter zu erfassen. Auch wenn ein eigenständiger Straftatbestand noch nicht flächendeckend umgesetzt ist, zeigt die politische Entwicklung klar: Digitale Gewalt wird zunehmend als eigenständiges Problem anerkannt. 

Zusammengenommen wird deutlich: Ein effektiver Schutz ist rechtlich möglich - wenn Gesetzgebung, Plattformverantwortung und Strafverfolgung zusammengedacht werden. 

Deutschland: Stärken, Schwächen und die Lücke 

Eine aktuelle Studie von Ina Bieber und Nathalie Leitgöb-Guzy, herausgegeben vom Bundesministerium für Familie, Senioren, Frauen und Jugend, dem Bundesministerium des Innern sowie dem Bundeskriminalamt, zeigt: Frauen sind von digitaler Gewalt deutlich häufiger betroffen als Männer. Dazu zählen unter anderem Identitätsmissbrauch, Doxxing (das unerlaubte Veröffentlichen privater Informationen), der Missbrauch von Smart-Home-Geräten zur Überwachung, Bildmanipulationen und Deepfakes, Verleumdung im Netz sowie Belästigung im Online-Gaming. Nur 2,4% der betroffenen Frauen bringen diese Vorfälle zur Anzeige. Der Handlungsbedarf ist also entsprechend hoch. 

Was das geltende Recht bereits erfasst 

Das deutsche Strafrecht ist nicht schutzlos. Bereits heute lassen sich bestimmte Formen digitaler Gewalt rechtlich verfolgen - etwa Beleidigung, Nachstellung (Stalking) oder die unbefugte Verbreitung von Bildern aus dem höchstpersönlichen Lebensbereich. Auch die Verbreitung von kinder- und jugendpornografischen Inhalten ist strafbar, selbst wenn diese mithilfe von KI erzeugt wurden. 

Darüber hinaus können Betroffene in bestimmten Fällen zivilrechtlich gegen die unerlaubte Nutzung ihres Bildes vorgehen. 

Die strukturelle Schutzlücke in Deutschland 

Dennoch bestehen erhebliche Lücken. Bei Deepfakes wird kein "echtes" Bild gestohlen, sondern eine täuschend echte, aber vollständig fiktive Situation generiert. 

Konkret fehlt im deutschen Recht bislang ein eigenständiger Straftatbestand, der: 

  • das Herstellen sexualisierter Deepfakes ohne Einwilligung explizit unter Strafe stellt (unabhängig vom Verbreiten), 
  • den Identitätsdiebstahl für sexualisierte Zwecke im digitalen Raum als eigenständige Handlung erfasst, 
  • die spezifische digitale Natur dieser Taten - Täuschung, Fernwirkung, Kontrollverlust über das eigene digitale Abbild - angemessen berücksichtigt. 

Jetzt ist die Zeit zum Handeln

Der Fall Fernandes hat eine längst überfällige gesellschaftliche und politische Debatte angestoßen. Er zeigt, dass digitale sexualisierte Gewalt kein abstraktes Phänomen ist, sondern reale, tiefgreifende Folgen für Betroffene hat - psychisch, sozial und beruflich. Gleichzeitig wird deutlich: Das deutsche Recht hat mit der digitalen Realität des 21. Jahrhunderts noch nicht ausreichend Schritt gehalten. 

Deutschland braucht einen eigenständigen Straftatbestand für digitale Gewalt, der insbesondere auch systematischen Identitätsmissbrauch zu sexualisierten Zwecken erfasst. Gleichzeitig müssen die Rechte von Betroffenen gestärkt werden - etwa durch bessere Auskunftsansprüche gegenüber Plattformen bei Fake-Profilen. 

Großbritannien macht vor, wie Plattformverantwortung konkret ausgestaltet werden kann: Anbietende, die problematische Inhalte nicht ausreichend adressieren, müssen mit Sanktionen rechnen. Deutschland sollte - im Rahmen des DSA und darüber hinaus im nationalen Recht - sicherstellen, dass gemeldete Inhalte digitaler sexualisierter Gewalt prioritär behandelt werden. Auch sogenannte „Nudification Apps“, also KI-Tools zur Erstellung nicht einvernehmlicher Nacktbilder, sollten reguliert oder verboten werden. 

Gleichzeitig gilt: Gesetze allein reichen nicht aus. Ermittlungsbehörden benötigen ausreichende Ressourcen, technisches Know-how und spezialisierte Strukturen, um digitale Gewalt wirksam verfolgen zu können. 

FEMNET e.V. wird seine Arbeit in diesem Bereich künftig ausbauen. Unter dem Schwerpunkt „Digitale Gewalt, Gender Bias und Data Workers“ rückt der Verein die Auswirkungen digitaler Technologien auf Frauen* und andere marginalisierte Gruppen stärker in den Fokus - sowohl im Globalen Norden als auch im Globalen Süden. Im Zentrum stehen dabei unter anderem geschlechtsspezifische Gewalt im digitalen Raum, Verzerrungen in KI-Systemen sowie die oft unsichtbaren Arbeitsbedingungen von Click- und Data-Worker*innen entlang digitaler Wertschöpfungsketten. 

 

Jetzt spenden