Zum Hauptinhalt springen

Künstliche Intelligenz verstärkt digitale Gewalt – neue Strategien gefordert

Pin It


Künstliche Intelligenz erleichtert nicht nur die Erstellung von Bildern,
Texten und Videos, sondern auch die gezielte Verbreitung von
Falschinformationen.

Das kann digitale Gewalt verstärken und demokratische Meinungsprozesse
gefährden. Besonders betroffen sind dabei Frauen und LGBTQI*-Personen. Das
zeigt etwa die aktuelle Forschung des Weizenbaum-Instituts.

„KI-generierte Desinformation bedroht zunehmend demokratische Diskurse und
die Sicherheit der Betroffenen“, erklärt Martha Stolze, Wissenschaftlerin
in der Forschungsgruppe „Plattform-Algorithmen und Digitale Propaganda“ am
Weizenbaum-Institut. „Diese Form digitaler Gewalt richtet sich nicht nur
verstärkt gegen Frauen, sondern in erheblichem Maße auch gegen LGBTQI*,
insbesondere gegen trans Personen.“

Der öffentliche Fokus auf sogenannte Deepfakes greife jedoch zu kurz, so
Stolze weiter. Auch textbasierte Falschinformationen, etwa gezielte
Gerüchte oder herabsetzende Behauptungen, ließen sich leicht erstellen und
verbreiteten sich in sozialen Netzwerken sehr schnell. Sie könnten
erheblichen Schaden anrichten und zur Verunsicherung und Ausgrenzung von
Betroffenen beitragen.

Eine zentrale Rolle spielen hierbei Plattformen, da ihre Algorithmen die
Reichweite emotional aufgeladener oder spaltender Inhalte verstärkten.
Forschende sehen deshalb auch die Betreiber sozialer Netzwerke stärker in
der Verantwortung, aktiv gegen geschlechtsspezifische und gruppenbezogene
digitale Angriffe vorzugehen. Dies muss konsequent über den Digital
Services Act (DSA) durchgesetzt werden.

Der DSA befasst sich insbesondere mit der Haftung von Online-Plattformen.
Es ist wichtig, dass Nutzende ihre Rechte auch stärker vor Gericht
wahrnehmen können. Im geplanten digitalen Gewaltschutzgesetz, dessen
Entwurf derzeit im BMJV entworfen wird, sollten alle Formen KI-gestützter
Falschinformationen, visuell wie textbasiert, einbezogen werden. Zudem
müsse der Schutz von trans Personen und anderen besonders gefährdeten
Gruppen systematisch verankert werden.

Aus Sicht von Stolze braucht es einen umfassenden Ansatz, der neben Frauen
auch LGBTQI-Personen berücksichtigt, auf Text- und Bild-/Videoformate
abstellt und Plattformen stärker in die Pflicht nimmt, um die
missbräuchliche Nutzung von KI-Technologien wirksam zu begrenzen. Nur so
lasse sich verhindern, dass misogyne und queerphobe digitale Gewalt und
Falschinformationen die Grundlagen einer offenen, demokratischen
Gesellschaft weiter untergraben.