- 7 hours ago
Category
📺
TVTranscript
00:00Oh my God, that's crazy.
00:03That's what I find from the side of the side.
00:07For me, it was my sister's worst.
00:10There were pictures of her from 5 or 6 years ago.
00:14She was 14 years old.
00:16Now, you have an ex-partner who wants to do something wrong with you.
00:20It used to be celebrities.
00:23It used to be public well-known figures.
00:26Now it's anyone. It's fair game.
00:30Deepfakes.
00:31Das sind manipulierte Bilder, die mithilfe von künstlicher Intelligenz erstellt werden.
00:35Mit Deepfakes-Technologien kann ich jedes beliebige Gesicht mit meinem austauschen.
00:41So ungefähr.
00:42Ich kann einfach so tun, als wäre ich die Person und ihr jedes beliebige Wort in den Mund legen.
00:47Diese Fakes sind täuschend echt.
00:50Man kann sie kaum noch erkennen.
00:51Die Tech-Industrie feiert den technologischen Fortschritt bei künstlicher Intelligenz
00:56und hofft auf lukrative Geschäfte.
00:58Doch Deepfakes entwickeln sich zunehmend zu einem echten Problem.
01:03Zum Beispiel für die Politik.
01:04Wenn täuschend echte Deepfakes von Zelensky und Putin versuchen wollen, den Krieg zu beeinflussen.
01:09Dieser Film zeigt, dass Deepfakes aber auch für jeden von uns zur Bedrohung und zu einem echten Albtraum werden können.
01:16Vor allem für Frauen.
01:17Wenn man anfängt, dann Deepfake-Videos zu recherchieren, merkt man ganz schnell, dass es hauptsächlich Pornos sind.
01:25Ich sehe Gesichter von Politikerinnen, Schauspielerinnen, Sängern, Influencerinnen, also ich habe das Gefühl, dass die Opfer von Deepfake-Videos vor
01:34allem Frauen sind.
01:36Während ich zu Deepfake-Pornos recherchiere, stoße ich auf eine der größten Seiten für diese Art von Content.
01:41Sie heißt Mr. Deepfakes.
01:44Die Seite hat über eine Million registrierte User und die Community ist sehr aktiv.
01:48In Forenbeiträgen kann man sich Deepfake-Pornos wünschen und viele Deepfaker machen das sogar kostenlos als Hobby.
01:54Ich finde auf der Seite nur bekannte Frauen. Auch Promis aus Deutschland. Zum Beispiel Annalena Baerbock, Luisa Neubauer oder Angela
02:03Merkel.
02:04Aber auch Moderatorinnen, Schauspielerinnen und YouTuberinnen. Alle ihre Gesichter wurden in Pornos montiert.
02:09Auf Mr. Deepfakes tummelt sich eine ganze Community, die es offenbar toll findet, berühmte Frauen nackt zu sehen.
02:17Ich möchte wissen, wie es den Frauen damit geht, dass manipulierte Videos mit ihren Gesichtern auf der Seite zu sehen
02:22sind.
02:23Ich frage einige an. Einer erklärt sich bereit, vor der Kamera mit uns zu reden.
02:27Mrs. Bella ist eine der erfolgreichsten Content-Kreatoren in Deutschland. Auf Instagram hat sie über zwei Millionen Follower.
02:34Bella hat mich für ein Interview nach Köln eingeladen. Wir treffen uns im Büro ihres Managements.
02:40Alle, die wir angeschrieben haben, alle Frauen, wollten sich ja entweder gar nicht äußern oder haben uns überhaupt nicht geantwortet.
02:48Also ich rechne ihr das schon echt hoch an. Ich finde es super wichtig, dass sie das macht.
02:58Hallo!
02:59Von Bella habe ich auf Mr. Deepfakes eine ganze Videosammlung gefunden, in der sie in gleich drei verschiedenen Deepfake-Pornos
03:06zu sehen ist.
03:07Was uns allerdings bis zum Zeitpunkt unseres Interviews mit Bella nicht ganz klar ist, ist, ob sie von dem Video
03:12weiß.
03:13Im Vorbespräch unseres Interviews hat sie bloß von Deepfake-Fotos gesprochen, die vor zwei Jahren im Netz von ihr kursierten.
03:20Sie zeigt sie mir.
03:22Ah ja, okay, man sieht nach dem Körper.
03:25Genau, das ist ein echtes Foto, was halt existiert, aber es wurde halt auf einer pornografischen Seite geteilt.
03:34Ich war halt total schockiert, weil es sah halt super echt aus und du bist so eine Millisekunde in dem
03:38Moment so, hä, was ist das für ein Foto?
03:41Erstmal war ich so, okay, die sieht aus wie ich, aber das bin ja nicht ich, weil ich habe so
03:44ein Foto nicht.
03:44Und da sind wirklich erstmal in wirklich Millisekunden super viele Gedanken, die einem durch den Kopf schießen.
03:50Die Fotos wurden mit Hilfe ihres juristischen Teams entfernt.
03:54Ich entscheide mich dazu, ihr auch von einem Porno-Video mit ihrem Gesicht zu erzählen, welches ich auf Mr. Deepfakes
03:59entdeckt habe.
04:00Ich habe in meiner Recherche eine Seite gefunden, wo ganz viele Deepfake-Porno-Videos zu sehen sind.
04:07Vor allem von Politikerinnen, Schauspielerinnen, prominenten Personen.
04:12Und da ist auch ein Video mit deinem Gesicht zu sehen.
04:16Ich weiß nicht, ob du das wusstest, ob das Teil...
04:21Nee.
04:23Nee, das weiß ich nicht.
04:25Soll ich dir das mal zeigen?
04:27Gerne.
04:28Oh mein Gott, das ist ja total krank.
04:30Das finde ich zum Beispiel, diese von der Seite...
04:33Das finde ich wirklich...
04:35Man sieht ja auch, dass das Video-Ausschnitte sind von Videos von mir, die ja wirklich existieren.
04:42Ach so, du kannst es zuordnen.
04:44Ich kann es teilweise zuordnen, ja.
04:47Ah ja.
04:48Das sind dann Videos, die du bei YouTube hochgeladen hast, wo du irgendwie...
04:52Ja, entweder bei YouTube oder ich könnte mir auch vorstellen, dass das über Storys ist.
04:58Es ist schon krass.
05:00Klar, es ist natürlich viel einfacher von einer Person des öffentlichen Lebens, weil du jetzt so viel Videomaterial hast.
05:07Auch gutes Videomaterial, hochauflösend, wo man das dann sieht.
05:12Ich meine, das ist ja super krass.
05:17Ja, das ist ja krank.
05:20Ja, sieht aus wie eine echte Person.
05:21Im Endeffekt ist es nichts anderes als ein echtes Foto.
05:25Als hätte man ein echtes Foto von dir geklaut, keine Ahnung, deine Cloud wurde gehackt.
05:29Das gibt es ja auch viele Fälle von.
05:31Am Ende macht das keinen Unterschied, weil du kannst nicht zu jedem hingehen oder zu deinem Chef hingehen und sagen,
05:35das ist fake.
05:36Das stimmt nicht und am Ende glaubt dir jeder, weil du kannst es nicht beweisen, wenn es so gut gemacht
05:43ist.
05:44Wenn du mir jetzt das Video nicht gezeigt hättest, hätte ich vielleicht niemals davon erfahren, dass es das gibt.
05:51Und wie gesagt, ich reagiere relativ entspannt darauf, weil ich weiß, dass ich ein gutes Team habe, weil ich weiß,
06:00dass das schnell gelöscht wird.
06:02Und weil ich die Mittel habe, um das schnell löschen zu lassen.
06:06Aber wenn du jetzt einfach, du bist vielleicht noch ein junges Mädchen, du bist vielleicht unter 18, dann musst du
06:14erstmal dahin kommen, deinen Eltern erstmal davon zu erzählen, was da schon vielleicht für viele unangenehm genug ist.
06:20Du musst damit dann noch zum Anwalt, was du vielleicht überhaupt nicht bezahlen kannst im Vorhinein, auch wenn du das
06:25Geld vielleicht irgendwann zurückbekommst.
06:28Wenn solltest du gewinnen, was du auch nicht weißt, ob das dann funktioniert, wie soll das gehen?
06:33Also es ist einfach ein riesen, riesen Last, die da am Ende auf jemandem liegt und du hast keine Ahnung,
06:39wird das jetzt am Ende gelöscht oder nicht?
06:43Also ich finde dafür, dass Bella eine Person der Öffentlichkeit ist und wahrscheinlich täglich Nachrichten bekommt, die versaut sind, hat
06:52man schon gemerkt, dass es für sie ziemlich krass war, sich selber in diesem Video zu sehen.
06:57Also ihre Reaktion, sie war zwar sehr cool, aber sie hat glaube ich nicht damit gerechnet, dass es so echt
07:04aussieht und also man hat schon gemerkt, dass sie berührt davon war.
07:10Noch während unseres Drehs hat Bellas Anwalt die Seite kontaktiert.
07:13Bis zu unserem Redaktionsschluss konnte man das Video aber immer noch sehen.
07:17Und auch wir haben den Betreiber von Mr. Deepfakes konfrontiert und herausgefunden, dass er aus der Föderation St. Kitts &
07:23Nevis kommt, einem Inselstaaten der Karibik.
07:26Wir wollten wissen, was die Motivation hinter der Seite ist und ob sie das Video von Bella löschen würden.
07:31Die Antwort von Mr. Deepfakes war
07:33Bei meiner Recherche stoße ich auf einen weiteren Fall von Deepfake, nämlich der Fall von Kate Isaacs.
07:43Sie lebt in Großbritannien, ist Buchautorin, Aktivistin und hat die Kampagne Not Your Porn gegründet, um auf digitale Gewalt im
07:49Netz aufmerksam zu machen.
07:51Wir treffen uns für ein Videointerview. Kate erzählt mir, dass ihr Gesicht auf ein Porno gediebfakt wurde und jemand auf
07:57Twitter das Video geteilt und sie darauf markiert habe.
08:00Someone has managed to control my image and put my face in something so believable.
08:06It felt like an act of sexual violence.
08:09It felt like they were doing something to me, even though it wasn't really me in the video.
08:14No one else could tell that.
08:16So those reputation, that dendroversal effect on your reputation still exists.
08:20And you go through the motions of, well, who's that guy that I'm having sex with in that video?
08:25When was that? And then you go, your mind automatically goes to, was I drunk?
08:31Was I drugged? Who was this person?
08:32So you have that additional level of trauma and it's just, it's very, very scary.
08:39It's terrifying.
08:40Do you have any idea who could be behind this video?
08:43I don't have hard, cold evidence.
08:44Effectively, it was just a group of very angry men who really liked to watch women in pornography without their
08:53consent.
08:54There's no point trying to reason with those people because they fundamentally feel so entitled to that content.
09:00It's shocking.
09:01Kate is through her Kampagne in Großbritannien bekannt.
09:04Doch heutzutage trifft es nicht mehr nur Personen in der Öffentlichkeit.
09:07It used to be celebrities, it used to be public, well-known figures.
09:12Now it's anyone.
09:13It's fair game.
09:14And I think that's the really, really scary part.
09:17If you think back to the past where, if you wanted to edit a photo or a video on Photoshop,
09:24you had to have specific skills like airbrushing and contouring.
09:27Nowadays we can download an app and we can download Facetune and click a button and then it all happens
09:31for us.
09:32That is exactly what is happening to deepfake technology now.
09:35Stimmt das?
09:36Sind inzwischen immer mehr nicht prominente Frauen Opfer von Deepfakes?
09:40Das möchte ich wissen und suche Frauen aus Deutschland, die Opfer von Deepfakes wurden.
09:44Ich frage bei über 600 Beratungsstellen bundesweit nach, ob sie Fälle kennen.
09:48Ich suche auf Social Media und tarotiv ein in die Welt der Foren und der Imageboards.
09:53Gibt man Deepfake Porn bei Google ein, kommen über 50 Millionen Ergebnisse.
09:58Ich finde heraus, es gibt sogar spezielle Foren im Netz für Deepfakes.
10:03In den Forum 4chan finde ich unzählige Seiten, auf denen anonyme User Bilder von Frauen posten und die Community bitten,
10:10daraus ein Deepfake Porno zu machen.
10:16Interessiere mich für Bild- und Videofakes.
10:19Wir sehen, wie sie gefickt wird.
10:22Am besten nimmt man für Deepfakes Social Media Bilder von Chicks, die ihr in echt kennt, und packt sie dann
10:27in maßgeschneiderte Pornofantasien.
10:30Das ist die Mutter eines Freundes.
10:32Kannst du mal gucken, ob du diese Eute rauspacken kannst?
10:35Oder Deepfake sie?
10:37Einigen Männern geht es hier darum, Pornofantasien zu erfüllen.
10:40Andere wollen sich damit an ihren Ex-Partnerin rächen.
10:43Oder einfach nur Frauen, die sie kennen, degradieren.
10:46Auf 4chan kann man Deepfakes auf Wunsch in weniger als einem Tag erstellen lassen.
10:49Ich will wissen, wer sowas macht und vor allem warum.
10:54Ein User fällt mir dabei besonders auf.
10:57Anders als die anonymen Accounts tritt dieser mit seiner klar E-Mail-Adresse auf.
11:01Und die Deepfakes sehen erstaunlich echt aus.
11:04Ich schreibe den User an und frage, wieso er Deepfakes von Frauen erstellt, die er womöglich gar nicht kennt.
11:10In der Zwischenzeit kriege ich eine E-Mail, die mich auf eine neue Spur bringt.
11:14Ein Mann, der anonym bleiben möchte, ist durch eine unserer unzähligen Aufrufe auf mein Team und mich aufmerksam geworden.
11:20Er schickt mir einen Link zu einer Webseite.
11:23Sie heißt ImageFab.
11:24Fab ist ein englischer Begriff für Masturbieren.
11:26Die ist so ein bisschen aufgebaut wie so ein schlechtes Facebook, wo so ganz viele User Profile erstellt haben.
11:34Und da sind so viele Bilder von Frauen zu sehen, also pornografische Bilder.
11:40Und ich bin mir sicher, dass die zum Großteil ohne deren Einverständnis veröffentlicht wurden.
11:46Unser Informant hat uns nicht nur die Webseite genannt, auf der diese Bilder sind, sondern auch den Klarnamen und Arbeitgeber
11:52von einer der Frauen.
11:53Das habe er durch eine Bilderrückwärtssuche herausgefunden.
11:57Um sie zu schützen, ändern wir ihren Namen.
12:00Wir nennen sie Laura.
12:01Neben Laura haben wir noch eine andere Person auf der Webseite gefunden und ihre Identität ausfindig machen können.
12:07Sie nennen wir Lea.
12:08Und jede Galerie heißt anders.
12:10Es sind lauter Fotos von ihr.
12:13Fotos oben ohne am Strand.
12:15Dann ist hier ein Foto zu sehen mit Penis zwischen ihren Brüsten.
12:22Offensichtlich geht Faked, weil man sieht so ein bisschen den Rand am Gesicht.
12:25Das ist irgendwie also nicht ihr eigentlicher Körper und der Körper ändert sich auch die ganze Zeit.
12:31Ich will wissen, wer die Person ist, die so viele Bilder von Laura und Lea besitzt und daraus Fakes erstellt.
12:36Ich beschließe den Account anzuschreiben und hoffe, dass er mir antwortet.
12:43Wochenlang recherchiere ich auf der Seite und finde immer mehr raus.
12:50Ich habe mich jetzt etwas weiter in diese Seite reingefuchst.
12:55Und habe mittlerweile eine ganze Datenbank an Frauen, die entweder gediebfaked wurden oder gediebfaked werden sollen.
13:04Es gibt hier einen Fall, ein Profil, auf dem mehrere Galerien zu sehen sind.
13:09Und jede Galerie hat den Namen von einem Mädchen.
13:12Zwar nur der Vorname.
13:14Und dann unzählige Fotos von diesem Mädchen.
13:17In den Galerien steht jeweils drin, free to fake.
13:20Die Person möchte, dass andere User die Frauen deepfaken.
13:23Von einer der Frauen finden wir den Instagram-Namen heraus.
13:26German teen slut.
13:29Come on her, fake her. Comment.
13:32Das ist wirklich krass.
13:35Ich weiß ehrlich gesagt nicht genau, wie ich damit umgehen soll.
13:38Schreibt man der?
13:39Ruft man die an?
13:40Erzählt man ihr davon?
13:42Zerstöre ich damit womöglich ein Leben, wenn ich ihr davon erzähle?
13:48Ich bitte eine Beratungsstelle für Opfer von Gewalt um Rat und entscheide mich anschließend den Frauen zu schreiben.
13:54Tatsächlich antwortet mir eine und wir verabreden uns zu einem Videocall.
13:58Wir nennen sie Marie.
13:59In der Zwischenzeit will ich mehr über die Technologie hinter Deepfakes wissen.
14:03Henry Ida forscht zu Deepfakes.
14:052019 haben er und seine Kollegen eine Studie veröffentlicht, die davon ausgeht, dass von den damals 15.000 existierenden Deepfakes
14:1496% Pornos mit Frauen seien.
14:17Der Landscape hat seitdem viel verändert.
14:20Es wäre sehr schwer, ein ähnliches Nummer zu geben.
14:24Aber das ist, dass die Menge user-freundliche Tools für Novelty-Style-Deepfakes,
14:30die ein bisschen harmloser, zählerer Content haben massiv erhöht.
14:34Wir sprechen wahrscheinlich von Billionen von Videos, die jetzt generiert wurden.
14:38Deepfakes sind Fotos oder Videos, die mit Hilfe von künstlicher Intelligenz manipuliert werden.
14:42Anders als gewöhnliche Manipulationen, die zum Beispiel mit Photoshop erzeugt werden können.
14:47Die Deepfake-Technologie zu nutzen geht mittlerweile ganz einfach.
14:50Beispielsweise mit Open-Source-Tools aus dem Internet oder sogar mit Apps auf dem Handy.
14:54Also, just as these easy user-friendly Apps have emerged for novelty purposes,
15:01they've also emerged for malicious purposes,
15:03particularly in the image abuse against women space.
15:06So, yeah, these tools are getting millions and millions of user traffic monthly
15:11that we know we are talking about.
15:13Again, billions of outputs that are being generated.
15:16We're talking in the image abuse context,
15:18millions of women who have been targeted now.
15:21So, although we can't necessarily provide those same kinds of granular statistics,
15:26we can't say confidently that this technology has really exploded,
15:31both in terms of its kind of commercial artistic uses and its malicious uses.
15:35Millionen von Frauen sind inzwischen Opfer von Deepfakes.
15:38Deepfaking kann heute jede Person.
15:41Das heißt, jegliche Medieninhalte zu manipulieren, ist kinderleicht geworden.
15:44Das birgt die Gefahr, dass Menschen die Technologie missbräuchlich verwenden.
15:48Ich treffe mich mit Theresa Locker.
15:50Sie ist Journalistin-Kollegin beim Spiegel und hat speziell zu Apps recherchiert,
15:54mit denen man ganz einfach Deepfake-Videos erstellen kann.
15:57Ich frage mich, wie schnell kann man mit den Apps auch Deepfake-Pornos erstellen?
16:01Du kannst dir in der Gratis-Version keine direkten Pornos erstellen,
16:05aber es gibt manche Apps, die in der Bezahl-Version,
16:09wenn man eine Kreditkarte hat und ein paar Euro pro Monat bezahlt,
16:12im Abo eine Funktion freischaltet, mit der du das machen kannst.
16:16Also wir sind jetzt hier in der App und man sieht jetzt hier alle möglichen Vorlagen.
16:22Und wenn man sich ein Porno abgespeichert hätte, könnte man jetzt einfach dieses Gesicht ersetzen
16:30und irgendein anderes nehmen.
16:32Das ist ein Demo-Gesicht, das ist von einer Frau, die nicht existiert.
16:36Also die ist mit einer KI generiert.
16:40Und da liegt jetzt das Gesicht da drauf.
16:42Krass, Wahnsinn.
16:45Das ist wirklich krass, dass du in 90 Sekunden einfach mal ein Porno erstellen kannst.
16:51Jetzt stell dir vor, du hast einen Ex-Partner, der dir richtig wehtun will
16:55und der lädt dann sowas hoch und du erfährst es dann erst, wenn es sich auf zig Seiten verbreitet hat.
17:03Das heißt, der Hersteller will einfach keine Filter einbauen oder macht das wissentlich.
17:07Nacktfilter sind nicht teuer, die sind nicht schwer zu implementieren.
17:11Wenn du das unterbinden willst, dann kannst du das auch machen.
17:14Mhm.
17:15Das Netz ist voller Deepfakes. Doch wie viele gibt es bundesweit?
17:18Wir fragen alle 16 Landeskriminalämter an, wie viele Fälle ihnen bekannt sind.
17:22Doch kein Landeskriminalamt kann uns eine konkrete Zahl nennen.
17:26Alle Pressestellen, die uns geantwortet haben, schreiben,
17:29das Phänomen Deepfake wird nicht erfasst, weil es keinen eigenen Strafbestand bilde.
17:33Ein Informant spielt uns Daten aus einem Bundesland zu.
17:36Dort hat man offenbar Deepfakes doch erfasst und verschiedene Strafbestände subsummiert.
17:41Nach diesen Daten wurden dort in den vergangenen zwei Jahren acht Fälle von Deepfakes bei den Behörden angezeigt.
17:47Doch die Dunkelziffer ist vermutlich sehr viel größer.
17:50Das Landeskriminalamt Bayern schreibt,
17:52Die Rechtslage zu Deepfakes ist aufgrund des neuen Phänomens noch nicht eindeutig.
17:56Bei der Herstellung und Verbreitung von täuschend echt wirkendem Bild- und Videomaterial von anderen Personen mittels Deepfakes-Software
18:03können verschiedene Straftaten verwirklicht werden.
18:06Das heißt, Deepfakes können unter mehreren Straftaten erfasst werden,
18:09was es so schwierig macht, sie richtig zu zählen.
18:12Zum Beispiel Verstöße gegen das Kunst-Urheberrechtsgesetz
18:15oder die Verletzung von Persönlichkeitsrechten,
18:17aber auch Verbreitung von kinderpornografischen Inhalten oder Beleidigung.
18:21Ich möchte wissen, was Betroffene von Deepfake-Pornografie machen können, um sich zu schützen
18:25und treffe Josephine Ballon, Juristin und Head of Legal bei der gemeinnützigen Organisation HateAid,
18:31die Betroffene digitaler Gewalt berät und unterstützt.
18:34Um sich gegen die Verbreitung von Deepfakes zu wehren, hat man grundsätzlich zwei Möglichkeiten.
18:39Die erste Möglichkeit ist, sich an die Plattform zu wenden, auf der die Bilder erschienen sind.
18:43Da kann man sich hinwenden, kann Löschung verlangen.
18:46Wenn die Löschung nicht passiert, kann man auch gerichtlich versuchen, diese einzufordern.
18:50Und man kann sich natürlich direkt an die Person wenden, die die Bilder hochgeladen hat.
18:55Und da hat man natürlich das Problem, dass man die gar nicht oder nur sehr, sehr schwer identifizieren kann.
19:01Gelingt es aber, hat man auch da einen Anspruch, den man gerichtlich durchsetzen kann.
19:05In erster Linie ist es ja so, ist so ein Bild erstmal in die Öffentlichkeit gelangt, dann ist der Schaden
19:11bereits angerichtet.
19:12Und meistens geht es dann erst los, denn wenn das Bild einmal in der Öffentlichkeit ist, dann wird es geteilt.
19:17Und selbst dann, wenn man vielleicht eine Löschung erzielen konnte, ist es so, dass andere es vielleicht einfach weiter teilen,
19:23auf andere Plattformen weiter verbreiten oder es sich sogar gespeichert haben, um es zu einem späteren Zeitpunkt nochmal zu posten.
19:31Und das kann für Betroffene bedeuten, dass sie ein Leben lang nach ihren Bildern suchen müssen und für die Löschung
19:37sorgen müssen.
19:38Unsere Recherche unter 600 Beratungsstellen hat ergeben, dass nur wenige Fälle von Deepfakes bekannt sind.
19:44Vermutlich, weil viele der Betroffenen entweder nicht wissen, dass sie betroffen sind oder Angst davor haben, sich damit auseinanderzusetzen.
19:51Wie schwer der Umgang mit Deepfakes ist, weiß Anna Lehrmann. Sie ist Beraterin im Verein Frauen helfen Frauen in Fürstenfeldbruck.
19:58Bei den Fällen, die sie betreut, geht es nicht um Pornofantasien. Zu ihr kommen Frauen, gegen die Deepfakes gezielt als
20:04Waffe eingesetzt wurden.
20:05Anna Lehrmann hat einen Fall betreut, bei der eine Frau von ihrem Ex-Mann bedroht wurde, weil sie nicht die
20:11Scheidungspapiere unterschreiben wollte.
20:12Der Mann hat Deepfakes von der Frau erstellt und gesagt, er würde sie verbreiten. Das hatte schlimme Folgen für die
20:18Frau.
20:19Einfach, weil der Leidensdruck zu groß geworden ist. Sie hat sich dann dafür entschieden, den Ort hier zu verlassen und
20:27ist weggezogen, ist zurückgegangen in ihre alte Heimat.
20:30Hat so versucht, dem Ganzen aus dem Weg zu gehen. Einfach, weil die Konfrontation mit dem Thema Gewalt, digitale Gewalt
20:35zu hohen Leidensdruck verursacht hat.
20:38Und sie es nicht ausgehalten hat und deswegen die Flucht ergriffen hat.
20:43Sie sagt, oft gehen Deepfakes mit anderen Formen von Gewalt wie Erpressung oder Bedrohung einher.
20:48Sie wurden oft von Männern als Waffe bei Beziehungsstreitigkeiten eingesetzt.
20:52Grundsätzlich sind die Frauen, die von Deepfakes betroffen waren und die bei uns in der Beratung waren, wegen einem anderen
20:58Thema hierher gekommen.
20:59Da war eine andere Gewaltform der Auslöser.
21:02Und als dann dieses Thema Deepfakes im Raum stand, war es einfach in erster Linie Verunsicherung.
21:08Was ist das überhaupt? Was heißt das? Und auch eine ganz große Ratlosigkeit.
21:12Digitale Gewalt ist noch so viel diffuser, dass da noch viel größere Sorge besteht. Da kann mir doch keiner helfen.
21:19Ganz viele Frauen, egal mit welcher Gewaltthematik, sagen auch, ich will gar nichts dagegen tun,
21:24weil ich habe so große Angst, dass es dann dadurch noch schlimmer wird.
21:27Ich möchte es lieber ignorieren, als jetzt dagegen vorzugehen, rechtliche Schritte einzuleiten, eine Anzeige zu erstatten oder so.
21:33Weil das provoziert vielleicht einen Täter oder eine Täterin.
21:36Für viele Frauen scheint der Kampf gegen diese Art von Gewalt hoffnungslos.
21:40Wir haben die zuständigen Ministerien angefragt. Was tut die Bundesregierung gegen Deepfake Pornos?
21:45Das Bundesjustizministerium schreibt uns, dass es demnächst ein Eckpunktepapier für ein Gesetz gegen digitale Gewalt vorlegen wolle,
21:53um es Betroffenen einfacher zu machen, gegen Gewalt im Netz vorgehen zu können.
21:57Hierfür ist es insbesondere notwendig, dass Betroffene von Online-Plattformen einfache Auskunft über die Identität der rechtswidrig handelnden Nutzer erhalten
22:07können.
22:07Nur das Digitalministerium war bereit, persönlich mit uns zu sprechen. Benjamin Bracke ist Leiter der Abteilung Digital- und Datenpolitik.
22:16Was tut sein Ministerium, um Frauen besser vor Deepfakes zu schützen?
22:19Die Koalition hat sich ja in ihrem Koalitionsvertrag, also in dem Werden der Koalition, fest vorgenommen, gegen digitale Gewalt im
22:28Netz, doppelt gemoppelt, stärker vorzugehen.
22:32Momentan ist es so, dass das Justizministerium hierzu einen Vorschlag erarbeitet, welche Punkte eben insbesondere dort aufgenommen werden sollen.
22:40Was in dem Vorschlag drinsteht und wann so ein Gesetz in Kraft treten könnte, kann er noch nicht sagen.
22:46Allerdings verweist Benjamin Bracke auf den DSA. Das steht für Digital Service Act und ist ein neues Regelwerk der EU,
22:53das den digitalen Raum sicherer gestalten soll.
22:56Vor allem große Tech-Unternehmen sind dadurch verpflichtet, die Verbreitung illegaler Inhalte zu unterbinden.
23:01Und im DSA ist vorgesehen, dass besonders große soziale Suchmaschinen und soziale Netzwerke Vorschriften und Vorkehrungen treffen müssen, damit Deepfakes
23:11sehr klar gekennzeichnet sind.
23:14Wenn das nicht passiert und die Verbreitung dort stattfindet, kann die Europäische Kommission empfindliche Bußgelder verhängen.
23:20Wir wollen nicht, dass Deepfakes verbreitet werden. Wir wollen, dass gegen Deepfakes vorgegangen wird und dass die Persönlichkeitsrechte der Betroffenen
23:29zu einem großen Teil maximal eben auch geschützt werden.
23:32Wir haben jetzt in den App-Stores sowie im Google Play Store zahlreiche Apps gefunden, über die sich ganz einfach
23:40Deepfake-Pornos erstellen lassen.
23:42Wie kann es sein, dass diese Apps in den Stores erhältlich sind?
23:47Man muss ein Stück weit abschichten insoweit, dass ich ein bisschen auch vorsichtig sein möchte, wenn es sozusagen um die
23:53Technologie geht.
23:54Die Technologie sollten wir durchaus auch als eine Chance begreifen.
23:58Nichtsdestoweniger ist es so, dass gerade auch die App-Store-Betreiber, die Plattform-Betreiber eben jetzt eine Verantwortung haben, hier
24:04deutlich stärker gegen vorzugehen.
24:06Neben den Apps gibt es auch zahlreiche Webseiten, wie zum Beispiel 4chan, MrDeepfake und Co., wo Deepfakes geteilt werden ständig.
24:15Da gibt es auch Foren, wo Personen dazu aufrufen, Deepfakes zu erstellen.
24:21Warum sind diese Plattformen noch online?
24:23Also diese Webseiten sind ganz klar, dabei handelt es sich immer um Deepfake-Porn.
24:28Mir sind diese Webseiten nicht bekannt. Ich kann sozusagen zu den einzelnen Webseiten und auch dem rechtlichen Rahmen, innerhalb dessen
24:34sie sich bewegen, eigentlich keine Ausführungen machen.
24:37Dem Abteilungsleiter für Digitalpolitik sind diese Seiten nicht bekannt. Und die Technologie hinter Deepfake sieht er als Chance.
24:43Ich habe den Eindruck, dass Seiten wie MrDeepfakes und 4chan zurzeit leichtes Spiel haben, da sie nicht genügend kontrolliert werden.
24:50Und im DSA wird das Thema Deepfakes im Kontext von Pornografie nicht explizit angesprochen.
24:56Hier geht es vor allem um Desinformation und Fake News.
24:59Nach meinem Gespräch mit Benjamin Bracke muss ich an das Schicksal von Laura und Lea denken.
25:03Die Frauen, die Opfer von Deepfakes wurden und die ich auf ImageFab gefunden habe.
25:07Von Laura habe ich immer noch nichts gehört.
25:09Sie hat auch jede Anfrage, die wir ihr auf sozialen Netzwerken gestellt haben, blockiert.
25:14Dafür hat Lea auf unsere Anfrage reagiert. Mit ihr bin ich für ein Telefonat verabredet.
25:19Um ihre Anonymität zu schützen, haben wir das Telefonat nachgesprochen.
25:24Wir recherchieren geradezu Deepfakes und haben im Zuge unserer Recherche auch Bilder von ihnen gefunden.
25:31Deepfakes? Hm.
25:32Da sind mehrere Frauen betroffen, nicht nur sie. Und die anderen Frauen wurden auch zum Teil gedeepfaked.
25:39Aber es sind auch sehr, sehr viele private Fotos online. Also ganz normale Bilder aus dem Alltag.
25:45Das ist doch gerade ein schlechter Scherz, oder?
25:47Nein, leider ist es kein schlechter Scherz. Sie könnten uns dabei helfen, den Täter zu identifizieren und vermutlich auch die
25:54anderen Frauen.
25:54Okay, ähm, ich muss vielleicht, ich muss mir das kurz in meinem Kopf zurechtdrücken und würde mich sonst einfach nochmal
26:03bei Ihnen melden?
26:04Okay, alles klar. Danke. Tschüss.
26:16Ich glaub, die glaubt mir einfach gar nicht.
26:22Das war ein richtiger Schock für sie, ne?
26:24Danach hat sich Lea jedoch bis Redaktionsschluss nicht mehr bei uns gemeldet.
26:28Dafür hat mir der User, der die Bilder von ihr ins Netz gestellt hat, geantwortet.
26:33Er schreibt mir, dass er mal mit Laura zusammen war. Auf die Frage, wieso er die Bilder hochlädt, sagt er,
26:38Sie hat doch einen sehr ansinnlichen Körper. Denke doch, so etwas sollte geteilt werden.
26:42Wir haben weitergeschrieben und uns zu einem Telefonat am nächsten Tag verabredet.
26:46Doch kurz vorher löscht er sein Profil.
26:49Auch der Deepfaker von 4chan hat sich bei mir zurückgemeldet.
26:52Und auch von ihm wollte ich wissen, was seine Motivation ist und wieso er fremde Frauen deepfaked.
26:59I like to deepfake or shop pretty girls in threads. Most of the things I do, I do for free.
27:05If a girl is pretty enough for me, rest assured, I'll do it for free.
27:09Ich konnte herausfinden, dass der 4chan Deepfaker Spanisch spricht.
27:13Und dass wir eine Zeitverschiebung von minus 6 Stunden haben.
27:16Vermutlich kommt er aus einem amerikanischen Land.
27:18Laura's und Leas Deepfaker hingegen kommt aus Deutschland.
27:22Meine Recherche bestätigt, Deepfakes sind ein globales Phänomen.
27:26Mittlerweile konnte Marie, deren Fotos bei ImageFab hochgeladen wurden, damit User sie faken,
27:31noch andere Frauen aus der Galerie identifizieren.
27:33In einem gemeinsamen Call sprechen wir darüber.
27:36Wie habt ihr euch gefühlt, als ihr das gesehen habt?
27:39Ich war geschockt. Ich wusste gar nicht, was ich dazu sagen soll, muss ich ehrlich sagen.
27:43Vor allem dieses Gefühl von jemand hat meine Privatsphäre angegriffen.
27:48Also die Bilder sind von Januar letztem Jahr.
27:51Also knapp 17 war ich da gerade mal.
27:53Aber ich dachte, okay, wieso ich?
27:56Also was habe ich dir jetzt getan, dass du meine Bilder nimmst?
27:59Und du denkst, ja man, lass sie mal erniedrigen.
28:02Also, weiß ich nicht, komisch einfach.
28:05Für mich war es aber am schlimmsten, dass auch meine Schwester,
28:07und da waren Bilder von ihr von 5, 6 Jahren oder so.
28:11Sie war da 14.
28:13Die Gruppe hat einen klaren Verdacht, wer es sein könnte.
28:16Jemand aus ihrer alten Schule.
28:17Der Verdächtige habe nämlich bei ImageFab
28:19denselben Namen wie in anderen sozialen Netzwerken.
28:22Ich kannte ihn durch meine Schwester,
28:23weil meine Schwester mit ihm in der Klasse war.
28:26Und was ich ganz interessant finde, ist auch, er hat sie immer fertig gemacht.
28:30Bei deiner Schwester mit der Realschulzeit?
28:325, 6, 7 Jahre später immer noch relevant gewesen anscheinend.
28:36So krass, dieser Gedanke.
28:39Da sind halt auch Bilder, die ich schon vor längerem von Insta gelöscht habe.
28:41Also schon vor 2 Jahren gelöscht hatte.
28:44Und dass er die immer noch auf seinem Handy hatte.
28:46Das ist auch so krank.
28:48Ja, das ist krass.
28:49Ich konnte die Frauen durch die veröffentlichten Infos auf ImageFab einfach finden.
28:53Viele von uns hatten ja einen privaten Account.
28:55Und da fühlt man sich ja irgendwie auch sicher.
28:57Weil man ja denkt, jo, ich nehme nur die Leute an, die ich auch kenne,
29:01denen ich auch wirklich vertraue.
29:02Aber meistens passiert sowas ja immer mit Leuten, die man kennt.
29:06Ja, vor allem, es hätte ja so viel schlimmer kommen können,
29:09als es jetzt gekommen ist.
29:10Darunter stehen unsere Instagram-Name.
29:13Also ja, viel schlimmer wäre es dann natürlich, wenn die mich irgendwie finden würden.
29:17Und das wäre halt so das schlimmste Szenario meiner Meinung nach.
29:21Ich möchte, dass er weiß, dass er sowas nicht machen kann und dass es Konsequenzen hat.
29:25Und ich möchte auch, dass jeder Mensch, egal ob Mann, Frau, die wäre es mir egal,
29:29der sowas macht, merkt, jo, dafür muss ich dann ins Feuer gehen, wenn ich sowas mache.
29:34Da habe ich dann die Arschkarte.
29:36Wir möchten den Verdächtigen konfrontieren.
29:39Doch nur wenige Stunden nach meinem Gespräch löschte er sein Profil.
29:49Auch wenn die Technologie hinter Deepfakes innovativ sein mag, sind Deepfakes gefährlich.
29:55Denn sie können als Waffe eingesetzt werden.
29:57Für politische Desinformation, aber auch vor allem gegen Frauen.
30:00In nur wenigen Minuten kann man anhand ein paar Klicks mit dieser Technologie Frauen bedrohen, bloßstellen und degradieren.
30:07Ob bekannte Persönlichkeiten oder ganz normale Mädchen, jede kann davon betroffen sein.
30:12Die Behörden erfassen Deepfakes nicht einmal systematisch.
30:15Und die Politik verspricht zwar bessere Möglichkeiten, gegen Deepfakes vorzugehen,
30:19setzt aber vor allem auf die Verantwortung der Plattform.
30:22Unsere Recherchen haben gezeigt, das reicht bei weitem nicht aus.
30:26Immer noch können sich Opfer kaum gegen digitale Gewalt wehren.
30:30Bis zum nächsten Mal.
30:38Bis zum nächsten Mal.
Comments