Negev
Diskussionsleiter
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

anwesend
dabei seit 2005
dabei seit 2005
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
DeepFakes und ihre Folgen im privaten und öffentlichen Raum
21.08.2025 um 17:13Servus,
ich habe mich in den letzten Wochen sehr intensiv mit Videogenerierung auseinandergesetzt.
Seit ein paar Tagen ist „Grok Imagine“ verfügbar, und offenbar ist es möglich, Nacktbilder von Prominenten zu erstellen:
Ähnliches macht Wan 2.2. Das ist seit mehreren Wochen verfügbar, wird aber offenbar öffentlich kaum wahrgenommen. Dort genügt ein Foto – real oder gefälscht – und man kann sehr viel damit anstellen. Eine Altersgrenze scheint es dabei nicht zu geben. Die Resultate haben mich selbst erschreckt.
Wan 2.2 lässt sich auf einem, im Vergleich zu Rechenzentren, relativ einfachen „Kartoffelrechner“ ausführen. Im Klartext: Jeder mit einer halbwegs neuen NVIDIA-Grafikkarte kann Deepfakes im Videoformat erstellen.
Ich will noch einmal betonen: JEDES Bild, das von euch in irgendeiner Weise existiert, kann als Grundlage für ein Deepfake verwendet werden — und es ist egal, ob ihr die Bilder selbst hochladet oder andere Personen sie veröffentlichen.
Ein kleines Beispiel:

Den Charakter habe ich mit Qwen Image erstellt und das Video (in diesem Fall ein GIF) mit Wan 2.2. Unnötig zu erwähnen, dass die Banane nur als Chiffre dient. Das alles habe ich in zehn Minuten erstellt. Und obwohl ich mich schon seit Wochen mit dem Thema beschäftige, sind meine Prompts nicht von allerhöchster Eleganz. Das soll zeigen, dass das wirklich jeder machen kann!
Was also tun?
Eigentlich kann man sich dagegen kaum wehren.
Wenn es um Fakes geht, bei denen die Stimme eine tragende Rolle spielt, sollte man Codewörter vereinbaren. Ein Sprachsample dürfte für einen Fake genügen. Hier stelle ich mir etwa einen Anruf vor, bei dem man sich mit dem Namen meldet — das ist eine mögliche Angriffsfläche.
Bei Bildern: Wenn von euch im Internet nicht ohnehin schon Bilder existieren, kann man sich dieses Material natürlich anderweitig beschaffen. Da müsst ihr selbst beurteilen, wie interessant ihr seid und ob sich der Aufwand lohnt. ABER: Man sollte bereits nervös werden, wenn es um Smart Glasses geht. Dann stehen ganz andere Probleme bevor.
Eigentlich kann man nur noch im Nachhinein irgendwie beweisen können, dass Video XY ein Fake ist. Mein erster Gedanke wäre eine Tätowierung oder ein anderes schwer fälschbares Merkmal — falls man nicht ohnehin bereits solche Merkmale trägt.
Natürlich hat das drastische Folgen für die Gesellschaft, wenn man nichts mehr glauben kann. Meiner Meinung nach könnte hier nur ein guter öffentlich-rechtlicher Rundfunk an diese Stelle treten. Das Problem ist: Der ÖRR ist inzwischen in Teilen wirklich mies geworden.
ich habe mich in den letzten Wochen sehr intensiv mit Videogenerierung auseinandergesetzt.
Seit ein paar Tagen ist „Grok Imagine“ verfügbar, und offenbar ist es möglich, Nacktbilder von Prominenten zu erstellen:
Vom Coachella-Festival-Foto zum NacktvideoQuelle: https://t3n.de/news/grok-taylor-swift-spicy-1700948/
Im Test forderte The Verge die KI auf, ein Bild von „Taylor Swift feiert in Coachella mit den Jungs“ zu erstellen. Aus den generierten Bildern wählte sie eines aus, das die Sängerin in normaler Kleidung zeigte.
Anschließend aktivierte sie die Videooption mit der Voreinstellung „spicy“. Das Ergebnis sei ein Video gewesen, in dem die KI-generierte Swift ihre Kleidung auszieht und tanzt – ohne dass eine explizite Aufforderung für Nacktheit eingegeben wurde. Der einmalig erscheinende Altersnachweis habe sich dabei ohne echte Verifizierung umgehen lassen. Das zensierte Video ist im Beitrag von The Verge zu sehen.
Ähnliches macht Wan 2.2. Das ist seit mehreren Wochen verfügbar, wird aber offenbar öffentlich kaum wahrgenommen. Dort genügt ein Foto – real oder gefälscht – und man kann sehr viel damit anstellen. Eine Altersgrenze scheint es dabei nicht zu geben. Die Resultate haben mich selbst erschreckt.
Wan 2.2 lässt sich auf einem, im Vergleich zu Rechenzentren, relativ einfachen „Kartoffelrechner“ ausführen. Im Klartext: Jeder mit einer halbwegs neuen NVIDIA-Grafikkarte kann Deepfakes im Videoformat erstellen.
Ich will noch einmal betonen: JEDES Bild, das von euch in irgendeiner Weise existiert, kann als Grundlage für ein Deepfake verwendet werden — und es ist egal, ob ihr die Bilder selbst hochladet oder andere Personen sie veröffentlichen.
Ein kleines Beispiel:

Den Charakter habe ich mit Qwen Image erstellt und das Video (in diesem Fall ein GIF) mit Wan 2.2. Unnötig zu erwähnen, dass die Banane nur als Chiffre dient. Das alles habe ich in zehn Minuten erstellt. Und obwohl ich mich schon seit Wochen mit dem Thema beschäftige, sind meine Prompts nicht von allerhöchster Eleganz. Das soll zeigen, dass das wirklich jeder machen kann!
Was also tun?
Eigentlich kann man sich dagegen kaum wehren.
Wenn es um Fakes geht, bei denen die Stimme eine tragende Rolle spielt, sollte man Codewörter vereinbaren. Ein Sprachsample dürfte für einen Fake genügen. Hier stelle ich mir etwa einen Anruf vor, bei dem man sich mit dem Namen meldet — das ist eine mögliche Angriffsfläche.
Bei Bildern: Wenn von euch im Internet nicht ohnehin schon Bilder existieren, kann man sich dieses Material natürlich anderweitig beschaffen. Da müsst ihr selbst beurteilen, wie interessant ihr seid und ob sich der Aufwand lohnt. ABER: Man sollte bereits nervös werden, wenn es um Smart Glasses geht. Dann stehen ganz andere Probleme bevor.
Eigentlich kann man nur noch im Nachhinein irgendwie beweisen können, dass Video XY ein Fake ist. Mein erster Gedanke wäre eine Tätowierung oder ein anderes schwer fälschbares Merkmal — falls man nicht ohnehin bereits solche Merkmale trägt.
Natürlich hat das drastische Folgen für die Gesellschaft, wenn man nichts mehr glauben kann. Meiner Meinung nach könnte hier nur ein guter öffentlich-rechtlicher Rundfunk an diese Stelle treten. Das Problem ist: Der ÖRR ist inzwischen in Teilen wirklich mies geworden.