Deepfakes (Foto: DASDING)

Lifestyle Netztrends Deepfakes – warum YouTuber LeFloid gerade von einem „Avatar-Skandal“ spricht

Die Technik in Filmen wird immer besser. Animierte Tiere, die echt aussehen und Schauspieler, die plötzlich riesengroß sind - nichts ist mehr unmöglich. Dass dieser Spaß aber auch ganz schnell in die falsche Richtung gehen kann, zeigt gerade unter anderem ein Beitrag von YouTuber LeFloid.

Aktuell findet man im Netz ziemlich viele Deepfakes. Das ist eine Technik, die mit Hilfe von künstlicher Intelligenz, real wirkende Videos oder Bilder erstellt. Häufig wird dabei das Gesicht einer Person auf das Gesicht einer anderen gelegt. Relativ harmlos wirkt das zum Beispiel hier bei Ariana Grande und ihrem Ex-Verlobten Pete Davidson:

Ariana Grande Pete Davidson Deepfake Side by Side.  You can check out the entire clip here https://www.youtube.com/watch?v=fXhPjO8M6oE  #Deepfakes #Deepfake #ArianaGrande #PeteDavidson #Funny #Video #YouTube

Fans nutzen die Technik auch häufig, um Filmsequenzen nach ihrem Geschmack zu verändern. Beispiel: König der Löwen.

...And somewhere in the Multiverse Fans are watching this version of the film🦁 This's all that I tried to show you on a life-action with a classic character design. I hope that @disney will make the Lion King reboot soon🙏 . After the release on digital, I'll do more Fan-Made🙌😊 . . . . #thelionking #fanmade #ellejart #disneystudios #simba #nala #pumbaa #timon #scar #rafiki #characterdesign

Vor allem auf YouTube findest du verschiedenste Clips - von Anleitungen zum Selbermachen bis hin zu professionellen Deepfakes.

Porno-Deepfakes ohne Einverständnis: YouTuber LeFloid spricht von „VR-Avatar-Skandal“

Wie weit die Technik aber gehen kann, zeigen auch aktuelle Recherchen wie die von Vice oder auch LeFloid.

In einem Video erzählt der YouTuber, dass die Animationstechnologie in der Pornoindustrie schon länger zum Einsatz kommt: Die Darsteller lassen ihren ganzen Körper mit verschiedenen Kameras scannen und werden dann am Computer zu 3D-Avataren. Dafür bekommen sie Geld und das Recht am Avatar.

Inzwischen sollen die Programme und die Möglichkeiten online aber so fortgeschritten sein, dass theoretisch jeder einen solchen Avatar erstellen und in verschiedene Projekte hinein animieren kann. Man bräuchte dafür nur ein Foto einer Person und könne sich dann einen Avatar zusammenbasteln, der aussieht und sich bewegt, wie man möchte.

In verschiedenen Online-Foren sollen User angeblich total stolz erzählt haben, dass sie ihre Exfreundinnen anhand von einem Foto animiert haben und dann quasi Rachepornos mit ihnen erstellt haben. Das Ganze geht aber sogar noch weiter: Auch Folter- und Horrorszenarien soll es inzwischen geben. Riesen Problem dabei: Man kann sich dagegen quasi gar nicht wehren.

Aktuell ist die Sach- und Gesetzeslage noch dermaßen im Grauzonenbereich, dass du das Einverständnis der Person, die du da einscannst, nicht brauchst.

YouTuber LeFloid

Nacktscanncer-App "Deepnude" macht aus Fotos Nacktbilder

Die Deepfake-Technologien haben schon im Sommer für Bedenken gesorgt. Im Juni war nämlich die App „DeepNude“ an den Start gegangen. Hier konnten Nutzer Frauenfotos hochladen - und erhielten innerhalb weniger Sekunden ein realistisch aussehendes Nacktbild der Person. Zwar waren die Bilder mit einem Wasserzeichen versehen und konnten bei genauerem Hinsehen als Fakes enttarnt werden - allerdings eben erst auf den zweiten Blick. Die App ging schon kurze Zeit später wieder offline - durch Deepfake-Technologien lassen sich allerdings ähnliche Ergebnisse erzielen.

Welches Recht man am eigenen virtuellen Ich hat, ist etwas, das in Zukunft besprochen werden muss. Und zwar lieber früher als später.

YouTuber LeFloid

Deepfake-Manipulation in der Politik?

Auch in Bezug auf Fake News in der Politik spielt die Technologie eine Rolle: Durch Deepfakes ließe sich nämlich beispielsweise auch die mediale Berichterstattung manipulieren. So wäre es unter anderem möglich, ganze Reden von Politikern zu fälschen.

BuzzFeed veröffentlichte dazu bereits im letzten Jahr ein Video, in dem sie eine Rede von Obama fälschten, die es so nie gegeben hatte. Das Video wirkt dabei täuschend echt und veranschaulicht, dass die Technik auch in politischer Hinsicht großen Schaden anrichten könnte.

Software kann Deepfake-Videos erkennen

Immerhin kann der Gefahr der Manipulation ein bisschen entgegengewirkt werden: Eine Software von Forschern der University of Albany soll anhand kleinster Details erkennen können, ob es sich bei einem Video um Deepfake handelt oder nicht.

Und auch sonst wird die Technologie ja nicht nur für böse Zwecke verwendet: Zwischen einem Faceswap bei Snapchat und einem professionell erstellten Deepfake-Video liegen ja auch schließlich immer noch riesige Unterschiede. Eine Lösung für den missbräuchlichen Einsatz der Technologie, den LeFloid als "VR-Avatar-Skandal" bezeichnet hat, gibt es im Moment aber noch nicht - und zumindest das wirkt natürlich etwas beängstigend.