Mensen kunnen fakeporno van je maken zonder dat je het weet

Een DeepFake video maken is zo simpel als gewoon je facebook profielfoto nemen en dit via een applicatie omzetten in een video. Maar de realistische clips hebben grote gevolgen, zo kunnen er pornovideo’s worden gemaakt van je zonder je medeweten. Of kunnen ze valse politieke speeches maken die zelfs de democratie kunnen ondermijnen. Een specifieke wetgeving tegen de video’s bestaat nog niet.

Wat als mensen zomaar een foto van je zouden nemen en er een pornovideo van maken? Of als ze van Trump een valse video verspreiden die dingen vertelt die helemaal niet waar zijn? Via artificiële Intelligentie is dit mogelijk.

Een realistische clip

Zo kunnen ze bijvoorbeeld presidenten of andere belangrijke figuren dingen laten zeggen die ze helemaal niet hebben gezegd. Vroeger vereiste het grote databases van afbeeldingen om een realistische clip te creëren maar tegenwoordig is een simpele foto genoeg. Zoals bijvoorbeeld je profielfoto op Facebook. Zo kunnen mensen je alles laten zeggen en doen wat hun fantasieën maar willen. Dit kan gaan van een grappig filmpje dat je maakt van je lief die zweert dat hij altijd het appartement zal kuisen, tot een video van een politicus die een neptoespraak geeft en plots andere ideologieën aanhaalt. Maar het duurde niet lang voor er ook pornovideo’s mee worden gemaakt.

Kijk hier maar naar een video van ‘Obama’:

Artificiële Intelligentie

Om DeepFake video’s te maken gebruiken ze Artificiële Intelligentie. Samsung heeft bijvoorbeeld onlangs een clipje gemaakt van de Mona Lisa en de Girl With A Pearl Earring. Je kon de iconische schilderijen zien glimlachen en praten, precies alsof ze volledig levend zijn. In de afgelopen weken is er veel te doen geweest rond face-swapping. Bijvoorbeeld Snapchat’s realistische filter waarbij je van geslacht kan veranderen. Evenals eerdere verouderingsfilters die opnieuw rondgingen op sociale media.

Hier zie je de Mona Lisa:

https://twitter.com/Iohlita/status/1133101668944502785

Wraakporno

Wraakporno kennen we al, dit is wanneer iemand, meestal je ex-partner, naaktfoto’s of seksuele video’s op het internet verspreid. DeepFake gaat nog een stapje verder, omdat het compleet verzonnen beelden zijn en lijkt alsof het echt is. Een aantal celebrities werden hier het slachtoffer van. Selena Gomez, Emma Watson, Scarlett Johanson en Jennie van de K-Pop groep Blackpink maakten dit al mee. Hun gezichten werden op pornografische video’s geplakt, waardoor het lijkt alsof ze echt porno hebben gemaakt.

Maar niet enkel celebrities maakten deze gruwel mee, ook de Indiase journaliste Rana Ayyub moest eraan geloven en deed haar verhaal in de Huffpost. De controversiële journaliste verschoot zich in november vorig jaar een bult, toen een vriend van haar plots een pornovideo doorstuurde met duidelijk haar gezicht. Het begon allemaal toen een 8-jarig meisje werd verkracht en er verontwaardiging over heel India was. De nationalistische Bharantiya Janata Party (BJP) marcheerde mee op straat om de beschuldigde te steunen. Rana Ayyub werd uitgenodigd door de BBC en Al Jazeera om hierover te praten en na haar sterke kritiek op India barste de bom.

In deze video legt de journaliste het uit:

Valse berichten

Ze stond op en vond allemaal valse Twitter-berichten op haar account. Met “Ik haat India”, “Ik haat Indiërs”, “Ik hou van Pakistan” en “Ik ben dol op kinderverkrachters en als ze het doen in naam van de Islam dan steun ik hen.” De journaliste was totaal vernederd en plaatste op haar Twitterfeed ook een bericht met te getuigen dat de Tweets vals waren. Maar dit was nog maar het tipje van de ijsberg. Een vriend stuurde haar plots een pornovideo door met haar in de hoofdrol. Ze werd er helemaal ziek van en de video verscheen over heel India. Ze kreeg verschillende berichten van mannen over haar lichaam en of ze iets met hen zou willen doen.

Wetgeving

Dit lijkt allemaal ontzettend illegaal, toch is er geen specifieke wetgeving tegen DeepFake video’s. Maar degenen die video’s verspreiden, kunnen worden aangeklaagd voor intimidatie. Toch werken ze er hard aan. DARPA in de VS, heeft al miljoenen uitgegeven aan mediaspecialisten om deze video’s te dwarsbomen, door samen te werken met professoren over de hele wereld om te ontdekken wat echt is en wat niet.

Meer
Lees meer...