Maandag 19/08/2019

FakeApp

Zin in een pornofilm met een celebrity? Dan maak je die gewoon zelf

Zin in een pornofilm met Hollywood-ster Taylor Swift? Het kan vanaf nu, met de slimme app FakeApp. Beelden manipuleren was nooit zo gemakkelijk, maar dat houdt ook risico's in. Beeld BELGAIMAGE

Mag het allemaal wat naakter in Hollywood? Dan is er het internetfenomeen deepfakes: pornofilms waarbij de pornoactrices een beroemd gezicht krijgen. Vooral het gemak waarmee dat via artificiële intelligentie (AI) kan, roept bredere vragen op.

De nieuwe leading lady in Star Wars Daisy Ridley of Wonder Woman Gal Gadot, in de donkerste krochten van het internet duiken verschillende celebrity's de laatste maanden op in pornobeelden. Of toch hun gezicht, want het lichaam in kwestie is niet van hen. Wel van de actrice die zichzelf helemaal blootgeeft in het originele filmbestand.

In december bracht Motherboard, het technologieplatform van Vice, de nieuwe 'hobby' aan het licht van Reddit-gebruiker deepfakes. In een gelijknamige community op de sociale nieuwssite uploadde deepfakes video's waarin het gezicht van pornoactrices een faceswap te verduren kregen met pakweg Scarlett Johansson. Beangstigend realistisch, slechts sporadisch valt de manipulatie door de mand.

12 uur en voldoende beelden

Celebrity porn is niets nieuws – gefotoshopte naaktbeelden of gehackte privévideo's circuleren al langer op sites als Reddit – maar de 'deepfakes' trekken het genre wel naar een ander niveau. Allemaal dankzij deep learning, een vorm van AI.

Een voorbeeld van hoe dat ongeveer werkt: het neurale netwerk krijgt eerst honderden originele beelden van Gal Gadot gevoederd, tot het gezicht van Wonder Woman geen geheimen meer heeft. Daarna krijgt het beelden met kleine aanpassingen te zien en leert die te corrigeren. Wanneer het systeem dan een nieuw gezicht als input krijgt, dat van een pornoactrice dus, zal het systeem opnieuw proberen 'corrigeren', zodat het gelaat van Gal Gadot te zien is.

Sinds Motherboard het stuk publiceerde, is de community op Reddit gegroeid naar 30.000 gebruikers. En dankzij de FakeApp, ontwikkeld door een andere gebruiker, kan in feite iedereen die beschikt over voldoende kwaliteitsvolle beelden van een persoon zo'n eigen deepfake maken. In 12 uurtjes is het geklaard en ook bij die voorbeelden is het goed opletten om niet bedrogen uit te komen.

De toegankelijkheid van de toepassing is misschien beangstigender dan de resultaten. Gezien de berg aan beelden die we van onszelf achterlaten op Facebook of Instagram, hoeft de nepporno niet beperkt te blijven tot Hollywood-actrices.

Ook bij docente recht & technologie Eva Lievens (UGent) gaat het belletje 'wraakporno' dan rinkelen. "In de discussies die daarover gevoerd worden, gaan we er altijd van uit dat het om beelden gaat van die persoon zelf." De Britse wet rond wraakporno is bijvoorbeeld niet van toepassing als het om gemanipuleerde beelden gaat. "Strafrechtelijk gezien wil je die invulling niet te ruim, maar met dergelijke scenario's hadden ze wellicht geen rekening gehouden."

Er zijn natuurlijk andere pleidooien te houden in zo'n geval. Het recht op afbeelding bijvoorbeeld, zonder toestemming, betekent dat je niet zomaar iemand herkenbaar in beeld kan brengen. "En voor celebrity's geldt dat recht in dit geval evengoed", zegt Lievens over het misverstand dat wie beroemd is zulke taferelen maar moet tolereren.

Echt vs Fake

Naar de rechtbank stappen is vaak een hoge drempel, het kwaad al lang geschied. Voorkomen is dus de boodschap, maar dat is een complex vraagstuk. "Als je de technologie gaat kortwieken, komen de positieve en nuttige doeleinden ook niet tot hun recht", zegt Lievens.

De deepfakes roepen volgens Lievens op tot "meer mediawijsheid", een kritische houding. En ze brengen de noodzaak aan het licht van technologieën die het onderscheid maken tussen wat echt is en wat fake is. Bij de huidige generatie video's herkennen we de manipulatie, in de toekomst misschien niet.

Bij een erotische context hoeft het trouwens niet te blijven, zo toont een faceswap op Reddit van de Argentijnse president en Hitler. Duiken er straks beelden op van Wouter Van Besien die 't Fornuis binnenwandelt? Of Bart De Wever die al fietsend de verkeersregels aan zijn laars lapt?

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
© 2019 MEDIALAAN nv - alle rechten voorbehouden