Vrijdag 20/09/2019

Deepfake

‘Straks dreigt niemand nog iets te geloven’: Tom Van de Weghe verdiepte zich in deepfake video’s

Tom Van de Weghe: ‘Ik ben geschrokken hoe de grootste experts in artificiële intelligentie, en in het bijzonder deepfake video’s, het gevaar van dit soort media niet inzien.’ Beeld Thomas Nolf

Hij wist al wat een deepfake video was voor Scarlett Johansson plots in een vervalste pornofilm opdook. VRT NWS-journalist Tom Van de Weghe deed als fellow aan de universiteit van Stanford een jaar lang onderzoek naar misleidende video’s in het internettijdperk. Wat kunnen we nog geloven?

“Slecht gemaakt.” Dat zegt Tom Van de Weghe over het seksfilmpje met de Nederlandse omroepster Dionne Stax dat eerder deze week circuleerde. Voor alle duidelijkheid: Stax heeft helemaal niet de ambitie om naast bekende omroepster in Nederland ook internationaal hoge toppen te scheren op pornowebsites zoals Pornhub. Het gaat om een zogenaamde deepfake video, waarin het gezicht van Stax op het lichaam van een pornoactrice geplakt werd. Het filmpje is ondertussen verwijderd van het Canadese pornoplatform. “Al was dat niet gemakkelijk”, vertelde Frank Barendse, manager van de nieuwslezeres, in de Nederlandse kranten. Hij vermoedt dat het filmpje is gemaakt door een 15- of 16-jarige op een zolderkamertje.

Het fenomeen deepfake video is op die manier officieel geland in de Lage Landen. Het toeval wil dat VRT NWS-journalist Tom Van de Weghe net terug is uit de Verenigde Staten, waar hij een jaar lang de techniek, het probleem, de oplossing en de maatschappelijke impact van deepfake video’s aan de gerenommeerde universiteit van Stanford in Silicon Valley onderzocht. Een kleine greep uit de alumni: Sergey Brin en Larry Page (oprichters van Google), Reed Hastings (CEO van Netflix), Peter Thiel (oprichter van Paypal en Palantir) en Elon Musk (oprichter van Tesla).

“Na de verkiezing van Donald Trump raakte iedereen in de ban van fake news en hoe valse berichten in combinatie met algoritmes de verkiezingen hadden beïnvloed. Hier en daar verschenen onderzoeken en berichten dat foto en tekst nog maar het begin waren van alle misleiding die ons te wachten stond. Als tv-journalist raakte ik gefascineerd.”

Wanneer spreken we van een deepfake video?

“Het is in de eerste plaats een video die niet echt is, vandaar het woord ‘fake’. Dat wil niet zeggen dat de maker de kijker per se wil misleiden met de video. Daar komen we nog op terug. Daarnaast is er het woord ‘deep’. Dat gaat over de artificiële intelligentie die gebruikt wordt om zo’n video te maken. Het gaat om zogenaamde deep learning algoritmes (een techniek waarmee computers het leerproces van onze hersenen leren imiteren, FE). Die systemen leren zichzelf om valse video’s steeds realistischer te laten lijken, en dat kan op meerdere manieren.

“Neem het voorbeeld van Scarlett Johansson van wie het gezicht eind vorig jaar opdook op het lichaam van pornosterren. Daardoor leek het, net als bij Dionne Stax, alsof Johansson meespeelde in een pornofilm. Dat gebeurt door honderden of zelfs duizenden beelden van haar te verzamelen, die de zelflerende computers voeden. Hoe meer beelden er beschikbaar zijn, hoe beter de computer het gezicht van Johansson over een ander gezicht kan leggen en gelaatsuitdrukkingen kan imiteren. Denk ook aan het filmpje waarin het lijkt alsof Barack Obama president Donald Trump “a total and complete dipshit” noemt. Dat is een productie van de Amerikaanse komiek Jordan Peele, die de hele video insprak.

“Vandaag worden er ook programma’s ontwikkeld waarbij je door de scripttekst te veranderen een persoon in een video iets anders kan laten zeggen. Neem een relatief onschuldig voorbeeld. Er bestaat software waarmee je Frank Deboosere kan laten zeggen dat het 28 graden wordt in plaats van 13, gewoon door die cijfers in een script aan te passen.”

Waarvoor wordt die techniek eigenlijk ontwikkeld?

“Omdat er geld mee te verdienen valt. Ik ben geschrokken hoe de grootste experts in artificiële intelligentie, en in het bijzonder deepfake video’s, het gevaar van dit soort media niet inzien. Ik moest daar even van bekomen. Zij zien in de eerste plaats opportuniteiten. Het kan bijvoorbeeld een fantastisch hulpmiddel zijn voor een bedrijf als Netflix. Stel je voor dat het één productie meteen in dertien talen kan uitbrengen en dat Tokio in Casa de Papel vlot Engels, Frans, Nederlands en Hindi spreekt.

“Maar toen ik zei dat er ook wel risico’s aan zulke technologie zaten, werd ik eerst wat weggelachen. Ik zocht enkele experts die wilden helpen om een tool te ontwikkelen die deepfake video’s makkelijk kan detecteren. Zij vonden dat ik een typische journalist was die deed aan fearmongering (publieke angst zaaien, FE). Heel wat van die professoren vinden deepfake video’s helemaal geen issue.”

De schade die deepfake video’s tot nu hebben aangericht, is dan ook beperkt.

“Dat klopt. De techniek is vooral gebruikt voor grappige video’s, zoals de meme om het gezicht van de Amerikaanse acteur Nicolas Cage in bekende Hollywood-scenes te plakken. Het voorbeeld van Dionne Stax toont dan weer hoe met deze technologie bepaalde mensen of groepen in diskrediet kunnen worden gebracht. Vrouwen zijn in deze een gemakkelijk doelwit. Ook kan de techniek gebruikt worden om bekende mensen een bepaalde dienst of product te laten verkopen. Denk aan de valse berichten op sociale media waarbij figuren als Philippe Geubels en Bart De Wever gebruikt worden in een advertentie. Hier werd alles begeleid met foto en tekst, maar wat als je Geubels of De Wever kan laten zeggen wat je wilt?

“In Gabon hebben we gezien waar de technologie toe kan leiden. President Ali Bongo kreeg in de herfst van vorig jaar een beroerte en liet zich verzorgen in Saudi-Arabië en in het Verenigd Koninkrijk. Maar in Gabon maakten mensen zich steeds meer zorgen over het feit dat Bongo geen publieke optredens meer maakte. Er deden geruchten de ronde dat de president ongeneeslijk ziek of zelfs dood zou zijn. Toen de Gabonese overheid de nieuwjaarstoespraak van Bongo de wereld instuurde, gingen de poppen aan het dansen. Verschillende burgers vertrouwden de video niet. Hij leek volgens hen gemanipuleerd. Een week later heeft het leger geprobeerd om een coup te plegen, zonder succes. (Specialisten zijn er nog niet uit of het om een echte dan wel deepfake video ging, FE)

Bij de politieke elite in de Verenigde Staten is de angst voor deepfake video’s heel groot in aanloop naar de verkiezingen in 2020. De Democraten maakten tijdens een vergadering zelf een deepfake video van Tom Perez, voorzitter van het Democratic National Committee, om de gevaren aan te tonen. Een goed idee?

“In de VS beseffen ze dat je niet eens deepfake video’s nodig hebt om de publieke opinie te bespelen. Shallowfakes zijn voldoende. Zulke video’s hebben niets met artificiële intelligentie te maken. Het gaat om slim gemonteerde video’s die mensen moeten misleiden. Een goed voorbeeld is een video van Nancy Pelosi, de Democratische voorzitter van het Huis van Afgevaardigden, die door alt-right bewerkt werd. Beelden van haar optreden op een congres werden zodanig vertraagd dat het leek alsof Pelosi uitgeput, traag en mogelijk zelfs dronken was. Denk ook aan de video met CNN-journalist Jim Acosta die zijn micro wil blijven vasthouden omdat hij president Trump een extra vraag wil stellen. Die beelden werden versneld waardoor het lijkt dat hij de micro niet wil afgeven.”

Wat is volgens u het grootste risico met deepfake video’s?

“Niet dat er binnenkort een video verschijnt van Trump die de oorlog aan China verklaart – ook al wordt de technologie steeds beter. Je kunt er zeker van zijn dat er momenteel mensen bezig zijn in zolderkamertjes om de volgende generatie deepfake video’s de wereld in te sturen. Je hebt steeds minder foto’s en data nodig om een kwaliteitsvolle video te maken. Collega’s aan Stanford vertelden me dat politieke bewegingen experts in deepfake om hulp vragen. Voor 20 à 30 dollar kun je op het internet een deepfake video bestellen. Al zal die niet van topkwaliteit zijn.

“Het grootste gevaar is echter dat het vertrouwen verdampt: mensen zullen niets meer geloven van wat ze zien. Dat is nefast. Op den duur wordt het een spelletje om uit te zoeken welke video al dan niet waar is, terwijl we tijd verliezen om ons op de kern van de zaak te concentreren. Bovendien spelen steeds meer politici in op die onzekerheid. Neem de verklaringen van Trump toen hij geconfronteerd werd met zijn “Grab them by the pussy”-uitspraak. Hij noemde dat locker-room talk. Maar onlangs kwam hij daarop terug door te insinueren dat het om een deepfake video zou gaan. Plots speelt hier plausible deniability (mogelijke ontkenning, FE), waardoor hij dat feit opnieuw in twijfel trekt.”

Hoe moeten/kunnen we ons beschermen tegen deepfakes?

“Wij hebben het fenomeen met onze researchgroep vanuit verschillende hoeken benaderd. Er hebben mensen uitgezocht of we deepfake video’s kunnen ontmaskeren met algoritmes, maar dat blijkt niet vanzelfsprekend. Ook een watermerk toevoegen aan video’s is niet ideaal. Ik heb met een aantal collega’s onderzocht of we de authenticiteit van video’s niet kunnen verifiëren met behulp van blockchaintechnologie. Dat moet het mogelijk maken om van verschillende sequenties in een video te achterhalen hoe en waar die gemaakt zijn. Zo zou je het vertrouwen in video kunnen verhogen. Maar wij zijn natuurlijk niet de enigen die aan zo’n oplossing denken.”

Tom Vandeweghe deepfakes Beeld Thomas Nolf

Maar wat is dan de conclusie van dat onderzoek? Hoe moeten we ons nu beschermen?

“De conclusie is: er is geen silver bullet. In China heeft men beslist om deepfake video’s te verbieden, maar dat lijkt me een heel slecht idee. Niemand wil aan de overheid het monopolie geven om te beslissen wat waar of vals is. Op die manier zou China journalistiek werk kunnen wegzetten als vals om het te censureren. Het zal volgens mij vooral op mediawijsheid aankomen, waardoor we heel kritisch kijken naar alles wat op ons afkomt, zonder dat we onverschillig worden.”

Van de Weghe weet als geen ander hoe het is om zelf onderwerp te zijn van fake news. Toen hij in 2008 als toenmalig VRT-correspondent in China een reportage maakte naar aanleiding van Wereldaidsdag in de Centraal-Chinese provincie Henan, werden hij en zijn crew geslagen en bestolen. De Chinese overheid deed het hele voorval af als verzinsels.

“We hebben die reportage toen nog kunnen draaien, dat zou vandaag niet meer lukken. In die tijd hing het land ook al vol met camera’s en werd je achtervolgd door agenten. Maar intussen wordt het hele surveillancesysteem ondersteund door artificiële intelligentie. Als dat toen al het geval was geweest, hadden we wellicht geen treinticket naar Henan kunnen kopen. Software en slimme camera’s zorgen ervoor dat je in China als burger of journalist constant gevolgd kan worden. Het systeem staat nog niet helemaal op punt, maar president Xi Jinping heeft zichzelf 2020 als deadline opgelegd. En ze zijn er niet geneigd deadlines te missen.” Als ex-China-correspondent met een interesse voor technologie, waren zijn Amerikaanse collega’s aan Stanford enorm geïnteresseerd in zijn visie op de huidige handelsoorlog tussen China en de VS.

Hebt u een Huawei-telefoon?

“Oei oei, neen. Het is in Europa bon ton om te zeggen dat er nog geen veiligheidsproblemen zijn geweest met Chinese consumentenproducten of infrastructuur. Er is een groep pandaknuffelaars die roept: “Laat China maar komen, ander hebben we niks in Europa.” Maar ik zou daar toch voorzichtig mee zijn. Op dat vlak kan ik Donald Trump volgen.

“Bij elke samenwerking met China moet je je bewust zijn dat de overheid eigenlijk aan de touwtjes trekt. We berichten in Europa nog veel te weinig over de zogenaamde Digital Silk Road, de nieuwe zijderoute die China aan het uitbouwen is. Door landen te voorzien van Chinese, digitale infrastructuur bouwt president Xi Jinping aan een enorm netwerk. De vrees is niet alleen dat autoritaire regimes in bijvoorbeeld Afrika zulke toepassingen wel zien zitten. Het is maar de vraag hoeveel data China zelf op die manier verzamelt en hoe het die precies wil gebruiken.”

We moeten de handelsoorlog tussen de VS en China dus echt lezen als een nieuwe koude oorlog, maar dan op technologisch vlak?

“Klopt. Er wordt vandaag enorm gefocust op de rol van Donald Trump in dit conflict. Maar neem Trump weg en je hebt nog steeds die verharde toon ten aanzien van China. Ik denk wel dat we in een gevaarlijke situatie beland zijn. De discussie is te verhit om een volwassen debat te kunnen voeren. Gelukkig is China op vlak van internationale relaties een voorzichtig land. ‘Winnen zonder te vechten’ is een bekende Chinese uitdrukking waar ze zich graag aan houden.

“Het laatste wat we moeten doen, is het land onderschatten. China bouwt via technologie een enorme internationale coalitie op. We hebben gezien wat Rusland met beperkte middelen maar goed gerichte cyberaanvallen heeft kunnen verwezenlijken tijdens de verkiezingen in 2016. Dat is peanuts vergeleken met waar China toe in staat is. Als ik een ding geleerd heb na vijf jaar China, is dat je de tijger best niet kwaad maakt.”

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234