Zondag 17/01/2021

InterviewNina Schick

Desinformatie-expert Nina Schick: ‘We stevenen af op een infocalyps’

Nina Schick: ‘Mogelijk zijn we van Trump af, maar het zaadje is geplant. En het zal blijven groeien, daar ben ik zeker van.’Beeld RV

Nu de technologie om media te vervalsen nog in de kinderschoenen staat, moeten we snel bepalen hoe die mag worden gebruikt, waarschuwt desinformatie-expert Nina Schick (33). Anders is het te laat. 

De succesvolste desinformatiecampagne van 2020 was niet afkomstig van Russische trollen, antivaxers of QAnon-aanhangers. Ze kwam uit het Witte Huis, stelde desinformatie-expert Nina Schick (33) in de loop van het jaar met groeiende ongerustheid vast.

In maart begonnen president Donald Trump en zijn aanhang met het verspreiden van het verhaal dat de verkiezingen doorgestoken kaart waren. Hoewel er tot nu toe geen bewijs voor is gevonden, wist Trump ruim 70 procent van de Republikeinen ervan te overtuigen dat er grootschalige verkiezingsfraude is gepleegd.

BIO • schrijver, politiek raadgever en com­mentator voor BBC, CNN en Al Jazeera • Nepalese moeder, Duitse vader; ge­bo­ren in Kathmandu • afgestudeerd aan Cambridge en University College London • was politiek advi­seur voor Britse regering • adviseerde Macron en Biden over deepfakes • schreef Deep­fakes and the Info­calyps. What You Urgently Need to Know  

We stevenen af op een ‘infocalyps’, zegt Schick, een samenleving waarin desinformatie en mis­informatie welig kunnen tieren en bevolkingsgroepen uit elkaar drijven.

Schick maakt onderscheid tussen desinformatie, die bewust is gemaakt om mensen te misleiden, en misinformatie, slechte informatie die met goede bedoelingen wordt verspreid. Leugens zijn zo oud als de mensheid, schrijft ze. Relatief nieuw is de technologie waarmee ze zich razendsnel verspreiden: sociale media en berichtendiensten zoals WhatsApp. Volgens haar is typisch voor de infocalyps dat het steeds moeilijker wordt om een consensus te bereiken over hoe de wereld moet worden gezien. Of het nu gaat om Black Lives Matter, abortus of corona, het voelt al snel alsof er partij moet worden gekozen.

Al nagelbijtend heeft ze vanuit Londen de Amerikaanse verkiezingen gevolgd, vertelt Schick via Skype. Wat er in de Verenigde Staten op het gebied van desinformatie gebeurt, zet de toon voor de rest van de wereld, schrijft ze in haar boek. In 2018 adviseerde ze op uitnodiging van Anders Fogh Rasmussen, de voormalige secretaris-generaal van de NAVO, een groep wereldleiders over inmenging in de verkiezingen en desinformatie. Ook Joe Biden was daarbij.

“We hadden op dat moment al veel kennis over de manier waarop met name de Russen online desinformatie verspreidden om chaos te veroorzaken”, zegt Schick. “We voorzagen niet hoe succesvol Trump verdeeldheid zou zaaien met zijn claims over verkiezingsfraude. Mogelijk zijn we van Trump af, maar dat zaadje is geplant. En het zal blijven groeien, daar ben ik zeker van.”

De term infocalyps is bedacht door de Amerikaanse technologieonderzoeker Aviv Ovadya. Een samenleving kan kapotgaan aan een vloedgolf van slechte informatie, waarschuwde hij in 2016. Naast al het nepnieuws doemt aan de horizon een nog veel groter gevaar op: synthetische media. Dat zijn afbeeldingen, stukken tekst, audio- of video­fragmenten die zijn aangepast of zelfs helemaal gegenereerd door kunstmatige intelligentie (AI). Vaak worden synthetische media ‘deepfakes’ genoemd.

Onbestaand persoon gegenereerd door 'This Person Does Not Exist'.Beeld RV

Schick bewaart die term uitsluitend voor synthetische media die bewust worden ingezet om desinformatie te verspreiden.

“Niet alle gevolgen van de komst van synthetische media zijn slecht”, zegt ze. “De filmindustrie zal ervan profiteren, net als de mode- en game-­industrie. Over tien jaar kan een tiener met een smartphone dezelfde soort visuele effecten creëren waarvoor een Hollywood-studio nu nog een miljoenenbudget en een team van specialisten nodig heeft. We zullen allemaal consumenten en producenten worden van door AI gegenereerde media. Dat betekent helaas ook dat synthetische media een grote rol gaan spelen bij de verspreiding van mis- en desinformatie.”

Wanneer realiseerde u zich het gevaar van synthetische media?

“Zodra de eerste ‘face swaps’ op internet verschenen, drie jaar geleden. Iemand had AI getraind om de gezichten van beroemde actrices op een ander lichaam te plaatsen. Tot op dat moment was het heel moeilijk om geloofwaardige nepmensen te maken.

“De eerste kwaadaardige inzet van deepfakes was gericht tegen vrouwen. Hun gezichten werden op die van pornoactrices geplaatst – zonder hun goedkeuring, uiteraard. Maar liefst 96 procent van de bestaande deepfakes is porno. Niet alleen van beroemdheden, maar ook van gewone vrouwen.

Synthetische media?

Synthetische media zijn afbeeldingen, stukken tekst, audio- of video­fragmenten die met behulp van kunstmatige intelligentie (AI) zijn gegenereerd of aangepast. Gemanipuleerd, zouden anderen zeggen. Een voorbeeld zijn ‘deep­fakes’: een foto van een gezicht dat op een ander lichaam is gezet, een filmpje van iemand die iets zegt wat hij nooit heeft gezegd. Misbruik loert om de hoek, maar de makers van South Park doen er in de webparodie Sassy Justice hun voordeel mee: interviewer Fred ‘Donald Trump’ Sassy laat Al Gore ‘vagina poop’ zeggen, en Mark Zuckerberg maakt reclame voor ­dialyse-apparatuur.  

“Met wat foto’s en video’s, een opname van je stem, kan ik AI trainen om precies zoals jij te klinken en eruit te zien. Dat was niet mogelijk met de computereffecten die we voorheen tot onze beschikking hadden. Niet alleen is de techniek nu beter, ze wordt ook gratis en breed beschikbaar. Die combinatie is gevaarlijk.”

Tegenstanders van de Indiase journalist en moslima Rana Ayyub verspreidden een deepfake-pornovideo van haar via Whats­App om haar monddood te maken. Bent u bang dat u door dit boek ook een doelwit wordt van deepfake-makers?

“Nee. Ik kan mezelf verdedigen, ik heb een platform. Maar de onbekende vrouwen die slachtoffer worden van deepfake-porno hebben geen juridisch team klaarstaan. Ironisch genoeg maak je momenteel het meeste kans om een deepfake-pornofilm te laten verwijderen door erop te wijzen dat het copyright van de filmstudio wordt geschonden.”

Zijn deepfakes vooral gevaarlijk voor vrouwen?

“Zoals zo vaak in het internettijdperk staan vrouwen in de frontlinie, maar naarmate deze technologie breder beschikbaar wordt, zal ze op veel meer manieren worden misbruikt. Er zijn al fraudegevallen met deepfake-technologie bekend. Een Brits energiebedrijf raakte 250.000 euro kwijt aan oplichters die een deepfake hadden gebruikt van de stem van de Duitse directeur.”

Scène uit 'Sassy Justice' van Trey Parker en Matt Stone: Mark Zuckerberg maakt reclame voor dialyseapparatuur.Beeld Sassy Justice

De makers van South Park lanceerden onlangs de eerste ‘deepfake comedy’, met rollen voor onder meer Mark Zuckerberg en Julie Andrews. Is dat volgens uw definitie geen deepfake?

“Het is een van de beste voorbeelden van wat je op dit moment met de technologie kunt doen. Ik zou het inderdaad strikt gezien geen deepfake noemen, omdat de technologie wordt gebruikt voor satire.

“Een ander voorbeeld van goedaardig gebruik van synthetische media komt van het Londense bedrijf Synthesia. Met een paar muisklikken regelen zij dat je jouw videoboodschap in verschillende talen uitspreekt.”

U beschrijft hoe de leider van de Indiase Bharatiya Janata-partij (BJP) soortgelijke technologie inzette voor een politieke campagne. In video’s leek hij allerlei dialecten te spreken die hij in feite niet kende. Is dat niet gewoon kiezersbedrog?

“Je kunt synthetische media best inzetten om een grotere groep kiezers te bereiken, zolang je het maar duidelijk aangeeft en mensen niet voor de gek houdt. Het is belangrijk dat we hier een gesprek over aangaan nu de technologie nog in de kinderschoenen staat. Nu kunnen we nog bepalen hoe het mag worden gebruikt. Het duurt nog een paar jaar voordat het alomtegenwoordig zal zijn, maar dát het alomtegenwoordig zal zijn, staat vast.”

Als politiek adviseur zag Schick de invloed van desinformatie en misinformatie op de wereld­politiek groeien. Haar eerste baan was bij een Britse denktank over een toen nog obscuur onderwerp: de Brits-Europese betrekkingen. Door het brexit­referendum raakte haar carrière in een stroomversnelling.

“Rond die tijd raakte ik geïnteresseerd in de infocalyps. De informatiewapenwedloop vond onder mijn neus plaats.” In haar boek beschrijft ze hoe het Kremlin in 2013 het Internet Research Agency (IRA) opzette, een onderdeel van de geheime dienst, met als missie het infiltreren van het ­publieke debat in westerse landen via sociale ­media.

Met behulp van trollen, nepnieuws en nep-­Facebook-groepen wisten de Russen verdeeldheid te zaaien over onder meer de Krimoorlog, de immigratiecrisis, het brexitreferendum en de Amerikaanse verkiezingen van 2016.

Onbestaand persoon gegenereerd door This Person Does Not Exist'.Beeld RV

Ook de presidentscampagne van Emmanuel Macron, waarvoor Schick in 2017 ging werken, kreeg te maken met een Russische hack­operatie, waarbij gestolen documenten van het campagneteam samen met nepdocumenten online werden gezet.

Haar Nepalese moeder groeide op zonder elektriciteit, sanitair of stromend water, zei Schick in de podcast Making Sense with Sam Harris. Zelf studeerde ze aan de Universiteit van Cambridge en University College London, spreekt zeven talen en adviseert wereldleiders – nogal een stap in één generatie.

“Pas nu ik wat ouder ben, realiseer ik me hoe ongewoon mijn achtergrond is.” Haar Duitse vader, een strafrechtadvocaat, reed in de jaren zeventig op goed geluk naar Nepal, dat kort daarvoor de grenzen had geopend. Hij besloot er te blijven om de Himalayaanse cultuur te documenteren. “Zo ontmoette hij mijn moeder, die nooit naar school was gegaan, omdat dat verboden was voor meisjes. Door mijn vader leerde ze het Westen kennen.”

Schick en haar broer groeiden op in de grote internationale gemeenschap in Kathmandu. Tijdens hun jeugd was de Nepalese politiek tumultueus, met opstanden, burgeroorlog en een maoïstisch bewind. “Ik werd erg aangetrokken door het westerse politiek systeem, dat daadwerkelijk leek te functioneren.”

Onder andere China en Iran kijken de kunst van het verspreiden van desinformatie inmiddels van Rusland af, met als doel het destabiliseren van andere landen. Maakt u zich zorgen over landen als Nepal?

“Zeker. We zijn de afgelopen tien jaar in het Westen echt slecht geweest in het aanpakken van de crisis van de mis- en desinformatie. Maar wij hebben institutionele waarborgen, zoals de vrije pers. In de Verenigde Staten bestonden er zorgen dat Trump zichzelf en zijn familie met zijn desinformatiecampagne voor eeuwig op de troon zou hijsen. Hij heeft een poging gedaan, maar het ­systeem werkt. Alle stemmen zijn geteld en alle ­media zeggen dat Joe Biden heeft gewonnen, ook Fox News.

“Zou dat ook gebeuren in een land waar de democratische instituties niet zo sterk zijn? In delen van de wereld, zoals Nepal, leven veel mensen grotendeels zoals driehonderd jaar geleden, maar iedereen heeft een smartphone. Ze betreden het informatie-ecosysteem zonder beschermings­middelen, met nauwelijks digitale geletterdheid. In Myanmar, waar nepnieuws op Facebook werd gebruikt om een genocide tegen de rohingya te ontketenen, zag je hoe rampzalig dat kan uit­pakken. Iets soortgelijks gebeurt in Ethiopië. ­Politiek gemotiveerde onzinberichten op Facebook leidden daar tot de moord op zanger Hachalu Hundessa, met een geweldsspiraal tot gevolg. En dan hebben we het nu nog over ‘cheapfakes’: video’s en afbeeldingen die uit hun context worden gehaald of bewerkt. Dat zijn nog geen deepfakes.”

Scène uit 'Sassy Justice' van Trey Parker en Matt Stone: Fred ‘Donald Trump’ Sassy laat Al Gore ‘vagina poop’ zeggen.Beeld Sassy Justice

Er is niet één manier om deepfakes aan te pakken, schrijft Schick. Het is belangrijk dat meer mensen begrijpen wat deepfakes zijn en hoe ze verschillen van synthetische media. Daarnaast moeten burgers zich kunnen verdedigen tegen deepfakes – met behulp van journalistiek, wetenschap en organisaties die desinformatie in kaart brengen, maar ook met detectiesoftware en technologie die laat zien waar en wanneer iets is gemaakt. Ten slotte hebben ze een ‘psychologische verdedigingsmuur’ nodig, waar desinformatie niet zomaar langskomt.

Ter voorbereiding van dit artikel sprak ik met Max Welling, hoogleraar Machine Learning aan de Universiteit van Amsterdam. Hij verwacht dat deepfakes op den duur zo goed worden dat ze niet meer met technologie te detecteren zijn. Denkt u dat ook?

“Experts in artificiële intelligentie (AI) zijn het daar nog niet over eens. Op dit moment zijn deepfakes goed genoeg om mensen voor de gek te houden. Kijk maar eens op this­person­does­not­exist.com. Met elke klik kun je een nieuwe afbeelding van een niet-bestaand mens genereren, helemaal opgebouwd door AI. Daarom wordt overal ter wereld detectiesoftware gebouwd. Maar de oplossing moet zeker niet alleen van technologie komen.”

Welling denkt niet dat het probleem onoplos­baar is. Volgen hem moeten we gaan leren om afbeeldingen, geluiden en video’s net zo kritisch te benaderen als teksten. We ver­wachten van een tekst ook niet automatisch dat deze de waarheid bevat.

“Wanneer we niet meer kunnen geloven wat we zien, zullen mensen ook authentieke media niet meer geloven. Een van de problemen van deepfakes is the liar’s dividend – als alles kan worden vervalst, kan alles worden ontkend. Dat geeft slechteriken veel speelruimte.

“Vlak nadat ik het manuscript van mijn boek bij de drukkerij had ingeleverd, beweerde een ­Republikeinse kandidaat voor het Huis van Afgevaardigden dat de video waarin we zien hoe een agent met zijn knie op de nek van George Floyd drukt, een deepfake is. In de toekomst zullen we veel van dat soort geluiden horen. Dus ja, we moeten kritischer worden, maar in geen geval cynisch. Anders geloof je alleen nog dat wat past bij je overtuigingen.”   

Kijk naar een scène uit ‘Sassy Justice’:

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234