Dinsdag 14/07/2020
De Amerikaanse rapper Jay-Z.

Deepfake

Heeft Jay-Z het alleenrecht op zijn stem?

De Amerikaanse rapper Jay-Z.Beeld ANP Kippa

Als het van rapper Jay-Z afhangt, bootst niemand zijn stem na. Maar dat is net wat het YouTube-kanaal Vocal Synthesis doet: met behulp van deepfake-technologie kan Jay-Z, buiten zijn wil om, een monoloog uit Hamlet rappen. Onschuldig speeltje, of een inbreuk op portretrechten?

“Donald en ik zijn beiden teleurgesteld dat Jay-Z en Roc Nation hebben besloten om een kleine YouTuber op deze manier te pesten. Het is ook een ontgoocheling dat YouTube er nog maar eens voor kiest om creativiteit tegen te werken, door de kant te kiezen van machtige bedrijven.”

In een video die eind april werd geüpload op het YouTube-kanaal Vocal Synthesis, hoor je Barack Obama en Donald Trump, broederlijk tezamen, de eigenaar van het kanaal verdedigen. Alleen zijn het niet echt de vorige en huidige president van de Verenigde Staten die het woord tot de luisteraar richten. De audio is een deepfake-imitatie van hun stem.

Vocal Synthesis gebruikt Tacotron 2, een artificial intelligence-systeem dat door Google werd ontwikkeld, om hoogst eigenaardige tracks online te plaatsen. Er zijn ‘zogezegde audiofragmenten’ van Scarlett Johansson, Arnold Schwarzenegger en een handvol (dode) Amerikaanse presidenten. Er is Bob Dylan die ‘Baby One More Time’ van Britney Spears covert. Er is George W. Bush die de tekst van 50 Cents ‘In Da Club’ reciteert. En er is Jay-Z die zich waagt aan ‘We Didn’t Start the Fire’ van Billy Joel, het boek Genesis uit het Oude Testament, en de ‘to be or not to be’-monoloog uit Shakespeares Hamlet. Elk van die video’s creëert vrijwel feilloos Jay-Z’s stemtimbre en zijn karakteristieke flow.

De vraag: is die vocale stijl karakteristiek genoeg om door auteursrecht beschermd te worden? Jay Z’s platenlabel verzocht YouTube de video’s te verwijderen, wat ook gebeurde – vandaar de reactie van Vocal Synthesis, bij monde van een fictieve Barack Obama en Donald Trump. Maar twee dagen later kwamen de video’s alweer online. YouTube reageerde op de Amerikaanse muziekwebsite Pitchfork dat het verzoek om de video’s te verwijderen onvolledig was en de video’s daarom op zijn minst tijdelijk weer online stonden.

Roc Nation claimde dat de content van Vocal Synthesis “onwettig gebruik maakt van AI-technologie om de stem van onze cliënt na te bootsen”. Alleen, zo citeert Pitchfork de muziekadvocaat Bill Hochberg: “Hun claim is belachelijk. Je kunt een vocale stijl niet beschermen met auteursrecht.” Voorlopig is Roc Nation dan ook nog niet naar de rechtbank getrokken.

Parodie

Zet dat gebrek aan regularisatie de deur naar misbruik open? Zonder bescherming kan iemand immers een nummer uitbrengen door zich als Jay-Z voor te doen, of kan ‘nieuw’ materiaal van dode sterren als Prince of Amy Winehouse worden uitgebracht. Maar in dat geval botsen deepfake-gebruikers op bestaande wetten, zegt auteursrechtenexpert Jeff Keustermans van advocatenbureau & De Bandt. “Ik durf niet met zekerheid te zeggen of iemands stem onder de wet van het portretrecht valt, maar er zijn heel wat bepalingen die zulke praktijken een halt kunnen toeroepen”, zegt Keustermans. “Als je een stem van een bekende persoon gebruikt voor commerciële doeleinden, bijvoorbeeld, een reclamespot, dan beschuldig je je aan oneerlijke handelspraktijken.”

Zo won zanger Tom Waits in de vroege jaren 90 een rechtszaak tegen het bedrijf Frito-Lay, omdat ze een imitatie van zijn stem hadden gebruikt in een reclamespot voor Doritos. Je kunt iemands naam sowieso niet zomaar aan eender wat verbinden. “Als ik een schilderij maak in de stijl van Luc Tuymans, er zijn naam onder zet en het als een Tuymans verkoop, pleeg ik valsheid in geschrifte”, legt Keustermans uit. “Maar een stem is natuurlijk geen geschrift.”

Parodie

Vocal Synthesis vermeldt duidelijk bij elke video dat “de stem in deze video volledig computergegenereerd is, met gebruik van een tekst-naar-spraakmodel dat werd getraind met de spraakpatronen van Jay-Z”. Bovendien beweert de eigenaar van het kanaal de video’s enkel te delen voor ‘entertainment’, en niet voor commerciële doeleinden. Alleen staan de video’s op YouTube, dat advertenties plaatst. “En als er reclame bij staat,” zegt Keustermans, “wordt er iets aan verdiend.”

Een uitzondering, voegt Keustermans toe, is als het om een parodie gaat. “Als de parodie geheel duidelijk is en als het om een bekend persoon gaat, kun je dat niet aanvechten.” Imitators als Guga Baúl hoeven dus geen rechtszaak te vrezen. Maar bij deepfake-audio gaat het er net om dat de kopie vrijwel niet te onderscheiden is van het origineel.

Het is bovendien afwachten hoe de techniek zich verder ontwikkelt. “Tot nu toe hebben we nog nauwelijks gezien wat de mogelijkheden zijn op dit vlak”, zei de eigenaar van Vocal Synthesis aan Pitchfork. “Ik ben heel nieuwsgierig om te zien hoe dit de komende jaren evolueert.” De vraag is in welke mate de wetgeving mee evolueert. In Amerikaanse staten als California, Texas en New York werden al wetten gestemd om deepfake-praktijken aan banden te leggen, bijvoorbeeld om politieke misinformatie te verspreiden of zonder toestemming pornovideo’s met iemands portret te maken.

Volgens Keustermans is het mogelijk dat in de toekomst ook het Europees Hof voor de Rechten van de Mens zich over zulke materie buigt. “De vraag om het persoonsrecht daarnaar aan te passen is nog niet gesteld. Maar als dit soort praktijken schering en inslag wordt, zou dat in de toekomst wel het geval kunnen zijn.”

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234