Zondag 07/03/2021

Dat mag je niet zeggen op het internet

null Beeld UNKNOWN
Beeld UNKNOWN

Evgeny Morozov: "Google en co. creëren een nieuwe preutsheid." Morozov is verbonden aan de Stanford Universiteit in Californië en schreef onder meer het invloedrijke The Net Delusion (2011).

Silicon Valley doet zich voor als een bastion van openheid en tegencultuur. Maar achter de hypertolerante façade gaan vaak diep conservatieve, ouderwetse normen schuil, die de digitale cultuur discreet oplegt aan miljarden technologiegebruikers in de wereld.

Hoe wordt die nieuwe preutsheid verspreid? Simpel: door strikte, eendimensionale algoritmes, de wiskundige concepten die automatisch de grenzen bepalen van wat cultureel aanvaardbaar is.

Neem een paar akkefietjes uit het recente verleden. Begin september werd de Facebookpagina van The New Yorker geblokkeerd omdat die in strijd was met de normen van de site aangaande seks en naaktheid. De overtreding? Een cartoon van Adam en Eva in de tuin van Eden; de ontblote tepels van Eva slaagden niet voor de fatsoenstest van Facebook

En obsceniteiten bestrijden kan commercieel interessant zijn. Impermium, een bedrijf in Silicon Valley dat websites helpt om iets te doen aan ongewilde commentaren van lezers, verkoopt technologie die "alle vormen van schadelijke inhoud" identificeert , "zoals geweld, racisme, flagrante godslastering en haattirades, en stelt website-eigenaars in staat meteen, voor het de lezers bereikt, te reageren". Impermium houdt de lezers in de gaten - maar wie houdt Impermium in de gaten?

Ook Apple is weggedwaald van zijn iconoclastische roots. Toen het jongste boek van Naomi Wolf, Vagina, A New Biography, te koop werd aangeboden in de iBooks-winkel, maakte Apple van Vagina 'V***a'. Na talrijke klachten herstelde Apple de titel in ere, maar wie weet welke andere boeken nog aangetast zijn?

Klopt, de boeken zijn wel nog te koop. Silicon Valley houdt zich niet bezig met directe censuur. Wat het wel doet, is ideeën en termen die maatschappelijk aanvaard zijn, voorstellen als iets om zich voor te schamen. Silicon Valley weerspiegelt niet alleen maatschappelijke normen, maar roept die ook in het leven, op een grotendeels onzichtbare manier.

De toename van de autocomplete-functie op populaire websites is een goed voorbeeld. Ogenschijnlijk vult die alleen uw zoekopdracht aan - op YouTube, Google, Amazon - nog voor u klaar bent met typen, gebruikmakend van een algoritme dat voorspelt wat u naar alle waarschijnlijk zult intikken. Een handige functie, die evenwel ook preutsheid in de hand werkt.

Hoe? Neem Seven Words You Can Never Say on Television, de comedyklassieker van George Carlin, en kijk eens hoe veel van die zeven woorden automatisch gesuggereerd worden op uw favoriete websites. In mijn geval suggereerde YouTube niets, Amazon haast niets (het haat ook 'penis' en 'vagina'). Van de zeven woorden van Carlin vervolledigde Google alleen 'piss'.

Tot onlangs wilde Google zelfs het woord biseksueel niet aanvullen. Pas in augustus van dit jaar begon Google die term na vele klachten soms aan te vullen. In 2010 publiceerde het hackersmagazine 2600 een lange zwarte lijst van gelijksoortige woorden. Waarom staan technologiebedrijven ons niet toe vrijuit termen te gebruiken die al ruim circuleren en legitimiteit genieten op het internet? Beschouwen ze zichzelf als onze nieuwe hoeders? Zijn ze te hebzuchtig om de fouten van hun algoritmes te corrigeren?

Dankzij Silicon Valley ondergaat ons publieke leven een transformatie. Die digitale metamorfose wordt vergezeld door de opkomst van nieuwe, algoritmische poortwachters, die, anders dan de poortwachters van het vorige tijdvak - journalisten, uitgevers, redacteurs - niet uitpakken met hun culturele autoriteit. Misschien beseffen ze dat zelf niet eens, gretig als ze zijn om die algoritmes in te zetten voor de lol en voor het geld.

Onze reputatie hangt ook alsmaar meer af van algoritmes. Niemand beseft dat beter dan Bettina Wulff, de voormalige first lady van Duitsland, die Google voor het gerecht daagde omdat het zoekopdrachten met haar naam automatisch aanvult met 'escorte' en 'prostituee'. Wulff vindt dat de algoritmes van Google valse geruchten over haar verspreiden; Google beweert dat de gesuggereerde termen slechts "een algoritmisch gegenereerd resultaat zijn van objectieve factoren, waaronder de populariteit van de ingebrachte zoektermen".

De verdediging van Google zou plausibel zijn als zijn eigen algoritmes niet zo makkelijk te bedotten waren. In 2010 betaalde marketingexpert Brent Payne een leger assistenten om te zoeken op "Brent Payne manipulated this". Al snel kreeg iedereen die Brent P intikte automatisch die suggestie voorgeschoteld. Nadat Payne het experiment bekend had gemaakt, verwijderde Google de suggestie, maar hoe veel vergelijkbare zaken worden nooit achterhaald? Wat is 'objectief' aan zulke algoritmische 'waarheden'?

Bizarre preutsheid, buitensporige controle op copyright, onnodige schade aan onze reputatie: algoritmische controle eist een hoge tol in ons publieke leven. In plaats van die algoritmes te beschouwen als een natuurlijke, objectieve weergave van de werkelijkheid, moeten we ze uit elkaar rafelen en zorgvuldig elk stukje van de code bekijken.

Kunnen we dat doen zonder te raken aan het businessmodel van Silicon Valley? De financiële wereld, die een vergelijkbaar probleem had, wijst de weg. Na een paar catastrofes dit jaar die werden veroorzaakt door algoritmische handel deden autoriteiten in Hongkong en Australië voorstellen om regelmatige onafhankelijke doorlichtingen in te stellen voor het ontwerp, de ontwikkeling en de wijzigingen van computersystemen die bij dat soort handel gebruikt worden. Waarom kunnen auditeurs niet hetzelfde doen voor Google?

Silicon Valley hoeft zijn algoritmes niet vrij te geven, maar moet ze alleen delen met de auditeurs. Een drastische maatregel? Misschien. Maar hij staat wel in verhouding tot de groeiende greep die technologiebedrijven hebben op de manier waarop niet alleen onze economie evolueert maar ook onze cultuur.

Uiteraard zal Silicon Valley zulke normen niet snel ontwikkelen of omarmen. Maar in plaats van die nieuwe realiteit te beschouwen als een fait accompli moeten we ervoor zorgen dat de nieuwe algoritmische poortwachters gedwongen worden het idee te aanvaarden dat aan de functie die ze op zich nemen om onze cultuur vorm te geven grote verantwoordelijkheid verbonden is.

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234