Zondag 17/11/2019

Standpunt

Algoritmes zijn niet 'goed' of 'neutraal'. Het zijn vooroordelen

Beeld Eva Beeusaert

Bart Eeckhout is opiniërend hoofdredacteur.

Plots gaat het wel erg snel met de technologische vooruitgang in het veiligheidsbeleid. Amper zijn we bekomen van de aankondiging van een schild met maar liefst 3.000 camera’s voor anonieme nummerplaatherkenning, of daar komt alweer een nieuw wonder aangerold: predictive policing, ofte criminaliteit voorspellen aan de hand van data en algoritmes.

Iedereen denkt dan meteen aan Minority Report, de Spielberg-film naar een sciencefictionklassieker van Philip K. Dick over een politieteam dat criminelen inrekent nog voor ze in actie komen. Zover zijn we natuurlijk nog niet.

Het is niet meer dan logisch dat ook de staat gebruik kan maken van technologische vooruitgang. Crucialer is de vraag: welke technologische vooruitgang kunnen we vertrouwen om ons te beschermen? En dan is er een probleem met dat voorspellende politiewerk.

Het geheim van de chef

De kern van dat probleem zit bij het gebruik van algoritmes als hoeksteen van de voorspellingen. In een rechtsstaat behoort de wet voor iedereen gelijk te zijn. Niet elke burger kent elke wet uit het hoofd, maar in principe zou je al die wetten wel moeten en kunnen kennen.

Van een algoritme weet je niks, tenzij je er de eigenaar van bent. Het is zo geheim als de formule van Coca-Cola. Mogelijk besluit zo’n algoritme dat het beter is je buurman scherp in de gaten te houden, en jou niet. Waarom dat zo is, blijft het geheim van de chef. Dat staat haaks op het idee van een rechtsstaat.

Pragmatici zullen opwerpen dat dit alweer zo’n principieel, theoretisch bezwaar is: wie niks mispeutert, hoeft niks te vrezen, toch? Evengoed kan je zeggen dat het geloof in het Goede Algoritme in het beste geval naïef is. Algoritmes zijn niet per definitie ‘goed’ of 'neutraal'. Ze worden gevoed met data die door politieke, menselijke keuzes hiërarchisch geordend worden.

Algoritmes zijn vooroordelen. Letterlijk. Ze oordelen op basis van eerdere informatie. Dat stelt een ethische en een kwalitatieve kwestie.

Dat punt met de kwaliteit kennen we allemaal. Wie op het internet pakweg een vakantiehuisje in de Ardennen opzoekt, krijgt op Facebook en Google in lengte van dagen advertenties voor huisjes in de Ardennen, ook al heb je dat allang niet meer nodig. Als de voorspellende kracht van de algoritmes van de grootste tech-giganten nog zo kwetsbaar is, hoezeer kunnen we dan de technologie vertrouwen waarmee de politie aan de slag gaat? En dan nog: hebben we algoritmes nodig om te weten dat er in een verloederde stationsbuurt meer diefstal gepleegd wordt?

Minstens zo belangrijk is de ethische kwestie. Algoritmes sturen op voorgeprogrammeerde vooroordelen. Amerikaanse voorbeelden tonen een groot risico op stigmatisering en fouten. De spanning die dat oplevert in de samenleving kan juist meer onveiligheid veroorzaken. De grens tussen voorspellen en uitlokken wordt dan wel dun. Dat mag de bedoeling niet zijn. 

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234