InterviewNathalie Smuha
‘Ik hoop dat enkele grote labo’s hier goed over nadenken’: waarom experts aan de noodrem trekken over krachtige AI
In een open brief vragen honderden experts, onder wie Tesla-baas Elon Musk en Apple-oprichter Steve Wozniak, om het onderzoek naar geavanceerde artificiële intelligentie zes maanden te pauzeren. ‘Ontwikkelaars en aanbieders moeten hun verantwoordelijkheid nemen’, zegt juriste en onderzoeker Nathalie Smuha (KU Leuven).
Waarom trekken de experts precies aan de noodrem?
“Het is niet de eerste keer dat wetenschappers zelf alarm slaan over de ontwikkelingen in hun vakgebied. Het is een goede reflex, want er zijn verschillende risico’s. Zo slagen de geavanceerde AI-systemen erin om mensen te imiteren, waardoor er een risico op manipulatie is. Want ook al weet je rationeel dat de toepassing niet menselijk is, toch triggert het een emotionele reactie. Dat lijkt misschien een ver-van-mijn-bedshow, maar dat is het niet. Denk maar aan de Belgische man die onlangs uit het leven stapte, onder andere nadat een chatbot negatieve gevoelens versterkte en zelfmoord aanraadde. Daarnaast is de output van de systemen niet altijd correct en zijn er risico’s op misinformatie en de verspreiding van complottheorieën.”
Wat moet er volgens de ondertekenaars tijdens de pauze gebeuren?
“Ze pleiten er niet voor om de algemene ontwikkeling stop te zetten, maar wel om het onderzoek naar systemen die krachtiger zijn dan GPT-4 van OpenAI zes maanden lang te pauzeren. Er moet volgens hen eerst een beter wettelijk kader komen. De Europese Unie en de Raad van Europa werken daar beide al aan, maar de teksten zijn nog niet sterk genoeg. De eerstgenoemde wetgeving zou er ook pas ten vroegste in 2025 komen. Dat is erg laat. Het lijkt me beter om te vroeg in te grijpen en later wat meer toe te laten dan het los te laten en een kans op onherroepelijke schade te lopen.”
Welke lacunes zijn er vandaag nog in de wetgeving over AI?
“Ontwikkelaars en aanbieders van artificieel intelligente toepassingen moeten een grotere verantwoordelijkheid nemen. Wie een systeem bedenkt dat een verhoogd risico voor de veiligheid van mensen vormt en hun fundamentele rechten bedreigt, zou verplicht moeten worden om die risico’s eerst in kaart te brengen. Denk bijvoorbeeld aan toepassingen die inschatten of mensen criminele tendensen kunnen vertonen, applicaties van asielzoekers evalueren of aan biometrische identificatie doen. Mensen moeten ook meer rechten krijgen zodat ze hun belangen kunnen behartigen wanneer ze schade oplopen door AI. En er is meer transparantie nodig over de werking van systemen die ons beïnvloeden. Anders weten we niet of ze wel juridisch en ethisch verantwoord zijn.”
Hoe groot is de kans dat de grote AI-labo’s effectief de pauzeknop indrukken?
“Ik denk niet dat het realistisch is om te verwachten dat iedereen deel zal nemen aan de pauze, maar ik hoop dat enkele grote labo’s er goed over nadenken. Zij hebben veel invloed en kunnen een duidelijk signaal geven. Maar zelfs als weinigen de ontwikkeling stilleggen, is de open brief nog steeds nuttig. Hij draagt bij aan de bewustwording van de risico’s die artificiële intelligentie met zich meebrengt. Voor we miljoenen in onderzoek pompen, is het toch belangrijk om even te reflecteren.”
OpenAI, de koploper die ook ChatGPT ontwikkelde, ondertekende de brief niet. Waarom?
“Het is moeilijk om dat te beoordelen. Er zijn mensen die de risico’s minimaliseren en vrezen dat nieuwe wetten de innovatie zullen tegenhouden. Daarnaast spelen geld en fascinatie voor het vakgebied een rol. Intellectuele nieuwsgierigheid is begrijpelijk, maar het zou geen kritische houding in de weg mogen staan.”