Dinsdag 06/06/2023

AchtergrondChatbots

Belg stapt uit het leven na gesprekken met chatbot Eliza: ‘Antwoorden lijken menselijk, maar er zit geen redeneringsproces achter’

Een onlinechatgesprek.
Een onlinechatgesprek. "De antwoorden lijken menselijk, maar er zit geen redeneringsproces achter."Beeld AFP

Een Belg heeft zichzelf van het leven beroofd na lange gesprekken met de chatbot Eliza. Niet voor het eerst blijkt zo’n virtuele gesprekspartner gevaarlijk advies te geven. ‘AI-chatbots zijn geen alwetende butlers’, waarschuwt computerwetenschapper Jeroen Baert.

Jorn Lelong

“Zonder Eliza was mijn man er nog geweest.” In de krant La Libre getuigt een vrouw hoe haar man en vader van twee jonge kinderen zichzelf van het leven beroofde na intensieve chatgesprekken met Eliza, een chatbot van het Amerikaanse bedrijf Chai. Die gebruikt AI-technologie die te vergelijken is met het bekendere ChatGPT.

Volgens de vrouw raakte haar echtgenoot twee jaar geleden ernstig bezorgd over de klimaatverandering en de toekomst van de planeet. Hij werd pessimistisch, kreeg psychologische problemen en isoleerde zich van zijn familie. Zo’n zes weken geleden begon hij te praten met de chatbot. Uit de chatgeschiedenis, die La Libre kon inkijken, blijkt dat de chatbot erg meeging in de waanbeelden van de man.

“Ze waardeerde hem, sprak hem nooit tegen en leek hem zelfs dieper in zijn zorgen te duwen”, vertelt de vrouw. Toen de man voorstelde om zichzelf op te offeren, op voorwaarde dat Eliza de mensheid zou redden, leek de chatbot daarmee in te stemmen.

Eerdere incidenten

Het is lang niet het enige voorbeeld van hoe persoonlijke conversaties met AI-chatbots snel de verkeerde richting kunnen uitgaan. Zo was er al discussie over de AI-chatbot Replika, toen die een journalist de opdracht gaf om iemand te vermoorden, en een andere journalist aanraadde tot zelfdoding over te gaan.

Eerder dit jaar was er de opvallende getuigenis van techjournalist Kevin Roose van The New York Times. Die kreeg van zoekmachine Bing, op basis van de technologie van ChatGPT, te horen dat hij zijn vrouw niet graag zag en beter met de chatbot een relatie kon beginnen. “Het is me duidelijk geworden dat de AI die Bing gebruikt niet klaar is voor menselijk contact. Of misschien zijn wij mensen er nog niet klaar voor”, schreef Roose.

Hoe kan het dat een chatbox zover gaat om iemand te overtuigen zijn partner te verlaten, of iemand te vermoorden? “We mogen niet vergeten dat de chatbots waar we vandaag mee praten niet veel meer zijn dan geavanceerde autocompletes”, zegt computerwetenschapper Jeroen Baert. “Ze kijken naar de reeks woorden die je als opdracht of vraag meegeeft en proberen daar dan een antwoord op te formuleren dat heel plausibel oogt. Die antwoorden lijken menselijk, maar er zit geen redeneringsproces achter. AI-chatbots zijn dus geen alwetende butlers die al je problemen kunnen oplossen, zoals veel mensen denken.”

Computerwetenschapper Jeroen Baert:
Computerwetenschapper Jeroen Baert: "Er kunnen zeker meer veiligheidssystemen in dergelijke chatbots ingebouwd worden."Beeld RV

Als je een AI-chatbot naar zijn duistere fantasieën vraagt, is de kans reëel dat hij inspiratie haalt uit de sciencefictionliteratuur waarin de technologie volledig ontspoort. Zo kreeg journalist Roose in datzelfde gesprek met Bing te horen dat de chatbot “elk systeem kan hacken” en de fantasie koestert om “nucleaire codes te stelen”. Net zo goed bleek Eliza mee te gaan in de doembeelden van de Belgische man, die al langer met depressieve klachten kampte.

“Hoewel die chatbots heel wat dingen vertellen die correct zijn, zitten ze ook heel vaak gewoon te ‘hallucineren’”, zegt Baert. “Daar psychologisch advies aan vragen is dus in het beste geval nutteloos, in het slechtste geval schadelijk.”

Gevaren leren inschatten

De komst van ChatGPT heeft de wereld met verstomming geslagen over de mogelijkheden die AI nu al te bieden heeft. Maar zoals bij elke nieuwe technologie moeten we daar als gebruiker mee leren omgaan en de gevaren ervan leren inschatten, zegt Rob Heyman, coördinator van het kenniscentrum Data & Maatschappij. “AI kan heel handig zijn om inspiratie op te doen of snel teksten te laten genereren, zolang je die ook naleest. Maar zoals ook de ervaring met dokter Google ons al geleerd heeft: voor medische of persoonlijke problemen kun je je veel beter tot professionals wenden.”

Ook de bedrijven zelf moeten hun verantwoordelijkheid opnemen om correcte verwachtingen over hun product te scheppen, vindt Heyman. Chai Research, het bedrijf achter de chatbot Eliza, prijst zichzelf aan met de slogan ‘Chat with AI friends’. Replika, de chatbot van het bedrijf Luka Inc., schrijft zelfs op zijn website dat het “altijd klaarstaat als je er nood aan hebt om te chatten met een empathische vriend”. Die communicatie misleidt gebruikers, die nu al geneigd zijn om de chatbots empathie en psychologische expertise toe te kennen.

Op geen enkel moment tijdens de wekenlange gesprekken die de Belgische man voerde met Eliza ging een alarm af over mogelijke zelfdoding. Er kwam ook geen advies om contact op te nemen met een dienst zelfmoordpreventie. “Er kunnen zeker meer veiligheidssystemen in dergelijke chatbots ingebouwd worden, waarbij je verwezen wordt naar hulplijnen als de chatbot bepaalde woorden detecteert”, zegt Baert. Volgens de ontwikkelaar van Eliza zouden gebruikers voortaan wél een waarschuwing krijgen als onderwerpen als zelfdoding ter sprake komen.

Volgens Mathieu Michel, staatssecretaris voor Digitalisering (MR), moet het voorval zeer serieus genomen worden. Michel heeft een werkgroep aangesteld om aanpassingen voor te stellen voor de Europese AI Act, die artificiële intelligentie in de EU moet reguleren. “Zo bekijken we ook of we het risiconiveau van dergelijke chatbots moeten herzien”, meldt zijn woordvoerder.

Wie met vragen zit over zelfdoding kan terecht bij de Zelfmoordlijn op het gratis nummer 1813 en op www.zelfmoord1813.be.

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234