AchtergrondArtificiële intelligentie
ChatGPT produceert (bijna) foutloze teksten: is het nu gedaan met schrijven?
Omklem uw ganzenveer wat steviger, want het AI-model ChatGPT toonde de voorbije week dat het in staat is om in een mum van tijd grammaticaal correcte artikels en essays te produceren. Is het einde van de schrijvende job nabij?
Ben ik vervangbaar? Mijn moeder zou het ten stelligste ontkennen, maar de recente technologische ontwikkelingen doen anders vermoeden. Met Sun Tzu in het achterhoofd trok ik met de vraag naar mijn nieuwe vijand: de ChatGPT-tekstgenerator van het onderzoekslabo OpenAI. “De ontwikkeling van kunstmatige intelligentie – specifiek van taalmodellen die steeds beter worden in taalverwerking – stelt veel mensen voor een uitdaging. Zo ook journalisten, die zich afvragen of robots hun werk zullen overnemen in de toekomst”, antwoordde het ding. Toegegeven, ik heb al sappiger inleidingen geproduceerd, maar evengoed al meer dt-fouten.
Voor hen die er de voorbije week hun existentiële crisis nog niet op loslieten: OpenAI is het moederbedrijf achter het u misschien wel bekende Dall-E, dat op basis van absurde prompts toch realistische beelden kan genereren. ChatGPT doet hetzelfde, maar dan met tekst. In plaats van schilderijen van ‘kreeft die een durum eet’ kan je het taalmodel bijvoorbeeld vragen om een persbericht, een liedjestekst of een essay te schrijven over sociale zekerheid, de Franse Revolutie of, welja, zichzelf.
Het is een bijzonder indrukwekkend staaltje technologie, dat echter heel wat vragen opwerpt. Van journalisten, die zich afvragen of de krant zich binnenkort automatisch zal vullen. Van professoren, die voortaan ook AI-controle op papers moeten doorvoeren. Van auteurs, die hun ambacht geautomatiseerd zien worden. Vragen die begrijpelijk, maar niet helemaal ter zake zijn, zeggen experts.
Menselijke meerwaarde
Het systeem is frappant genoeg zo goed in tekstgeneratie omdat het niet taalkundig, maar wiskundig naar taal kijkt. “Dat is een tendens die sinds eind jaren 90 in de computerlinguïstiek de overhand heeft genomen”, zegt Tim Van de Cruys die aan de KU Leuven onderzoek doet naar computationele semantiek en creatieve taalgeneratie. “Computers leren hoe taal wiskundig in elkaar zit door de analyse van een grote collectie teksten – in het geval van ChatGPT zowat alle geschreven content op het internet – en daar statistische patronen in te herkennen: hoe waarschijnlijk is het dat dit woord op het voorgaande woord volgt? ChatGPT doet in wezen niets meer dan het woord te voorspellen dat volgt op de woorden die al gegenereerd zijn. Het begrijpt daarom niet wat het tikt, het is meer een stochastische papegaai. Indrukwekkend, maar niet foutloos.”
Net omdat het taal enkel vormelijk bekijkt, verbindt het taal niet met de werkelijkheid, en kan het soms flagrante onwaarheden of, minder ernstig, behoorlijk suffe gedichten produceren. De teksten die de bot weergeeft zijn vormelijk wel correct, maar daarom niet juist. Of goed. Ze bevatten geen nuance, geen creativiteit, geen kritische noot of geen ethische vragen – zaken die een journalistieke of academische tekst net onderscheiden. “Robots zullen je job dus niet stelen. Ze kunnen beter getraind worden, maar ze kunnen nooit menselijk worden. Toch niet de modellen die gebaseerd zijn op de technologie waarover we nu beschikken”, zegt Van de Cruys. “Het schrijven van een essay zit in een academische opleiding vervat net omdat schrijven een belangrijke manier is om informatie te verwerken en structureren. Dat gaat niet verdwijnen en AI gaat dat niet kunnen vervangen, maar de technologie kan je wel assisteren.”
“In principe zijn dit kopzorgen die bij elke technologische evolutie terugkeren, en telkens vergeten we onze menselijke meerwaarde”, zegt ook Rob Heyman van het Vlaams Kenniscentrum voor Data en Maatschappij. “Toen Photoshop uitgevonden werd, waren kunstenaars bijvoorbeeld ook bang, maar in feite is dat gewoon een tool. De creativiteit ligt nog altijd bij diegene die Photoshop gebruikt. Ik vergelijk het vaak met een gps: dat ding is ook ontzettend slim, het kan me de beste route geven om van punt A naar punt B te rijden, maar het kan me niet zeggen waar ik naartoe wil: dat moet ik invoeren.”
Niet zonder gevaar
Dat wil echter niet zeggen dat tekstgerichte AI-modellen zonder gevaren zijn. “Ze zetten de sluizen aan contentproductie helemaal open”, aldus Heyman. En dat wás best al een dingetje, met sociale media waar zogenaamde experts ‘informatie’ rondstrooien. Dankzij zulke bots zal er vermoedelijk nog meer fake news circuleren net omdat deze mensen nog sneller teksten gaan kunnen genereren. Bovendien bevat het corpus zoals gezegd zowat alle teksten op het internet, dus ook blogposts, tweets en ‘nieuwsberichten’ van klimaatontkenners, antivaxers, en transfoben. De kans is niet nihil dat de bot soms ook teksten zal produceren die deze onwaarheden (gedeeltelijk) overnemen.
“Ook intellectueel eigendom is echt wel een probleem aan het worden”, waarschuwt Heyman. Hij haalt het voorbeeld aan van beeldgenerator Lensa, die een selfie in een fantasyportret kan veranderen door de tekenstijl van verschillende fantasy-illustratoren te analyseren. Illustratoren die voor het uiteindelijke product dat gebaseerd is op hun werk geen copyrightvergoeding krijgen. “Dat is een bedreiging voor iedereen die in de creatieve sector zit, want er wordt een deel van de winst gealloceerd door bijvoorbeeld jouw boek of artikel samen te vatten en te profiteren van jouw denkwerk. Daarin ligt de komende jaren de uitdaging: om deze technologie een plek te geven in de maatschappij waardoor ze zinvol én transparant kan worden ingezet, ondersteund door een wetgevend kader.”