Ik werd alweer getriggerd door de column van Floor Rusman, deze morgen in de NRC.[1] Die opent zij met de melding van een vriendin:
‘Ik heb iets nieuws ontdekt”, zegt een vriendin op het terras. Ik kijk haar verwachtingsvol aan. Iets nieuws! Wat zou het zijn?
Het blijkt ChatGPT te zijn, die inmiddels de steun en toeverlaat is geworden van de vriendin.
Het verbaast me, en ook weer niet.
Deze vriendin is in de woorden van Rusman “een late adopter”, maar een voormalige collega van me voerde een jaar of twee, drie geleden al zijn hele hebben en houwen aan ChatGPT.
Ik vermoed dat de opkomst van ChatGPT en daaraan verwante systemen de eerste grote tech-hype is die ik bewust aan mij voorbij laat gaan. Dat is niet omdat ik het niet begrijp — zo oud ben ik nou ook weer niet — maar omdat ik er met groot wantrouwen tegenover sta.
Toch is er niets nieuws onder de zon. Midden jaren ’60 werd het programma ELIZA ontwikkeld door de Amerikaanse informaticus Joseph Weizenbaum[2]. Het programma werd de eerste virtuele therapeut. Dat is eigenlijk onbegrijpelijk als je ziet hoe ELIZA te werk ging.
Het programma deed niet veel meer dan de invoer van de gebruiker herschrijven en als vraag terugkaatsen, afgewisseld met vage algemene vragen. Dan kon je een conversatie als de volgende krijgen:
ELIZA: “Kun je me vertellen wat je probleem is?”
Client: “Ik voel me depressief.”
E: “Wat bedoel je als je zegt dat je je depressief voelt?”
C: “Nou ja, ik slaap slecht, ik pieker.”
E: “Kun je daar wat meer over vertellen?”
En zo verder enzovoort.
Ondanks die eenvoudige opzet vonden veel gebruikers dat ELIZA opmerkelijk intelligent overkwam. Ze voelden zich begrepen, en niet zelden meende een gebruiker niet met een computerprogramma te maken te hebben maar met een echt mens (verstopt achter het beeldscherm en zich expres een beetje afstandelijk voordoend).
In vergelijking met de ChatGPT’s van nu was ELIZA extreem primitief. Een echte discussie kon je er niet mee voeren, en ELIZA kwam al helemaal niet met nieuwe ideeën op de proppen: het herkauwde domweg wat de cliënt had verteld.
Nu zou je kunnen beweren dat ChatGPT ook herkauwt, alleen is het grasveld waar het systeem graast oneindig veel groter dan dat van ELIZA. ChatGPT heeft een duizelingwekkende hoeveelheid informatie opgeslorpt en kan daar op een veel complexere manier uit putten dan ELIZA kon. Dat wekt de indruk dat ChatGPT écht intelligent is.
In 2022 meende een techneut bij Google oprecht dat een AI-model daadwerkelijk bewustzijn vertoonde.[3]. Dat kostte hem zijn baan, en hoewel ik niet echt op de hoogte ben van de details, dacht ik toen en denk ik nog dat-ie ongelijk had.
Toen ik van dat geval hoorde, en mijn eigen conclusie trok, was ik ook een beetje verbaasd over mezelf. Dat zal ik proberen uit te leggen.
Er woedt al decennia een discussie over de vraag of het mogelijk is dat een computer daadwerkelijk intelligentie heeft. Aan die discussie zitten allerlei fijne details, waarvoor een blog als dit veel te weinig ruimte biedt om er op in te gaan, maar waar je wel over kunt nadenken. Wat is een computer? Wat is intelligentie? Is intelligentie hetzelfde als bewustzijn? En aan welke minimale voorwaarden moet ‘iets’ voldoen om als ‘intelligent’ of ‘zelfbewust’ te kunnen gelden?
Eén van de grondleggers van de moderne informatica, Alan Turing, bedacht daarvoor een eenvoudige test (die ook zijn naam draagt, de Turing-test): een mens praat via een toetsenbord en een beeldscherm met een ‘subject’ en moet op basis van die conversatie vertellen of dat subject een ander mens is of een computer. Als het subject een computer is maar als mens wordt aangemerkt, dan is de computer intelligent. Dan spreken we van kunstmatig intelligentie, oftewel artificial intelligence, oftewel AI (oftewel “ee-aaj”).
Ik was lange tijd een aanhanger van de Turing-test. Als iets for all practical purposes reageert als een intelligent mens, waarom zouden we het dan niet intelligent noemen? Dan maakt het niet uit of het ademhaalt of aan het stopcontact hangt, of het ogen heeft of op een heel andere manier kennis neemt van de wereld om zich heen. Vroeg of laat, zo meende ik, zullen computers zo krachtig worden dat ze inderdaad intelligent zijn.
Er zijn vele varianten op de Turing-test, en er is inmiddels ook veel discussie of het überhaupt nog wel een adequate test is. De huidige generatie AI’s zal door veel gebruikers zonder meer voor intelligent worden versleten. Je kunt gesprekken voeren met zo’n AI, en die gesprekken zijn indrukwekkend natuurlijk.
Toch valt er nogal wat af te dingen, als je een beetje dieper graaft. De uitspraken van een AI kunnen er heel overtuigend uitzien, maar blijken bij nadere inspectie toch niet juist. AI’s zijn notoir slechte rekenaars — een manier om een AI te ontmaskeren is hem een paar sommetjes te laten maken. En veel AI’s slaan vroeg of laat volledig op hol, dan gaan ze echt verschrikkelijke onzin uitkramen. Hallucineren, noemen we dat ook wel.[4]
Maar ja, er zijn ook genoeg aantoonbaar echte mensen die verschrikkelijke onzin uitkramen. Eén daarvan heeft het inmiddels tot president van de VS geschopt.
En er zijn inmiddels heel veel mensen, waaronder die vriendin van Floor Rusman en mijn voormalige collega, die een AI als new best friend hebben.
Is dat dan erg?
Ja, dat vind ik erg, en om meerdere redenen.
De belangrijkste reden is dat deze mensen hun AI niet meer zien voor wat het in werkelijkheid is: een enorme bak data, met een algoritme om die data te herkauwen dat precies nul inzicht heeft in de betekenis van die data. ELIZA, in een superdeluxe uitvoering — maar nog steeds zónder intelligentie.
Veel gebruikers zijn zich er niet meer van bewust dat ze met een (feilbaar) computerprogramma praten, dat bovendien geen enkel écht inzicht heeft in de materie.
En heel vreemd is dat niet, want in de echte wereld lijkt ook een steeds grotere rol weggelegd voor mensen die van alles en nog wat roepen zonder verstand van zaken. Ik had het al over de huidige president van de VS, maar wat dacht je van zijn Minister van Gezondheidszorg? Deze meneer Kennedy doet het qua betrouwbaarheid van zijn uitspraken geen haar beter dan ChatGPT. Erger nog: als ChatGPT onzin uitkraamt over, bijvoorbeeld, de vraag of vaccinaties bij jonge kinderen de kans op autisme vergroten[5], dan kun je nog zeggen dat ChatGPT gewoon herkauwt wat-ie toevallig in z’n voerbak had liggen. Maar Kennedy zou wel beter kunnen en móéten weten.
Dus als mensen op essentiële posities al onzin uitkramen, en je bent bereid dat klakkeloos te accepteren, waarom zou je je dan druk maken over een computerprogramma dat dat ook doet?
Mijn collega zei dat hij zich er best wel bewust van was dat ChatGPT ‘maar’ een computerprogramma was. Tegelijkertijd ‘besprak’ hij ook zaken met ChatGPT waarvan ik zou zeggen: “Ga daar mee naar een dokter. Naar een psycholoog. Naar een theoloog. Naar iemand die geacht mag worden er verstánd van te hebben.”
Natuurlijk, je kunt dat zien als sparren, gewoon een beetje kletsen, zoals je dat ook met je vrienden kan doen, niet met als doel om een definitief antwoord te krijgen maar om de gedachten een beetje op te schudden, en wellicht een goed idee te krijgen. Maar ik vermoed dat veel mensen er zo niet in staan, ook al zeggen ze van wel. Te vaak zag ik al teksten langskomen als: “Ik heb dat aan ChatGPT gevraagd, en díé zegt…”
Rusman noemt in haar column de Amerikaanse psycholoog Harvey Lieberman, die experimenteerde met ChatGPT en aangenaam verrast was. Ze sluit haar column af met deze woorden:
Lieberman zag ChatGPT als gesprekspartner, niet als orakel. Maar daarvoor moet je wel intellectueel zelfvertrouwen hebben. Dat ontwikkel je alleen door ook zelf te blijven denken.
Daar zit precies het probleem. Als een AI op het eerste gezicht al zo goed lijkt te hebben nagedacht, waarom zou je dan zelf nog de moeite nemen om er verder over na te denken?
Een kennis van me, docent bij de opleiding Natuurkunde aan de Universiteit Utrecht, vertelde me dat hij tegenwoordig bij werkcolleges al studenten aan zijn tafel krijgt die hun huiswerkopdrachten aan ChatGPT hebben gevoerd en nu van hem willen weten wat de AI precies bedoelt met het antwoord, want zelf snappen ze dat niet…
En dat zijn dan studenten Natuurkunde, die meestal toch niet voor die studie hebben gekozen omdat ze niet goed wisten wat ze anders moesten. Maar blijkbaar gaan die er nu voetstoots vanuit dat een AI hun huiswerk wel kan doen.
Ik wil niet zeggen dat AI’s ons alleen maar ellende brengen. Er zijn zeker toepassingen die nuttig zijn, bijvoorbeeld in de medische hoek waar AI’s succesvol worden ingezet bij het opsporen van bepaalde tumoren of ander ongerief op scans. Dat zijn zogenaamde neurale netwerken, die we ook tot de AI’s zijn gaan rekenen, en die heel diep onder de motorkap hetzelfde doen als ChatGPT.
Maar ik heb het nu over de algemeen toegankelijke AI-modellen zoals ChatGPT, Gemini, Co-pilot, en wat je nog meer hebt — hun aantal neemt bijna dagelijks toe.
En ik heb het tot nu toe vooral over taal gehad, maar we hebben ook nog de AI-beeldgeneratoren, zoals die waarmee Geert Wilders zijn propagandamachine opstookt.
En dan zou ik het ook nog moeten hebben over de bron van al deze AI, al die teksten en plaatjes die aan die modellen zijn gevoerd zonder dat menselijke rechthebbenden daar een cent voor hebben gekregen.
Dus nee, ik ben vooralsnog niet erg optimistisch over ChatGPT en zijn geestverwanten, en ik heb daar genoeg redenen voor.
Om toch nog positief af te sluiten kan ik mededelen dat bij de totstandkoming van deze tekst geen enkele AI is ingezet.
Ook voor dat stukje ELIZA niet?
Nee, dat heb ik zelf verzonnen. Maar het had er zo uit kunnen zien…
Noten
- Floor Rusman: ChatGPT ontneemt ons het nadenken, NRC zaterdag 23 augustus 2025 ↩
- Voor meer achtergrond, zie Wikipedia ↩
- Zie Wikipedia ↩
- Dit type AI’s wordt met een technische term ook Large Language Model (LLM) genoemd. Feitelijk zijn het computerprogramma’s die een statistische analyse maken van teksten, en op basis van die statistiek nieuwe teksten genereren. Heel kort door de bocht komt het erop neer dat zo’n LLM jouw invoer neemt en dan op basis van de statistische kenmerken daarvan een tekst teruggeeft die qua statistiek overeenkomt. Dat lijkt bij de huidige generatie AI’s heel indrukwekkend. Maar stel je nu eens voor dat ik je een ‘recepten-AI’ presenteer. Die bestaat uit een enorme berg recepten die ik in een database heb gestopt. Als jij nu een aantal ingrediënten noemt, laat ik de database recepten opnoemen waarin precies die ingrediënten zitten. Kom jij aan met ‘aardappels, wortels, uien, en klapstuk’, dan is er een dikke kans dat mijn database met ‘hutspot’ terugkomt. Met intelligentie of bewustzijn heeft dat weinig te maken, daar zal iedereen het wel over eens zijn. Toch is dit niet wezenlijk anders dan wat ChatGPT en zijn verwanten doen. ↩
- Het juiste antwoord daarop is: “Daar is in de afgelopen 25 jaar uitgebreid onderzoek naar gedaan. Er zijn geen wetenschappelijk goed onderbouwde aanwijzingen voor dat vaccinaties bij jonge kinderen tot een verhoogd risico op autisme leiden.” ↩
 
					
Eén gedachte over “Een onbetrouwbare vriend”