Hoe weet je of je met een persoon of met een computer te maken hebt? Deze vraag stond aan de basis van de wereldberoemde Turingtest uit de jaren dertig van de vorige eeuw. Het experiment, bedacht door de wiskundige en computerpionier Alan Turing, was een praktische vertaling van een veel ingewikkelder vraag, namelijk: kunnen machines denken?
Deze vraag roept allerlei nieuwe ingewikkelde vragen op. Waaronder: ‘Wat is eigenlijk denken?’ Deze vraag wist Turing te omzeilen met zijn experiment. Of computers kunnen denken is namelijk helemaal niet zo relevant. Als wij computers weten te ontwerpen die de indruk wekken dat zij kunnen denken, dan is dat voldoende. En dus ontwierp Turing een experiment waarbij een persoon chat met een mens/machine. Als die persoon niet meer kan bepalen of hij/zij met een machine dan wel een mens te maken heeft, dan zou je kunnen zeggen dat de machine kan denken.
Kunnen mensen eigenlijk wel denken?
Fast forward naar onze tijd. Inmiddels chatten wij met zelflerende machines die binnen enkele seconden een coherente tekst of andere informatie ophoesten op basis van een simpele vraag (een prompt). Daarmee troeft de computer de mens op alle fronten af: op snelheid, op de hoeveelheid aan informatie die het kan doorzoeken en opleveren, op samenhang van de tekst, en zelfs op ideeën-generatie. Vergeleken daarmee zijn wij mensen maar beperkte wezens. Binnenkort zal de machine zich wellicht de vraag stellen: kunnen mensen eigenlijk wel denken?
De vraag ‘Kunnen machines denken?’ hebben we uiteraard ook voorgelegd aan ChatGPT. Het antwoord is genuanceerd en goed onderbouwd. Een citaat:
'Of machines kunnen denken hangt af van de definitie van "denken". Als denken wordt gedefinieerd als geavanceerde informatieverwerking en taakuitvoering, dan kunnen moderne AI-systemen worden gezien als denkende entiteiten binnen bepaalde grenzen. Echter, als denken wordt gezien als bewustzijn, begrip en subjectieve ervaring, dan kunnen machines op dit moment niet denken zoals mensen dat doen.'
Let ook op de woordjes: ‘op dit moment’. Dat belooft nog wat.
De kwestie van aansprakelijkheid
Je kunt alleen maar vol ontzag naar deze ontwikkeling kijken. En tegelijk roept het ook allerlei vragen op. Allereerst natuurlijk ethische vragen. Kan ChatGPT of een andere AI-tool verantwoordelijk worden gehouden voor de informatie die hij/zij/het ophoest? Stel dat een ceo van een groot bedrijf een beslissing neemt op basis van de informatie die zij heeft vergaard door middel van AI? Wie is dan verantwoordelijk als die beslissing desastreus uitpakt?
En in dat geval zit er nog een menselijke interventie tussen, maar stel nou dat we AI-tools zelf beslissingen laten nemen zonder tussenkomst van de mens. In feite is dat al aan de orde, bijvoorbeeld door het gebruik van algoritmes om te bepalen of mensen in aanmerking komen voor een hypotheek, een baan, of potentieel een fraudeur is. Weliswaar nemen mensen nu nog vaak de uiteindelijke beslissing en kunnen zij de machine corrigeren, maar zij doen dit veelal op basis van informatie die wordt aangeleverd door diezelfde machines. Hoe betrouwbaar is die informatie, en wie controleert dat? Zijn wij mensen überhaupt nog in staat om de machines te controleren die wij zelf hebben gebouwd?
AI als gigantische digitale klankkast
Daarmee komen we bij het tweede grote vraagstuk: de betrouwbaarheid van de informatie. ChatGPT en andere AI-tools verzinnen zelf helemaal niks. Het enige wat ze doen is graven in de gigantische berg data die in de miljoenen databases wereldwijd ligt opgeslagen. Dit pompen ze vervolgens rond. Maar de kwaliteit van die informatie verschilt nogal. Zo vinden we op internet de meest doorwrochte en peer-reviewed wetenschappelijke papers naast roddels en achterklap. Ook onbewezen of achterhaalde theorieën en roddels worden volop gedeeld op internet.
In feite vormen ChatGPT en de andere AI-tools niet veel meer anders dan een gigantische digitale klankkast of een spiegelpaleis waarin data voortdurend wordt rondgepompt en versterkt. Het is de grot van Plato in optima forma, een simulatie van de werkelijkheid die boven op de werkelijkheid is komen te liggen. Dat maakt de aloude filosofische vraag ‘wat is waar, en wat niet?’ steeds lastiger te beantwoorden.
Geen last van ego
Ook de vraag ‘hoe betrouwbaar is de informatie van ChatGPT?’ legden we voor aan ChatGPT. Wat in het antwoord opvalt is dat de tool in elk geval geen last heeft van ego. Zo geeft de tool zelf aan dat het niet altijd consistent is in zijn antwoorden, en dat er de mogelijkheid bestaat van bias.
‘Samengevat is de informatie van ChatGPT vaak nuttig en kan het dienen als een startpunt voor verder onderzoek, maar het moet altijd met voorzichtigheid en kritisch denken worden gebruikt.’
Het risico bestaat daarmee dat alternatieve waarheden steeds prominenter naar voren komen, en dat daar weinig aan te doen is. Want ChatGPT kan wel waarschuwen dat de informatie die hij/het deelt met voorzichtigheid moet worden gebruikt, maar op basis waarvan dan?
In het digitale spiegelpaleis van AI is niets meer wat het lijkt, en is alles waar of onwaar. Wie zal het zeggen? ChatGPT?
Waar vind ik toepasbare kennis en gedeelde ervaringen?
Probeer het Pro-abonnement een maand gratis
En krijg toegang tot de kennisbank. 110 onderwerpen, kritisch, wars van hypes, interactief en geselecteerd op wat wél werkt.
Word een PRO