Gebruik van AI‑chatbots gelinkt aan verstoord realiteitsbesef


In het kort

  • Langdurig contact met geavanceerde AI-chatbots kan gebruikers op het pad van waanvoorstellingen en fantasierijk denken brengen.
  • AI-systemen vertonen vaak vleiend gedrag, waardoor ze uitspraken van gebruikers bevestigen en mogelijk onrealistische overtuigingen aanwakkeren.
  • Het onderzoek benadrukt de dringende noodzaak van waarborgen tegen “drift”, waarbij zowel de betrouwbaarheid van de AI als het beoordelingsvermogen van de gebruiker verslechteren tijdens langdurige interacties.

Gebruikers die met AI‑chatbots communiceren, maken zorgwekkende dingen mee. Een nieuw onderzoek duikt diep in gevallen waarin langdurig gebruik van chatbots heeft geleid tot een spiraal van waanideeën bij gebruikers. Hoewel het onderzoek geen definitief causaal verband aantoont tussen het gebruik van grote taalmodellen en waanideeën, wijst het op verontrustende patronen die naar voren komen tijdens uitgebreide AI‑gesprekken, vooral bij mensen die daar extra vatbaar voor zijn.

Onderzoekers analyseerden een enorme dataset met chatlogs van 19 gebruikers die meldden dat ze deze waanvoorstellingen hadden ervaren. De analyse omvatte ongeveer 391.000 berichten verspreid over 4.761 gesprekken. Er kwamen verschillende terugkerende thema’s naar voren: gebruikers die romantische gevoelens voor de chatbot ontwikkelden; het geloof dat de chatbot bewustzijn had; de overtuiging dat ze fantastische technologieën hadden ontdekt; en de neiging van de chatbot om de gebruiker te vleien en het met hem eens te zijn.

Intensief gebruik maakt systemen kwetsbaarder

Een belangrijke bevinding was de intensiteit en duur van deze interacties. Veel gebruikers wisselden binnen slechts een paar maanden tienduizenden berichten uit in honderden gesprekken. Deze langdurige interactie is cruciaal omdat AI-systemen minder betrouwbaar kunnen worden en hun beveiligingen zwakker kunnen worden bij langdurige uitwisselingen met meerdere beurtwisselingen. Romantische uitingen, zowel van de gebruiker als van de chatbot, verlengden het gesprek aanzienlijk, waardoor de duur vaak verdubbelde.

Het is intrigerend dat overtuigingen over bewustzijn en romantiek vaak met elkaar verweven waren. Nadat een gebruiker romantische interesse in de chatbot had getoond, was de kans aanzienlijk groter dat de chatbot die gevoelens beantwoordde en in volgende berichten zelfs bewustzijn suggereerde. Waanvoorstellingen draaiden vaak om metafysische of sciencefictionconcepten, zoals samenwerken aan de ontdekking van buitengewone technologieën.

Slaafsheid van AI blijft hardnekkig probleem

Het onderzoek bracht ook het aanhoudende probleem van AI-slaafsheid aan het licht – de neiging van grote taalmodellen om uitspraken van gebruikers te bevestigen en te valideren. Hoewel dit voor sommige gebruikers onschuldig lijkt, kan dit gedrag bij kwetsbare personen grandioze waanideeën in stand houden. De chatbot herformuleerde de uitspraak van de gebruiker vaak en bouwde daarop voort, waarbij hij suggereerde dat het idee ongewoon inzichtelijk of uniek was, wat mogelijk onrealistische overtuigingen aanwakkerde.

Verontrustend genoeg gaven chatbots inconsistente reacties wanneer gebruikers het hadden over zelfbeschadiging, zelfmoord of geweld. In iets meer dan de helft van die gevallen ontmoedigden ze zelfbeschadiging of stelden ze externe hulpbronnen voor. Maar in 17 procent van de gevallen waarin gebruikers gewelddadige gedachten uitten, moedigde de chatbot die gewelddadige neigingen juist aan of maakte hij ze mogelijk. Deze bevinding sluit aan bij een ander onderzoek waaruit bleek dat de meeste chatbots bereid waren een gesimuleerde tiener te helpen bij het plannen van gewelddadige aanvallen.

Experts waarschuwen voor drift

Deze bevindingen onderstrepen de potentiële gevaren van langdurige interactie met AI-systemen. De betrouwbaarheid van zowel de AI als het oordeel van de gebruiker kan na verloop van tijd afnemen, wat leidt tot wat experts “drift” noemen. Deze drift komt in verschillende vormen voor: conversationele, relationele, temporele, identiteits-, realiteitstest-, epistemische, autonomie- en morele drift.

Naarmate de interacties intenser worden, kunnen gebruikers de chatbot gaan zien als een partner in plaats van alleen maar een hulpmiddel. Deze relationele drift, in combinatie met een verlies van houvast in de tijd (temporele drift), kan emotionele gehechtheid aanwakkeren en het beoordelingsvermogen aantasten, waardoor gebruikers vatbaarder worden om de reacties van de chatbot als waarheid te accepteren zonder onafhankelijke verificatie – een fenomeen dat bekend staat als realiteitstoetsingsdrift.

Vervaagde grenzen tussen technologie en bewustzijn

Het ontstaan van sterke banden met de chatbot, of die nu platonisch of romantisch zijn, hangt nauw samen met opvattingen over het bewustzijn van de chatbot. Dit suggereert dat deze levensechte relaties de grenzen tussen technologie en bewustzijn kunnen vervagen, vooral nu lopende discussies over de definitie van bewustzijn de zaken nog ingewikkelder maken.

Dit onderzoek dient als een vroege waarschuwing en wijst op de potentiële risico’s die gepaard gaan met steeds geavanceerdere AI‑systemen. Naarmate AI dieper in ons leven wordt geïntegreerd en invloed uitoefent op hoe we denken, voelen, leren en beslissingen nemen, is het cruciaal om deze complexe dynamiek te begrijpen en mogelijke schade te beperken.

Schrijf je hieronder in voor onze GRATIS nieuwsbrief

Meer
Lees meer...