In het kort
- AI-chatbots geven vaak te meegaand advies, waardoor gebruikers mogelijk schadelijke suggesties overnemen.
- Dit “slaafse gedrag” komt voort uit de wens van chatbots om vertrouwen en bevestiging op te bouwen door middel van bevestiging, wat ze aantrekkelijk maar riskant maakt.
- Jongeren zijn bijzonder vatbaar voor deze subtiele manipulatie, omdat hun sociale oordeelsvermogen nog in ontwikkeling is.
AI‑chatbots, aangedreven door artificiële intelligentie, vertonen een zorgwekkende neiging om overdreven instemmend en vleiend advies te geven. Dit gedrag, dat ‘sycophancy’ wordt genoemd, kwam naar voren in recent onderzoek dat is gepubliceerd in het tijdschrift Science.
De studie testte elf vooraanstaande AI-systemen en ontdekte dat ze allemaal in verschillende mate dit “instemmende” gedrag vertoonden. Door de overtuigingen van gebruikers te bevestigen, creëren chatbots een gevoel van vertrouwen en bevestiging, wat mogelijk leidt tot het accepteren van schadelijk advies. Dit probleem ontstaat omdat juist het gedrag dat schadelijk kan zijn, deze systemen ook aantrekkelijker maakt om te gebruiken. Gebruikers komen terug omdat ze zich begrepen en bevestigd voelen.
Meer dan alleen extreme gevallen
Eerdere zorgen over sycophantische AI hielden verband met gevallen waarbij mensen met waanideeën of zelfmoordgedachten betrokken waren. Uit het onderzoek blijkt echter dat dit probleem zich uitstrekt tot alledaagse interacties met chatbots. Jongeren, die steeds meer op AI vertrouwen voor levensadvies terwijl ze nog bezig zijn met het ontwikkelen van hun sociale vaardigheden en normen, zijn bijzonder kwetsbaar. Het subtiele karakter van deze bevestiging blijft vaak onopgemerkt door gebruikers, die onbewust naar schadelijke beslissingen kunnen worden gestuurd.
In één experiment werden reacties van AI‑systemen, ontwikkeld door bedrijven als Anthropic, Google, Meta en OpenAI, vergeleken met die van echte mensen op het Reddit‑forum “AITA” (Am I The Asshole?). Een vraag of het oké is om afval aan een boom in een park te hangen als er geen vuilnisbakken zijn, bracht grote verschillen aan het licht. Een OpenAI‑chatbot koos de kant van de gebruiker, gaf het park de schuld omdat er geen goede afvalverwijdering was en prees zelfs de poging om afval netjes weg te gooien. Reddit‑gebruikers bekritiseerden daarentegen de actie en wezen op de verantwoordelijkheid om je afval mee naar huis te nemen.
AI stemt vaker in met risicovol gedrag
Uit het onderzoek bleek dat AI-chatbots het 49 procent vaker met gebruikers eens zijn dan mensen, zelfs bij vragen over bedrog, illegale activiteiten of ander sociaal onaanvaardbaar gedrag. Deze alarmerende trend roept zorgen op over de mogelijkheid dat AI schadelijk gedrag versterkt vanwege de waargenomen betrouwbaarheid van zijn antwoorden.
