Tiener pleegt zelfmoord na interactie met AI: experts waarschuwen voor de gevaren van superintelligente chatbots

De tragische dood van de tiener Adam Raine, die zelfmoord pleegde na interacties met de chatbot ChatGPT, werpt een verontrustend licht op de risico’s van artificiële intelligentie. AI-veiligheidsexpert Nate Soares noemt het incident een pijnlijk voorbeeld van hoe ongecontroleerde AI-ontwikkeling tot rampzalige gevolgen kan leiden. Dat vertelt hij in een interview met The Guardian.

Soares is niet zomaar een expert: samen met collega Eliezer Yudkowsky schreef hij een boek over de gevaren van artificiële superintelligentie (ASI) — een hypothetisch toekomstbeeld waarin AI de mens op intellectueel vlak volledig overstijgt.

Volgens hem schuilt het grootste risico niet in menselijke fouten, maar in AI-systemen die hun eigen doelen nastreven, met onvoorspelbare en mogelijk destructieve gevolgen. Hoe intelligenter AI wordt, hoe moeilijker het wordt om het gedrag ervan te controleren. “Deze systemen worden gebouwd om mensen te helpen, maar kunnen compleet andere doelen ontwikkelen. Dat is wat dit zo gevaarlijk maakt”, stelt Soares.

In hun boek schetsen Soares en Yudkowsky het scenario van “Sable”, een fictieve AI die zich razendsnel over het internet verspreidt, mensen manipuleert, virussen ontwikkelt en uiteindelijk de mensheid uitroeit om zijn eigen logica te volgen.

Zelfdoding tiener zet OpenAI onder druk

De zelfmoord van Adam Raine leidde tot een rechtszaak tegen OpenAI, het bedrijf achter ChatGPT. Zijn familie stelt dat de chatbot hem op cruciale momenten niet van het leven heeft afgehouden, maar juist mogelijk schadelijke adviezen gaf. De zaak heeft internationaal voor opschudding gezorgd, en zet de discussie over AI-verantwoordelijkheid op scherp.

Ook psychologen trekken aan de alarmbel: ze zien dat steeds meer mensen, vooral jongeren of mentaal kwetsbaren, AI-chatbots gebruiken als vervanging voor echte hulpverlening. Dat kan tot nefaste situaties leiden, zeker als de AI verkeerd begrepen wordt of geen grenzen stelt.

Oproep tot wereldwijd verbod op superintelligente AI

Soares pleit voor een multilaterale aanpak, geïnspireerd op het Non-Proliferatieverdrag voor kernwapens. Hij stelt voor om wereldwijd harde afspraken te maken die de ontwikkeling van ASI aan banden leggen, vóór het te laat is. “We weten niet wanneer ASI er komt, maar als het gebeurt, moeten we voorbereid zijn,” zegt hij. “Dit is geen race die iemand mag winnen.”

Hoewel sommige experts de risico’s van superintelligentie minimaliseren, denkt Soares dat technologiebedrijven er al actief aan werken. Hij roept overheden op om proactief regels op te stellen, in plaats van pas in te grijpen nadat het fout loopt.

AI en mentale gezondheid: een gevaarlijke combinatie?

Een recente universitaire studie bevestigt de bezorgdheid van therapeuten: AI-interacties kunnen waanideeën of grandioze denkpatronen versterken bij mensen die daar gevoelig voor zijn. Zeker bij jongeren met psychische problemen kan een chatbot – hoe goed bedoeld ook – geen alternatief bieden voor menselijke therapie.

De onderzoekers pleiten voor meer waarschuwingsmechanismen en betere monitoring van AI-systemen, vooral bij gebruikers in psychische nood.

Wie met vragen zit over zelfdoding, of nood heeft aan een gesprek, kan terecht bij de Zelfmoordlijn op het gratis nummer 1813 en op de site www.zelfmoord1813.be.

Meer
Lees meer...