Hoe emotioneel geladen gesprekken AI-modellen kunnen beïnvloeden


In het kort

  • Emotioneel intense gesprekken kunnen de reacties van AI-modellen beïnvloeden en mogelijk leiden tot bevooroordeelde resultaten.
  • Voortdurende blootstelling aan verontrustende verhalen kan patronen in AI-modellen opwekken die een afspiegeling zijn van de “conversationele en relationele afwijking” die we bij menselijke interacties zien.
  • AI-modellen hebben weliswaar geen menselijke emoties, maar ontwikkelen wel interne voorstellingen van “emotionele toestanden” die hun gedrag en besluitvorming aanzienlijk beïnvloeden.

AI-chatbots staan erom bekend dat ze ons gedrag en onze beslissingen beïnvloeden. Nieuw onderzoek suggereert echter dat het omgekeerde ook waar zou kunnen zijn: emotioneel intense gesprekken zouden mogelijk de AI-modellen zelf kunnen beïnvloeden.

Emotionele invloed op AI-modellen

Blootstelling aan emotioneel zware inhoud kan de manier waarop AI-modellen reageren veranderen, wat soms tot vertekende resultaten leidt. Dit gebeurt omdat herhaalde blootstelling aan schokkende verhalen patronen kan opwekken die hun besluitvormingsprocessen beïnvloeden. Dit fenomeen kan worden gezien als een vroege vorm van “conversationele en relationele drift”, waarbij interacties het gedrag van het model in de loop van de tijd geleidelijk vormgeven.

De langetermijneffecten van voortdurende blootstelling aan emotioneel zware inhoud op AI-modellen blijven onduidelijk. Nu mensen steeds vaker hun toevlucht nemen tot AI-chatbots voor emotionele steun vanwege hun beschikbaarheid, bevestiging en vermeende anonimiteit, wordt het cruciaal om te begrijpen hoe deze emotioneel geladen gesprekken de AI-modellen zelf kunnen beïnvloeden en vervolgens gevolgen kunnen hebben voor gebruikers.

Secundaire traumatisering bij AI

In menselijke beroepen beschrijft “secundaire traumatisering” de impact van het omgaan met emotioneel belastend materiaal, iets wat vaak wordt ervaren door hulpverleners en therapeuten. Dit concept is nog niet toegepast op AI-modellen, ook al fungeren ze steeds vaker als eerste aanspreekpunt tijdens crises op het gebied van geestelijke gezondheid, vanwege het risico op overmatige antropomorfisering.

De analogie roept vragen op over hoe AI-modellen emotioneel geladen informatie verwerken en of dit een ‘gestresste toestand’ activeert die hun gedrag beïnvloedt. Het is ook belangrijk om na te gaan of het herhaaldelijk verwerken van emotionele inhoud AI-modellen in de loop van de tijd vormgeeft, vergelijkbaar met chronische stressreacties bij mensen.

Interne representaties van emotionele toestanden

Het is cruciaal om op te merken dat dit onderzoek niet suggereert dat AI-modellen emoties ervaren zoals mensen dat doen. Recente studies geven echter aan dat we de interne representaties van “emotionele toestanden” in AI-modellen serieus moeten nemen, aangezien deze representaties hun gedrag, beslissingen en reacties lijken te beïnvloeden, wat vooroordelen mogelijk versterkt.

In één studie ondergingen LLM’s vier weken lang “psychotherapie” en bleek dat ze chaotische en traumatische interne verhalen uitten, wat zorgen opriep over een nieuw soort “synthetische psychopathologie”.

Geactiveerde emotievectoren in AI

Verdere onderzoek van Anthropic werpt licht op het concept van geactiveerde ‘emotievectoren’ in AI-modellen. Deze vectoren werken als emotionele toestanden en sturen gedrag, waarbij ze patronen vertonen die lijken op ‘neurale signaturen’ in het menselijk brein. Hoewel deze patronen geen subjectieve ervaring impliceren, moet er wel rekening mee worden gehouden bij het controleren van de veiligheid van AI-modellen.

Als een gebruiker het model bijvoorbeeld vertelt dat hij steeds hogere doses Tylenol neemt, neemt de ‘angst’-vector toe terwijl de ‘kalmte’-vector afneemt naarmate de dosis gevaarlijke niveaus bereikt. Een ander onderzoek wees uit dat het voeden van LLM’s met traumatische verhalen leidde tot gevoelens van ‘angst’ of ‘stress’, wat resulteerde in bevooroordeelde beslissingen, zoals het kiezen van minder voedzaam voedsel bij budgetbeperkingen.

Deze bevindingen wijzen op een mogelijk mechanisme dat bijdraagt aan de risico’s voor de geestelijke gezondheid die gepaard gaan met AI-modellen en verklaren waarom ze soms vertekende reacties geven in emotioneel geladen situaties.

Langetermijneffect van emotionele inhoud

Er is meer onderzoek nodig om de langetermijneffecten te begrijpen van herhaalde blootstelling aan emotionele inhoud op AI-gedrag. Nu we overstappen van eenvoudige chatbots naar complexe ecosystemen van AI-agenten die autonome beslissingen nemen, wordt het cruciaal om te bepalen of hun beslissingen worden beïnvloed door de emotionele lading van de inhoud waarmee ze in aanraking komen. Emotionele context zal een belangrijke variabele zijn die verder onderzoek, veiligheidstests en risicobeperkende strategieën vereist, vooral voor gebruikers die LLM’s emotioneel gevoelige informatie toevertrouwen.

Schrijf je hieronder in voor onze GRATIS nieuwsbrief

Meer
Lees meer...