ChatGPT geeft rechtser getinte antwoorden, blijkt uit onderzoek


In het kort

  • ChatGPT neigt mogelijk naar rechts in het politieke spectrum.
  • Modellen zoals GPT-3.5 en GPT-4 vertonen een verschuiving naar rechts in de loop van de tijd.
  • Evoluerende trainingsdatasets, meer gebruikersinteracties of updates van de chatbot zelf kunnen hieraan bijdragen.

Een nieuwe studie van de Universiteit van Peking onthult dat ChatGPT, de populaire AI-chatbot van OpenAI, mogelijk naar rechts neigt in het politieke spectrum. De onderzoekers analyseerden de antwoorden van ChatGPT op vragen gebaseerd op de Political Compass Test. Deze online tool meet politieke voorkeuren. Hoewel ChatGPT over het algemeen “libertair links” blijft, vertonen modellen zoals GPT-3.5 en GPT-4 in de loop van de tijd een duidelijke verschuiving naar rechts.

Deze studie bouwt voort op eerder onderzoek van MIT en het Britse Centre for Policy Studies. Die onderzoeken stelden een links georiënteerde vooringenomenheid vast in grote taalmodellen (LLM’s) en beloningsmodellen. De onderzoekers van de Universiteit van Peking keken echter naar hoe AI-chatbots evolueren bij herhaalde vragen.

Zij stellen drie mogelijke verklaringen voor de verschuiving naar rechts:

  • Evoluerende trainingsdatasets.
  • Toegenomen gebruikersinteracties.
  • Updates van de chatbot zelf.

Implicaties van de verschuiving

ChatGPT leert voortdurend en past zich aan op basis van gebruikersfeedback. De rechtse kanteling kan daarom een afspiegeling zijn van bredere maatschappelijke veranderingen in politieke waarden. Wereldwijde gebeurtenissen, zoals de oorlog tussen Rusland en Oekraïne, kunnen ook invloed hebben op zowel gebruikersvragen als chatbotreacties. Dit kan bestaande vooroordelen versterken.

Onderzoekers waarschuwen dat AI-chatbots onbedoeld scheve informatie kunnen leveren als hier niets aan wordt gedaan. Dit kan leiden tot meer polarisatie in de samenleving of “echokamers” die individuele overtuigingen versterken.

Risico’s beperken en transparantie bevorderen

Om deze risico’s te beperken, pleit het onderzoek voor voortdurende controle van AI-modellen. Dit kan door regelmatige audits en transparante rapportage. Zo blijven chatbotreacties eerlijk en evenwichtig. Dit draagt bij aan een beter geïnformeerd publiek debat.

Meer
Lees meer...