In het kort
- AI-chatbots kunnen onjuiste medische info geven, waardoor ze riskant zijn voor zelfdiagnose.
- Gebruikers hebben vaak moeite om betrouwbaar advies te onderscheiden van onjuiste informatie die door AI wordt gegenereerd.
- Zelfs geavanceerde AI-modellen hebben moeite om zinvolle menselijke interactie na te bootsen, wat cruciaal is voor de gezondheidszorg.
Een recent onderzoek door onderzoekers van de Universiteit van Oxford heeft zorgen gewekt over de veiligheid van het gebruik van AI-chatbots voor medisch advies. Het onderzoek, geleid door dr. Rebecca Payne van het Nuffield Department of Primary Care Health Sciences, benadrukt de mogelijke gevaren van het vertrouwen op AI voor beslissingen op het gebied van gezondheid.
Gemengde nauwkeurigheid baart zorgen
Bij het onderzoek waren bijna 1300 deelnemers betrokken. Ze werden gevraagd mogelijke gezondheidsproblemen te identificeren en op basis van verschillende scenario’s te bepalen wat de juiste maatregelen waren. Sommige deelnemers gebruikten AI-software met een groot taalmodel (LLM) voor diagnose en begeleiding, terwijl anderen een huisarts raadpleegden. Uit de evaluatie van de onderzoekers bleek dat de AI vaak een mix van accurate en onjuiste informatie gaf, waardoor het voor gebruikers moeilijk was om betrouwbaar advies te onderscheiden.
Mogelijke risico’s
Dr. Payne, die ook als huisarts werkt, benadrukt dat patiënten zich bewust moeten zijn van de mogelijke risico’s van het inwinnen van medisch advies bij AI-chatbots. Deze systemen kunnen onjuiste diagnoses stellen of situaties die dringende medische hulp vereisen, niet herkennen. Enkel en alleen vertrouwen op advies van AI-chatbots is dus niet aangeraden.
Gebrekkige interactie tussen mens en AI
Hoofdauteur Andrew Bean van het Oxford Internet Institute geeft toe dat zelfs de meest geavanceerde LLM’s moeite hebben met zinvolle menselijke interactie. Hij hoopt dat dit onderzoek zal bijdragen aan de ontwikkeling van veiligere en nuttigere AI-systemen voor de toekomst.
