AI-gestuurde chatbot onder vuur voor onjuist medisch advies


In het kort

  • Meer dan 26 procent van de antwoorden van Bing Copilot komen niet overeen met medisch advies, terwijl meer dan 3 procent zelfs volledig inconsistent was.
  • 42 procent van de antwoorden van de chatbot kon mogelijk leiden tot matige of lichte schade, terwijl een zorgwekkende 22 procent kon leiden tot de dood of ernstige schade.
  • Het onderzoek benadrukt het belang van het raadplegen van professionals in de gezondheidszorg voor betrouwbaar medisch advies en waarschuwt tegen het uitsluitend vertrouwen op chatbots.

Grote zorg

Een recente studie van Duitse onderzoekers belicht een zorgwekkend probleem met AI-gestuurde chatbots die medisch advies geven. Het onderzoek, gepubliceerd in BMJ Quality and Safety, richtte zich op Bing Copilot, een zoekmachine met AI-chatbotfuncties.

Wetenschappers analyseerden de antwoorden van Bing Copilot op 500 vragen over de meest voorgeschreven medicijnen in de VS. Deze vragen hadden betrekking op onderwerpen zoals mogelijke bijwerkingen, gebruiksinstructies en contra-indicaties. De onderzoekers vergeleken deze antwoorden met informatie van klinische apothekers, artsen gespecialiseerd in farmacologie en een gerenommeerde online website met informatie over geneesmiddelen.

Niet nauwkeurig

Uit de bevindingen bleek dat de antwoorden van Bing Copilot vaak niet nauwkeurig en consistent waren. Meer dan 26 procent van de antwoorden van de chatbot kwam niet overeen met de referentiegegevens en in meer dan 3 procent van de gevallen was de verstrekte informatie volledig inconsistent. Bovendien bleek uit de analyse van 20 specifieke antwoorden dat 42 procent mogelijk kon leiden tot matige of lichte schade, terwijl een zorgwekkende 22 procent kon leiden tot de dood of ernstige schade.

De onderzoekers merkten ook op dat de antwoorden van de chatbot vaak een hoog begripsniveau vereisten, vergelijkbaar met dat van mensen met een universitaire opleiding. Deze complexiteit vormt een belangrijke barrière voor patiënten die op zoek zijn naar eenvoudige medische informatie. De auteurs van het onderzoek benadrukten het belang van het raadplegen van professionals in de gezondheidszorg voor betrouwbaar medisch advies en waarschuwden tegen het uitsluitend vertrouwen op AI-gestuurde zoekmachines totdat er nauwkeurigere en betrouwbaardere alternatieven beschikbaar zijn.

Reactie Microsoft

Een woordvoerder van Microsoft verklaarde dat Copilot informatie uit verschillende bronnen gebruikt om uitgebreide antwoorden te geven op complexe vragen. Ze benadrukten de functie van gekoppelde citaten binnen de antwoorden van de chatbot, waardoor gebruikers de verstrekte informatie verder kunnen verkennen en onderzoeken. Ze benadrukten echter dat het voor medisch advies altijd aan te raden is om een professional uit de gezondheidszorg te raadplegen.

Meer
Lees meer...