In het kort
- OpenAI heeft ChatGPT Health in de VS gelanceerd om gepersonaliseerd gezondheidsadvies te geven door medische dossiers en app-gegevens van gebruikers te analyseren.
- Ondanks de privacygaranties van OpenAI maken activisten zich zorgen over mogelijk misbruik van gevoelige gezondheidsinformatie voor reclame en winst.
- ChatGPT Health is nu alleen beschikbaar in de VS vanwege strengere regels voor gegevensbescherming in andere regio’s, zoals het Verenigd Koninkrijk en de EER.
OpenAI heeft in de VS een nieuwe ChatGPT-functie geïntroduceerd, ChatGPT Health, die medische dossiers en app-gegevens van gebruikers analyseert om persoonlijk gezondheidsadvies te geven. Hoewel OpenAI benadrukt dat deze functie niet bedoeld is voor diagnose of behandeling en dat gesprekken apart van andere ChatGPT-interacties worden opgeslagen, maken activisten zich zorgen over de privacy.
Zorgen over gegevensprivacy
Andrew Crawford van het Center for Democracy and Technology benadrukt hoe belangrijk het is om gevoelige gezondheidsinformatie van gebruikers goed te beschermen. Hij wijst op de mogelijke risico’s van AI-bedrijven die hun diensten willen personaliseren door gegevens te verzamelen, vooral nu OpenAI reclame als verdienmodel onderzoekt.
OpenAI zegt dat ChatGPT Health betere privacymaatregelen heeft om gevoelige gegevens te beschermen. Gebruikers kunnen info uit verschillende gezondheidsapps delen en zelfs medische dossiers uploaden voor betere antwoorden op hun gezondheidsvragen. Het bedrijf benadrukt dat de gezondheidsfunctie bedoeld is als ondersteuning van, en niet als vervanging van, traditionele medische zorg.
Discussie over misbruik van gegevens
Ondanks deze garanties heeft de lancering van ChatGPT Health een discussie op gang gebracht over het mogelijke misbruik van persoonlijke gezondheidsgegevens. Max Sinclair, CEO van AI-marketingplatform Azoma, noemt het een “keerpunt” dat een grote impact kan hebben op zowel de patiëntenzorg als de detailhandel.
Er blijven echter zorgen bestaan over de nauwkeurigheid van de informatie die door AI-chatbots wordt verstrekt, die soms op overtuigende wijze valse of misleidende uitspraken kunnen genereren. Bovendien is ChatGPT Health momenteel alleen beschikbaar in de VS, met uitzondering van regio’s als het Verenigd Koninkrijk, Zwitserland en de Europese Economische Ruimte vanwege strengere regelgeving op het gebied van gegevensbescherming. Crawford waarschuwt dat bedrijven die niet aan deze regelgeving onderworpen zijn, persoonlijke gezondheidsgegevens kunnen verzamelen, delen en gebruiken zonder adequate waarborgen.
