Florida onderzoekt mogelijke rol van ChatGPT bij schietpartij


In het kort

  • De procureur-generaal van Florida onderzoekt of OpenAI strafrechtelijk aansprakelijk kan worden gesteld voor ChatGPT. Volgens hem zou de chatbot hebben geholpen bij een dodelijke schietpartij.
  • Het bewijzen van strafrechtelijke nalatigheid of roekeloosheid tegen OpenAI in de rechtbank is juridisch ingewikkeld door de werking van AI.
  • Deze zaak laat zien dat er duidelijke regels nodig zijn voor de ontwikkeling van AI en de mogelijke gevolgen daarvan.

Een incident aan de Florida State University vorig jaar heeft een ingewikkeld juridisch debat op gang gebracht. Het gaat over de strafrechtelijke verantwoordelijkheid van ontwikkelaars van AI. Phoenix Ikner was de dader van de schietpartij. Daarbij kwamen twee mensen om en vielen zes gewonden. Hij zou vooraf ChatGPT hebben geraadpleegd. Dat meldt France 24.

Florida start strafrechtelijk onderzoek

Onderzoekers zeggen dat Ikner de chatbot zou hebben gevraagd naar het kiezen van wapens, het soort munitie en het beste moment en de plaats om zoveel mogelijk slachtoffers te maken. Volgens hen zou de AI op deze vragen hebben geantwoord. Daarom is de procureur-generaal van Florida, James Uthmeier, een strafrechtelijk onderzoek gestart tegen OpenAI, de maker van ChatGPT. Hij bekijkt of het bedrijf strafrechtelijk verantwoordelijk kan worden gehouden voor de rol van de chatbot in de misdaad.

Volgens de Amerikaanse wet kunnen aanklagers een bedrijf wel strafrechtelijk vervolgen, maar dat gebeurt zelden. Meestal is dat alleen het geval als menselijke beslissingen duidelijk tot fout gedrag hebben geleid.

Experts zien moeilijke bewijsvoering

De zaak-Ikner verschilt sterk omdat het gaat om een technologie die de misdaad volgens de beschuldigingen zou hebben aangemoedigd en mogelijk vergemakkelijkt. Juridische experts zeggen dat aanklachten wegens nalatigheid of roekeloosheid tegen OpenAI mogelijk zijn. Toch blijft het heel moeilijk om die aanklachten te bewijzen in een strafrechtbank.

OpenAI zegt dat ChatGPT niet verantwoordelijk is voor de aanval en stelt dat het bedrijf voortdurend werkt aan betere veiligheidsmaatregelen en het beperken van mogelijke schade.

Discussie over aansprakelijkheid van AI

Sommigen zeggen dat civiele rechtszaken een praktischer manier zijn om verantwoordelijkheid af te dwingen. Zulke zaken kunnen ontwikkelaars aanzetten om bij het ontwerp meer rekening te houden met de gevolgen voor mensen. In de VS lopen al verschillende civiele rechtszaken tegen AI-platforms, waaronder zaken waarin wordt beweerd dat ze hebben bijgedragen aan zelfmoorden, maar tot nu toe is nog geen enkel bedrijf veroordeeld.

Schrijf je hieronder in voor onze GRATIS nieuwsbrief

Voeg newsmonekey.be toe als preferred source op Google
Meer
Lees meer...
301 Moved Permanently

301 Moved Permanently


nginx/1.14.1