Na de OpenAI-saga: hoe gevaarlijk kan AI worden?

Na de saga bij OpenAI, waar CEO Sam Altman eerst ontslagen werd en vervolgens toch terugkeerde door een meningsverschil over innovatie, is de vraag: hoe gevaarlijk kan Artificiële Intelligentie (AI) worden? Business AM legde de vraag voor aan Nathali Helberger, hoogleraar Recht in digitale technologie met focus op AI in de Universiteit van Amsterdam.

Wat voorafging: CEO Sam Altman werd door de raad van bestuur van OpenAI ontslagen na bezorgdheden over nieuwe innovatie op het gebied van AI: Altman wilde nieuwe geavanceerde Q*-technologie doorzetten. Inmiddels zijn de meningsverschillen bijgelegd en keerde hij terug bij het techbedrijf.

  • Helberger zoomt in op het onderliggende probleem: “AI kan een waanzinnig handig tool zijn, maar wanneer het in foute handen komt en niet goed gemanaged wordt, kan het ook een gevaar voor de realisatie van onze fundamentele rechten zijn. Zoals vrijheid, autonomie, vrijheid van meningsuiting, maar ook vertrouwen in publieke voorzieningen en in de media.”
  • “Het belangrijkste is dat AI goed gemanaged moet worden. Je kunt niet gewoon wild innoveren, maar je moet heel goed nadenken wat de impact hiervan is voor de maatschappij en voor de fundamentele rechten.”
  • “De hele discussie rond OpenAI en Sam Altman is een heel goed voorbeeld waarom wij veel beter moeten kijken als we het over regulering hebben”, aldus Helberger. “Hoe worden die grote AI-groepen gemanaged? Is er toezicht en overzichtsstructuren die ervoor zorgen dat we erop kunnen vertrouwen dat men weet wat hun technologie doet en wat de impact is. Men moet ook nadenken over hoe die technologie ons, burgers en maatschappij, raakt.”

Meer transparantie rond AI?

  • “Misbruik van AI-technologie om deepfakes te creëren, desinformatie te verspreiden of vertrouwen in onze democratische instituties te ondermijnen is iets wat heel moeilijk in te schatten is. Daar is redelijk moeilijk grip op te krijgen.”
  • “Daarom denken we in Europa na over een nieuwe manier om meer transparantie en meer controleerbaarheid van technologie te creëren. En daarom is het ook zo belangrijk dat in de AI Act heel heldere regels over de verantwoordelijkheid voor financiële modellen als ChatGPT komen.”

De vraag: Hoe moeten we artificiële intelligentie controleren?

  • Helberger pleit dus voor een grote mate van transparantie, over zaken waar we vandaag weinig zicht op hebben: “We moeten weten dat die systemen gecheckt zijn op biases, op discriminatie. Dat het materiaal wat je gebruiken niet de privacy of de auteursrechten van anderen verstoren. En dat er mechanismen ingebouwd zijn en communicatie gaande is, zodat we kunnen leren hoe die modellen getraind zijn.”
  • “De maatschappij moet nadenken hoe iedereen van ons daar verantwoord mee omgaat. Ik denk dat iedereen een individuele verantwoordelijkheid heeft”, sluit ze af.
Meer
Lees meer...