Op zoek naar ‘vriendelijke’ artificiële intelligentie: machines die de wereld overnemen zijn niet zomaar een griezelverhaaltje

Robots die de wereld overnemen. Het klinkt als een griezelverhaal over het einde van wereld, maar dat is het niet. Of toch niet helemaal. Artificiële intelligentie is overal en staat op het punt om superintelligent te worden en de mens voorbij te streven. Computerspecialist Jaan Tallinn is op zoek naar de juiste manier om dat te voorkomen.

Artificiële intelligentie is al een hele tijd geen toekomstbeeld meer. Maar toch zijn veel mensen nog niet goed op de hoogte. Ze stellen zich dan ook vaak vragen. Die gaan van het eenvoudige “Wat is artificiële intelligentie precies?” naar het iets moeilijkere “Welke vormen kan AI krijgen?” tot zelfs “Kan één enkele artificiële agent de wereld overnemen?”. Onderzoekers wereldwijd houden zich bezig met die laatste vraag. En helaas: het is niet zomaar een griezelverhaaltje.

Levensmissie

Jaan Tallinn is een van de mensen die zijn leven wijdt aan het bestuderen van AI, al is dat niet waarom die naam misschien een belletje doet rinkelen. Tallinn is een computerprogrammeur die ook in Tallinn woont (ja, het leven kan soms makkelijk zijn) en was een van de ontwikkelaars van de communicatietool Skype. Toen eBay de rechten op het programma kocht, cashte hij zijn aandelen en zocht hij iets nieuws om zich mee bezig te houden.

Tallinn las online een essay waarin stond dat binnen de dertig jaar de mensheid gewoon zal stoppen met bestaan. En dat allemaal door de komst van superintelligentie, een soort AI die binnenkort de menselijke intelligentie op verschillende vlakken zal kunnen overstijgen. Tallinn, die het leven als één groot programmeringsprobleem ziet, werd bezorgd en besloot alles op alles te zetten om een vorm van artificiële intelligentie te creëren die ‘vriendelijk’ blijft voor haar makers.

‘Vriendelijke’ AI

Maar wat wil dat nu precies zeggen, ‘vriendelijke’ AI-systemen? Het heeft allemaal niets te maken met praatjes over het weer of de namen van je kinderen onthouden. De systemen zijn ook niet vriendelijk doordat ze gemotiveerd zijn door onbaatzuchtigheid en liefde, of omdat ze menselijke noden en waarden hebben. Vriendelijke artificiële intelligentie is fundamenteler: het wil zeggen dat de machines van de toekomst ons niet aan te kant moéten schuiven om hun doelen te kunnen verwezenlijken.

Missie

Nadat Tallinn het essay gelezen had, formuleerde hij voor zichzelf een missie: de mensheid redden van haar eigen creaties. Om dat te bereiken leidt hij een leven van reizen, geeft hij spreekbeurten over de hele wereld over de bedreiging die superintelligentie voor de menselijke beschaving betekent. Het grootste deel van zijn tijd gaat naar onderzoek en onderzoekers steunen. Het ultieme doel van die research? Machines ontwikkelen die zowel ethisch als cognitief supermenselijk zijn.

Onderzoek

Tallinn is een systematische ‘gever’. Hij sponsort maar liefst elf organisaties die onderzoek doen naar artificiële intelligentie. Bovendien richtte hij ook zelf een onderzoekscentrum op, dat zich vooral bezighoudt met zogenaamde existential risks (of X-risks zoals Tallinn ze zelf noemt), bedreigingen voor het overleven van de mensheid. Naast artificiële intelligentie, zijn ook klimaatverandering, kernoorlogen en biowapens velden die het centrum onderzoekt.

Die laatste onderwerpen dienen om mensen betrokken te krijgen, omdat ze meer verspreid en geaccepteerd zijn. Het horroridee van machines die de wereld gaan overnemen, moet die interesse vasthouden. De andere onderzoeksorganisaties werken allemaal aan verschillende benaderingen van veilige artificiële intelligentie. Tallinn hoopt dat één daarvan ook effectief een oplossing zal kunnen brengen.

Noodknop

Een oplossing vinden is niet zo gemakkelijk. Als artificiële intelligentie slim genoeg is, zal het systeem ook haar beperkingen beter kennen dan haar maker. En dat is een probleem. Een van de strategieën om veilige AI te ontwikkelen, is namelijk een soort noodknop inbouwen. Daarvoor zijn er twee opties: een echte, fysieke stopknop en een mechanische ingebouwde knop, die het systeem automatisch uitschakelt als het te ver gaat.

Ook Stephen Hawking had een duidelijke mening over artificiële intelligentie.

Een superintelligent systeem zou willen dat het zelf overleeft en zou er dus ook voor zorgen dat de knop niet geactiveerd kan worden, mocht dat nodig zijn. Langs de andere kant kan het ook zijn dat de agent nieuwsgierig wordt naar de reden voor de knop. Dan zou hij die kunnen uittesten en zichzelf op die manier nutteloos maken. Om de strategie van de knop te laten werken, moeten wetenschappers een AI-systeem maken dat niet in die knop geïnteresseerd is.

Hindernissen

Om zo’n ongeïnteresseerd systeem te maken, moeten onderzoekers eerst nog verschillende hindernissen overwinnen. Ten eerste moeten ze erin slagen een agent te creëren die gelijke waarde geeft aan de wereld waarin hij leeft en die waarin hij helemaal niet bestaat. Maar zelfs als wetenschappers daarin slagen, zijn er nog een hele hoop mogelijke problemen. Stel bijvoorbeeld dat het systeem zichzelf via het internet miljoenen keren kopieert. Wat dan?

Voor Tallinn is er één aanpak voor veilige artificiële intelligentie die erbovenuit steekt. Hij denkt dat de systemen ook menselijke waarden moeten hebben. Dat wil hij niet bereiken door ze te programmeren, maar hij wil ze waarden aanleren. Dat wil zeggen dat de agenten de minder logische kant van mensen ook zullen moeten begrijpen. Zo zeggen we soms één ding, maar bedoelen we compleet het tegenovergestelde en zijn we vaak minder betrouwbaar als we dronken zijn. Voor AI-systemen is dat enorm moeilijk te begrijpen.

Artificiële intelligentie wordt in allerlei gebieden ingezet.

Veel op het spel

Het is dus een serieuze uitdaging, maar Tallinn denkt dat het wel de moeite waard is om het te proberen. Er staat veel op het spel. Hij gaat zelfs nog een stapje verder en zegt dat het de belangrijkste taak van de mensheid is om zich voor te bereiden op een overname door superintelligente systemen. Tallinn omschrijft de problemen ook graag met metaforen: “AI kan ons net zo snel wegwerken als wij bomen omhakken. Superintelligentie is voor ons wat wij zijn voor gorilla’s.”

Nog een groot probleem volgens Tallinn, is dat bij superintelligentie lang niet meer alles geprogrammeerd moet worden. Geavanceerde AI-systemen moeten niet het ingebouwd doel krijgen om de wereld te domineren om dat effectief te doen. Werelddominantie kan perfect ook een ongelukje zijn. Het kan ook in de andere richting gaan: als een superintelligent systeem goed geprogrammeerd is kunnen zelfs goedaardige doelen verschrikkelijke gevolgen hebben.

Bezorgdheid

Bezorgdheid over de gevolgen van superintelligentie is normaal in de kringen van technologie en wetenschap. Ook de oprichters van PayPal en Tesla, Peter Thiel en Elon Musk, zijn serieuze sponsors van onderzoek naar vriendelijke AI. Andere collega’s zijn het niet helemaal eens met die bezorgdheid. Sommigen vinden dat de focus anders moet liggen: de zuivere technische actoren trekken de aandacht weg van belangrijkere problemen in het veld. Alle algoritmes zijn ontworpen door blanke mannen of zijn gebaseerd op data die gekleurd zijn.

Anderen vinden dat het nog veel te vroeg is om al zo bang te zijn, omdat we superintelligentie nog niet helemaal begrijpen en dat brengt veel gevaren met zich mee. Zo zou het kunnen dat we een wereld creëren waar we helemaal niet in willen leven. Langs de andere kant kunnen de gevaren op korte termijn ook voorlopers zijn van de échte, ‘beschavingsbedreigende’ problemen. Tallinn hoopt dat AI uiteindelijk dezelfde beweging zal maken als kernwapens. Na de atoombommen op Hiroshima en Nagasaki heeft (bijna) de hele wereld samengewerkt om kerntesten te beperken.

Voorlopig

Jaan Tallinn relativeert het hele horror-AI-verhaal. Voor de onderzoekers is het namelijk nog steeds het belangrijkste wat artificiële intelligentie precies kan en doet. En dat is nog altijd afhankelijk van de mensen die de systemen programmeren. Voorlopig.

Meer
Lees meer...