Artificial intelligence gaat risico op nucleaire holocaust flink verhogen

Het risico op een nucleair conflict gaat toenemen door almaar verbeterende kunstmatige intelligentie volgens een nieuw rapport. Denk dan niet pers se aan een Terminator-scenario. Volgens de auteurs liggen de gevaren van kunstmatige intelligentie voor nucleaire veiligheid niet in doomsday machines, maar bij mensen. Artificial intelligence zou hen aanmoedigen om apocalyptische risico's te nemen.

Dat blijkt uit ?How Might Artificial Intelligence Affect the Risk of Nuclear War?? van het RAND Center for Global Risk and Security. Het rapport is gebaseerd op een serie workshops waarbij wetenschappers, beleidsmakers en andere deskundigen zich bogen over de vraag hoe kunstmatige intelligentie tegen 2040 de kans op een kernoorlog kan bevloeden.

Tijdens de Koude Oorlog ontstond de de militaire strategie MAD (Mutual Assured Destruction, oftewel gegarandeerde wederzijdse vernietiging): elke nucleaire aanval zou automatisch worden beantwoord door een verwoestende vergelding.

Hoe het zou kunnen mislopen

Maar volgens het RAND-rapport kan kunstmatige intelligentie die MAD-strategie onderuit halen. Verbeterde kunstmatige intelligentie zou immers in staat moeten zijn om de wapensystemen van de tegenstander nauwkeuriger dan ooit te lokaliseren en aan te vallen. In zo?n scenario kan de aanvaller die wapensystemen uitschakelen, waarna het aangevallen land niet meer terug kan slaan, MAD dus geen rol meer speelt en het gemakkelijker wordt om naar de kernwapens te grijpen.

En dan is er dit: zelfs als landen niet de intentie hebben om de kernwapensystemen van andere landen uit te schakelen, kan de gedachte dat zij daar dankzij hun superieure artificiële intelligentie wel toe in staat zijn, al voldoende zijn om tot een kernoorlog te leiden.

Lees meer