Tegen 2040 Kan Kunstmatige Intelligentie Een Revolutie Teweegbrengen In De Principes Van Nucleaire Veiligheid - Alternatieve Mening

Tegen 2040 Kan Kunstmatige Intelligentie Een Revolutie Teweegbrengen In De Principes Van Nucleaire Veiligheid - Alternatieve Mening
Tegen 2040 Kan Kunstmatige Intelligentie Een Revolutie Teweegbrengen In De Principes Van Nucleaire Veiligheid - Alternatieve Mening

Video: Tegen 2040 Kan Kunstmatige Intelligentie Een Revolutie Teweegbrengen In De Principes Van Nucleaire Veiligheid - Alternatieve Mening

Video: Tegen 2040 Kan Kunstmatige Intelligentie Een Revolutie Teweegbrengen In De Principes Van Nucleaire Veiligheid - Alternatieve Mening
Video: Kunstmatige Intelligentie en haar gevolgen | filosoof Edwin Wenink 2024, November
Anonim

Een recent gepubliceerde studie van RAND Corporation concludeerde dat kunstmatige intelligentie (AI) tegen 2040 het concept van nucleaire afschrikking radicaal zou kunnen veranderen.

Een AI-gedreven doemdag-machine lijkt onwaarschijnlijk, maar de echte risico's van AI voor de nucleaire veiligheid liggen in het vermogen van de AI om mensen ertoe te brengen ongerechtvaardigde, mogelijk apocalyptische beslissingen te nemen.

Tijdens de Koude Oorlog zorgde het concept van verzekerde wederzijdse vernietiging voor een wankele vrede tussen grootmachten, met het argument dat elke aanval zou resulteren in verwoestende vergelding. Als gevolg hiervan zorgde het HLG-concept voor strategische stabiliteit en handelde het nuchter van beide kanten in hun bereidheid tot acties die daadwerkelijk zouden kunnen uitgroeien tot een atoomoorlog.

De RAND-publicatie zegt dat AI in de komende decennia heel goed in staat is om het concept van verzekerde wederzijdse vernietiging te vernietigen en daarmee de strategische stabiliteit van onze wereld te ondermijnen. Meer geavanceerde sensoren maken het waarschijnlijk dat "vergeldingswapens" - bijvoorbeeld nucleaire onderzeeërs en mobiele raketten - kunnen worden geïdentificeerd en vernietigd.

Naties kunnen in de verleiding komen om middelen bij de eerste slag te zoeken alsof het een voordeel is ten opzichte van hun rivalen, zelfs als ze niet van plan zijn als eerste toe te slaan. Dit ondermijnt de stabiliteit doordat zelfs als de partij die als eerste kan aanvallen deze kans niet zal gebruiken, de tegenstander er niet zeker van kan zijn.

"De link tussen nucleaire oorlog en AI is niet nieuw, de verhalen zijn zelfs met elkaar verweven", zegt Edward Geist, co-auteur van het artikel en bij RAND. "Aanvankelijk werd veel van het AI-onderzoek uitgevoerd met de steun van het leger om hun doelen te bereiken."

Als voorbeeld noemde hij een "adaptief gepland overlevingsexperiment" dat in de jaren tachtig werd uitgevoerd en dat erop gericht was AI te gebruiken om intelligentie te combineren met het richten op kernwapens.

In geval van onzekerheid zou AI de stabiliteit van de strategische situatie kunnen vergroten door de nauwkeurigheid van de verzamelde informatie en de analyse ervan te verbeteren.

Promotie video:

Onderzoekers zijn van mening dat AI tijdens het ontwikkelingsproces minder snel fouten zal maken in vergelijking met mensen, wat betekent dat het op de lange termijn een factor van stabiliteit zal zijn.

Vadim Tarabarko

Aanbevolen: