Wetenschappers Hebben Uitgelegd Hoe Een Wapenwedloop Zal Leiden Tot Een ‘Terminator-achtige Oorlog’ - Alternatieve Mening

Wetenschappers Hebben Uitgelegd Hoe Een Wapenwedloop Zal Leiden Tot Een ‘Terminator-achtige Oorlog’ - Alternatieve Mening
Wetenschappers Hebben Uitgelegd Hoe Een Wapenwedloop Zal Leiden Tot Een ‘Terminator-achtige Oorlog’ - Alternatieve Mening

Video: Wetenschappers Hebben Uitgelegd Hoe Een Wapenwedloop Zal Leiden Tot Een ‘Terminator-achtige Oorlog’ - Alternatieve Mening

Video: Wetenschappers Hebben Uitgelegd Hoe Een Wapenwedloop Zal Leiden Tot Een ‘Terminator-achtige Oorlog’ - Alternatieve Mening
Video: Koude Oorlog - Mr. Chadd Academy 2024, April
Anonim

In hun nieuwe rapport spraken experts van Cornell University over de risico's die samenhangen met de steeds actievere introductie van kunstmatige intelligentie in kernwapens, aldus de Daily Mail. Volgens wetenschappers kunnen machines "uit de hand lopen" en een "apocalyptische oorlog" uitlokken, dus de belangrijkste beslissingen bij het gebruik van kernwapens kunnen nog steeds beter aan de persoon worden overgelaten.

Wetenschappers waarschuwen dat de overdracht van controle over kernwapens naar kunstmatige intelligentie zou kunnen eindigen in een apocalyptische oorlog in "terminator-stijl".

In hun nieuwe rapport betogen experts van de Amerikaanse Ivy League Cornell University dat een toenemende verschuiving naar automatisering en robotisering ertoe zou kunnen leiden dat machines 'uit de hand lopen' en de mensheid de oorlog verklaren - net als in een reeks sci-fi films "Terminator" met Arnold Schwarzenegger.

Volgens deskundigen, die proberen "de Verenigde Staten in te halen in termen van militair potentieel", beginnen Rusland en China steeds vaker te vertrouwen op kunstmatige intelligentietechnologieën, die in de toekomst risico's kunnen opleveren die zelfs de wereld niet kent. Moskou is dus al begonnen met de werkzaamheden aan de onbemande onderwaterkerntorpedo van Poseidon, voorheen bekend als Status-6.

Daarnaast kunnen landen besluiten kunstmatige intelligentie actiever in te zetten in systemen voor vroegtijdige waarschuwing. En hier, zoals wetenschappers eraan herinneren, laat de geschiedenis ons zien dat de risico's ook groot kunnen zijn. Veel mensen kennen het incident van 1983, toen Sovjetofficier Stanislav Petrov het signaal van het systeem om Amerikaanse raketten af te vuren negeerde. Petrov realiseerde zich dat het signaal vals was en redde daarmee de wereld van een mogelijke nucleaire oorlog tussen de Verenigde Staten en Rusland.

Deskundigen erkennen dat automatisering van kernwapens in een of andere vorm de betrouwbaarheid en stabiliteit van dergelijke systemen kan verbeteren. Kunstmatige intelligentie kan gegevens verzamelen en analyses uitvoeren, die vervolgens kunnen worden gebruikt door militaire leiders.

"Bij het moderniseren van nucleaire arsenalen, moet het leiderschap ernaar streven computersystemen te gebruiken om het risico van accidentele ongelukken en valse positieven te verminderen en de menselijke controle over kernwapenoperaties te vergroten", bevelen de wetenschappers aan.

Aanbevolen: