Gevechtsrobots Komen Eraan! - Alternatieve Mening

Gevechtsrobots Komen Eraan! - Alternatieve Mening
Gevechtsrobots Komen Eraan! - Alternatieve Mening
Anonim

Echte killer-robots, die de taak meedogenloos uitvoeren en geen menselijke supervisie nodig hebben, kunnen binnen een jaar in het arsenaal van de legers van de wereld verschijnen, zeggen experts. Anticiperend op het gevaar hier, bespreken experts of killer robots en hun gebruik op het slagveld van tevoren moeten worden verboden.

Image
Image

Moordenaarrobots kunnen over een jaar bij de troepen in dienst zijn als de VN niet vooraf maatregelen neemt om het gebruik ervan te beperken, zegt Noel Sharkey, professor aan de Sheffield University. Naar zijn mening zullen deze machines onvermijdelijk massale onschuldige doden veroorzaken, aangezien ze een militair niet kunnen onderscheiden van een civiele niet-strijder. Zijn verklaring kwam precies op een moment dat de deskundige gemeenschap uit 120 landen in Genève de mogelijke risico's bespreekt die verbonden zijn aan de werking van autonome wapensystemen. Professor Sharkey gelooft: er zijn weinig discussies, het is dringend nodig om een document aan te nemen over het beperken van de productie van robots! Anders zullen robots een jaar later letterlijk de legers van ontwikkelde landen overspoelen.

Image
Image

Tegenwoordig bespreken vertegenwoordigers van meer dan 90 landen van de wereld in Genève het gevaar van "dodelijke autonome wapensystemen". Een van de belangrijke discussiepunten is hoe de veiligheid van het gebruik ervan in een gevechtssituatie kan worden gegarandeerd. Veel experts, waaronder professor Sharkey, houden vol dat, ondanks de autonomie van systemen, een persoon altijd het vermogen moet hebben om er "principiële controle" over te hebben - voor de veiligheid van de mensheid. “Een robot kan nog steeds niet als een mens beslissingen nemen”, zegt professor Sharkey. - Hij is niet helemaal in staat. om de logica van vijandelijkheden te begrijpen, mag een bondgenoot niet van een vijand onderscheiden en beslissen over de toelaatbaarheid van bepaalde acties. “We kunnen de robot niet laten beslissen of bijvoorbeeld het leven van Osama bin Laden het waard is, zodat 50 oude vrouwen en 20 kinderen met hem sterven,Sharkey zegt. - Het kan de robot niet schelen. Fundamentele beslissingen, bijvoorbeeld over de keuze van een doel, moeten door een persoon worden genomen. " Volgens professor Sharkey, als dergelijke beslissingen aan robots worden overgelaten, "zullen de gevolgen van het gebruik ervan niet minder verwoestend zijn dan het gebruik van chemische wapens."

Image
Image

Professor Sharkey is een van de 57 experts die een open brief hebben ondertekend aan de Universiteit van Zuid-Korea, waarin experts hun protest uiten tegen het programma voor de ontwikkeling van intelligente wapens. Korea Institute of Science and High Technology Kaist lanceert momenteel dit programma met fabrikant van militaire uitrusting Hanwa Systems, en het nieuws heeft de wetenschappelijke gemeenschap op zijn kop gezet. “Een universiteit, een wetenschappelijke instelling, kan dat vanuit moreel oogpunt niet doen”, zegt professor Sharkey, met wie de andere ondertekenaars het volledig eens zijn.

Volgens experts zullen automatische killer-robots Pandora's Box openen, wat een revolutie teweegbrengt in de manier van oorlog voeren.

Promotie video:

Vertegenwoordigers van het Kaist Institute hebben al gereageerd op de open brief en hun collega's verzekerd dat ze geen plannen hebben om droids in de Skynet-stijl te maken.

Image
Image

Vertegenwoordigers van het Keist Institute verzekerden hun collega's dat ze, als academische instelling, "universele normen van ethiek en moraliteit hoog in het vaandel hebben staan" en niet van plan zijn robotsoldaten te ontwikkelen die buiten menselijke controle opereren. Tot op heden doet het Kaist Instituut alleen onderzoek op dit gebied. Hierop kalmeerden de auteurs van de open brief en boycotten hun collega's niet. De vraag of de mensheid het eens zal kunnen worden over de algemene principes van totale controle over de acties van gevechtsrobots, staat echter nog open. Ondertussen is het tegenwoordig in theorie zeker niet belangrijk. Tegenwoordig zijn zeer functionele robots al zulke complexe mechanismen dat zelfs specialisten niet volledig begrijpen hoe hun kunstmatige intelligentie werkt. En zonder dit volledig te begrijpen, kunnen ze niet voorspellenwanneer het precies kan mislukken. "Als de mensheid voorbestemd is om vernietigd te worden, zal kunstmatige intelligentie hoogstwaarschijnlijk een belangrijke rol spelen in dit proces", zegt een van de deelnemers aan de conferentie in Genève. Volgens Elon Musk brengt kunstmatige intelligentie tegenwoordig meer bedreigingen voor de mensheid met zich mee dan Noord-Korea. Musk is ervan overtuigd dat robots voortdurend onder strikte controle van mensen moeten staan, en heeft herhaaldelijk een beroep gedaan op de regeringen van verschillende landen om duidelijke regels te ontwikkelen voor controle over systemen met kunstmatige intelligentie.dan Noord-Korea. Musk is ervan overtuigd dat robots constant onder strikte controle van mensen moeten staan, en heeft herhaaldelijk een beroep gedaan op de regeringen van verschillende landen om duidelijke regels te ontwikkelen voor controle over systemen met kunstmatige intelligentie.dan Noord-Korea. Musk is ervan overtuigd dat robots constant onder strikte controle van mensen moeten staan, en heeft herhaaldelijk een beroep gedaan op de regeringen van verschillende landen om duidelijke regels te ontwikkelen voor controle over systemen met kunstmatige intelligentie.

Varvara Lyutova