Kunstmatige Intelligentie Als Terrorist: Nieuwe Veiligheidsbedreigingen - Alternatieve Mening

Inhoudsopgave:

Kunstmatige Intelligentie Als Terrorist: Nieuwe Veiligheidsbedreigingen - Alternatieve Mening
Kunstmatige Intelligentie Als Terrorist: Nieuwe Veiligheidsbedreigingen - Alternatieve Mening

Video: Kunstmatige Intelligentie Als Terrorist: Nieuwe Veiligheidsbedreigingen - Alternatieve Mening

Video: Kunstmatige Intelligentie Als Terrorist: Nieuwe Veiligheidsbedreigingen - Alternatieve Mening
Video: The Choice is Ours (2016) Official Full Version 2024, Oktober
Anonim

Russische wetenschappers hebben de dreigingen van het gebruik van kunstmatige intelligentie (AI) onderzocht en geclassificeerd vanuit het oogpunt van internationale informatie en psychologische veiligheid. Bijzondere aandacht is besteed aan het tegengaan van het kwaadwillig gebruik van AI door terroristen. De onderzoeksresultaten zijn gepubliceerd in het tijdschrift Russia in Global Affairs.

Gevaren van kwaadwillig gebruik door AI

Het potentiële gevaar van kunstmatige intelligentie voor de mensheid is herhaaldelijk het onderwerp van kunstwerken geworden en is vandaag een van de meest besproken kwesties van wetenschappelijke en technologische ontwikkeling. Hoewel sterke AI, die in staat is tot onafhankelijk systemisch denken, en mogelijk zelfbewustzijn en wil bezit, nog lang niet is gemaakt, voeren verschillende geavanceerde versies van zwakke AI gespecialiseerde taken uit die 10 jaar geleden op sciencefiction leken. Het gebruik van AI voor goede doeleinden (bijvoorbeeld in de geneeskunde) levert al ongetwijfeld voordelen op. In de handen van terroristische en andere criminele organisaties kunnen geleidelijk goedkopere en geavanceerdere AI-technologieën echter een vreselijker wapen worden dan een nucleair wapen.

Onderzoekers uit verschillende landen bestuderen actief de bedreigingen die het kwaadwillige gebruik van AI vormt voor de samenleving als geheel en voor bepaalde gebieden van menselijke activiteit, of het nu gaat om politiek, economie, militaire aangelegenheden, enz. Bedreigingen die rechtstreeks betrekking hebben op internationale informatie en psychologische veiligheid zijn echter nog niet als onafhankelijk geïdentificeerd. reikwijdte van de overweging. Ondertussen is het gebruik van AI om internationale betrekkingen te destabiliseren door middel van gerichte hightechinformatie en psychologische impact op mensen een duidelijk groot gevaar.

De auteurs van de studie stelden een classificatie voor van bedreigingen voor het kwaadwillige gebruik van kunstmatige intelligentie op basis van een aantal criteria, waaronder territoriale dekking, snelheid en vorm van verspreiding. Door classificatie toe te passen, kunt u manieren vinden om antwoordtools tegen te gaan en te ontwikkelen.

“De toekomstige verlaging van de kosten van AI-technologieën kan de dreiging van fundamenteel nieuwe terroristische aanslagen creëren. Het is mogelijk dat een chatbot wordt gebruikt om een bericht over een nepevenement op te bouwen en potentiële slachtoffers te overtuigen om het te bezoeken. Om dit tegen te gaan, is het raadzaam om de samenleving vertrouwd te maken met nieuwe bedreigingen en burgers te instrueren op hun hoede te zijn voor contacten op afstand met mensen die ze niet persoonlijk kennen. De uitweg zou de certificering van openbare evenementen kunnen zijn, waarmee de realiteit van de informatie die erover wordt gepost, wordt bevestigd. In dit geval is het natuurlijk de taak van technische specialisten om databases over evenementen en het mechanisme voor hun certificering te beschermen”, zegt Daria Bazarkina, professor van de afdeling Internationale Veiligheid en Buitenlands Beleid van Rusland, RANEPA, tegen RIA Novosti.

Het moderne niveau van technologieën en mogelijkheden van AI stelt ons in staat een aantal fundamenteel nieuwe bedreigingen voor de informatie en psychologische veiligheid van een persoon te identificeren.

Promotie video:

Gebruik van de technologieën van "nepmensen" en "deepfake" voor internationale provocaties

Het Amerikaanse technologiebedrijf NVIDIA deelde onlangs de resultaten van een generatief concurrerend netwerk dat getraind is om zijn eigen afbeeldingen van mensen te genereren ("nepmensen"). Binnen enkele seconden creëert het neurale netwerk afbeeldingen met een hoge resolutie van de gezichten van niet-bestaande mensen, voegt het alle culturele en etnische kenmerken, emoties en gemoedstoestand toe en is het gebaseerd op een eindeloze verzameling afbeeldingen van echte gezichten. In de toekomst is het mogelijk dat deze ervaring wordt herhaald door andere ontwikkelaars. Tegelijkertijd kunnen dergelijke beelden door criminelen worden gebruikt voor allerlei provocaties, die alleen kunnen worden herkend door een samenleving met systemische polytechnische kennis.

“Deepfake-technologie kan het beeld en de stem van een persoon synthetiseren. Het wordt al gebruikt om videobeelden te maken van wereldleiders, waaronder de Amerikaanse president Donald Trump en de Russische president Vladimir Poetin. Deepfake-video's zijn in staat om het gedrag van grote doelgroepen te manipuleren en kunnen worden gebruikt bij informatie en psychologische confrontaties (IPP) om financiële paniek of oorlog uit te lokken ”, zegt Evgeny Pashentsev, een vooraanstaand onderzoeker aan het Institute of Contemporary International Issues van de diplomatieke academie van het Russische ministerie van Buitenlandse Zaken, professor aan de Staatsuniversiteit van Moskou.

Sentimentanalyse is een klasse van methoden voor inhoudsanalyse in de computationele taalkunde die is ontworpen voor de geautomatiseerde detectie van emotioneel gekleurd vocabulaire en emotionele beoordeling van auteurs in teksten. Sentimentanalyse wordt geleverd door een breed scala aan bronnen, zoals blogs, artikelen, forums, opiniepeilingen, enz. Dit kan een zeer effectief hulpmiddel zijn in API's, wat bijvoorbeeld wordt bevestigd door de grote belangstelling voor dergelijke ontwikkelingen die momenteel door de leiding van het US Special Operations Command is. (Het Special Operations Command (SOCOM) van de Verenigde Staten.

"Voorspellende wapens": menselijk gedrag voorspellen op basis van gegevens op sociale media

In 2012 lanceerde het Advanced Intelligence Research Agency (IARPA) van de Verenigde Staten het Early Model-Based Event Recognition Using Surrogates (EMBERS) -programma. Het doel van de ontwikkeling wordt het voorspellen van burgerlijke onrust genoemd op basis van het gebruik van AI met het bepalen van de datum, plaats, protesterende groep van de bevolking.

Het systeem verwerkt gegevens van media en sociale netwerken, maar ook bronnen van hogere kwaliteit, bijvoorbeeld economische indicatoren. De val van dergelijke programma's in handen van terroristen is natuurlijk ook buitengewoon gevaarlijk. In dit geval kunnen grote terroristische aanslagen tijdens de meest grootschalige sociale demonstraties een waarschijnlijke dreiging worden. Een bijkomend criterium voor het kiezen van de doelen van een terroristische aanslag kan de mate van sociale en psychologische spanning op bepaalde gebieden zijn.

Volgens de auteurs van het onderzoek kunnen voorspellende analyses als tegenmaatregel door de staat en supranationale instanties zelf worden gebruikt om sociale spanningen te voorkomen (tijdige goedkeuring van sociale, economische en politieke maatregelen gericht op het bereiken van stabiliteit op lange termijn).

Bovendien kunnen terroristische groeperingen reputatieschade veroorzaken door het gebruik van bots tijdens politieke campagnes, nieuwe aanhangers aantrekken of de moord op politici organiseren.

Drones en robotinfrastructuur vastleggen

Zelflerende transportsystemen met AI-controle kunnen een handig doelwit zijn voor hoogtechnologische terroristische aanslagen. De controle van terroristen over het transportcontrolesysteem in een grote stad kan leiden tot talrijke slachtoffers, paniek veroorzaken en een psychologisch klimaat creëren dat andere criminele activiteiten mogelijk maakt.

Commerciële systemen kunnen worden gebruikt om onbemande luchtvaartuigen of zelfrijdende voertuigen in te zetten om explosieven af te leveren en ongevallen te veroorzaken. Een reeks grote rampen kan voor opschudding zorgen in de internationale media en aanzienlijke schade toebrengen aan de informatie en psychologische veiligheid.

Onderzoekers van de Russische presidentiële academie voor nationale economie en openbaar bestuur en de diplomatieke academie van het ministerie van Buitenlandse Zaken van de Russische Federatie baseerden hun onderzoek op een systematische analyse van de rol van AI op het gebied van veiligheid, een methode van scenarioanalyse, historische analogieën en case-analyse. Samen met een collega van de Universiteit van Uppsala (Zweden), Greg Simons, werden de auteurs van de studie co-redacteuren van het aanstaande boek "Terrorism and Advanced Technologies in Information-Psychological Confrontation: New Risks, New Opportunities to Counter the Terrorist Threat" met de deelname van onderzoekers uit 11 landen.

Op initiatief van Russische onderzoekers wordt het probleem van de rol van AI in de context van bedreigingen voor internationale informatie en psychologische veiligheid actief besproken en zal dit onderwerp worden besproken op internationale conferenties en autonome internationale onderzoeksseminars. Onder hen is een conferentie gehouden onder auspiciën van de Commissie van de Russische Federatie voor UNESCO en een aantal andere Russische en internationale structuren in Khanty-Mansiysk op 9 en 12 juni. Gouverneur van de autonome Khanty-Mansiysk Okrug Natalya Vladimirovna Komarova nam actief deel aan de sessie van de sectie over het probleem van het kwaadwillige gebruik van AI, die werd gevormd met de steun van het Europees-Russisch Expert Network for Communication Management (ERESKM). In de toekomst is dit het IV Ibero-American Forum in Sint-Petersburg op 1 - 3 oktober 2019,Europese conferentie over de impact van kunstmatige intelligentie en robotica 31 oktober - 1 november 2019. De auteurs van de studies hebben wetenschappelijke rapporten gepresenteerd in Argentinië, Uruguay, Brazilië, Zuid-Afrika en Italië.

Naar de mening van specialisten van de RANEPA en de Diplomatieke Academie is het op de schaal van Rusland buitengewoon belangrijk om de vorming van langetermijndoelprogramma's vast te stellen, aangezien het probleem van AI en internationale informatie en psychologische veiligheid een probleem is voor de nabije toekomst.