Hoe Neurale Netwerken Werd Geleerd Om Het Nieuwsbeeld Te Vervalsen - Alternatieve Mening

Inhoudsopgave:

Hoe Neurale Netwerken Werd Geleerd Om Het Nieuwsbeeld Te Vervalsen - Alternatieve Mening
Hoe Neurale Netwerken Werd Geleerd Om Het Nieuwsbeeld Te Vervalsen - Alternatieve Mening

Video: Hoe Neurale Netwerken Werd Geleerd Om Het Nieuwsbeeld Te Vervalsen - Alternatieve Mening

Video: Hoe Neurale Netwerken Werd Geleerd Om Het Nieuwsbeeld Te Vervalsen - Alternatieve Mening
Video: AI en de toekomst van media 2024, April
Anonim

Om vervalsingen te maken, worden kunstmatige-intelligentiesystemen en technologieën voor het genereren van video- en audio-vervalsingen gebruikt.

Om voor ieder van ons een 'individueel' nieuwsbeeld te creëren en de daarin geselecteerde mediaberichten te vervalsen, zijn vandaag de inspanningen van één programmeur voldoende. Specialisten in kunstmatige intelligentie en cybersecurity vertelden Izvestia hierover. Meer recentelijk schatten ze dat hiervoor het werk van meerdere teams nodig was. Een dergelijke versnelling werd mogelijk met de ontwikkeling van technologieën voor aanvallen op neurale netwerken en het genereren van vervalsingen in geluid en video met behulp van programma's voor het maken van "diepe vervalsingen". De Izvestia-krant onderging onlangs een soortgelijke aanval, toen drie Libische nieuwsportalen tegelijk een bericht publiceerden dat naar verluidt in een van de nummers verscheen. Volgens experts kan men binnen 3-5 jaar een invasie van robotmanipulatoren verwachten, die automatisch veel vervalsingen kunnen maken.

Dappere nieuwe wereld

Er zijn steeds meer projecten geweest die het informatiebeeld aanpassen aan de beleving van specifieke gebruikers. Een voorbeeld van hun werk was de recente actie van drie Libische portalen, die op 20 november nieuws publiceerden in de kwestie van Izvestia. De makers van de nep hebben de voorpagina van de krant gewijzigd en daarop een bericht geplaatst over de onderhandelingen tussen veldmaarschalk Khalifa Haftar en de premier van de regering van nationale overeenstemming (PNS) Fayez Sarraj. De nep, in het lettertype Izvestia, ging vergezeld van een foto van de twee leiders, gemaakt in mei 2017. Het label met het logo van de publicatie is geknipt uit het eigenlijke gepubliceerde nummer van 20 november en alle andere teksten op de pagina uit het nummer van 23 oktober.

Vanuit het oogpunt van specialisten kunnen dergelijke vervalsingen in de nabije toekomst automatisch worden gedaan.

Image
Image

"Kunstmatige intelligentietechnologieën zijn nu volledig open, en apparaten voor het ontvangen en verwerken van gegevens worden miniaturiseren en worden goedkoper," vertelde Yuri Vilsiter, doctor in de fysische en wiskundige wetenschappen, professor aan de Russische Academie van Wetenschappen, hoofd van de FSUE-afdeling "GosNIIAS", tegen Izvestia. - Daarom is het zeer waarschijnlijk dat in de nabije toekomst zelfs niet de staat en grote bedrijven, maar gewoon particulieren ons zullen kunnen afluisteren en bespioneren, en de realiteit zullen manipuleren. Door gebruikersvoorkeuren te analyseren, zal het de komende jaren mogelijk zijn om hem te beïnvloeden via nieuwsfeeds en zeer slimme vervalsingen.

Promotie video:

Volgens Yuri Vilsiter bestaan er al technologieën die voor een dergelijke interventie in de mentale omgeving kunnen worden gebruikt. In theorie kan de invasie van manipulatorbots over een paar jaar worden verwacht, zei hij. Een beperkend moment kan hier de noodzaak zijn om grote databases te verzamelen met voorbeelden van de reacties van echte mensen op kunstmatige stimuli met het volgen van de gevolgen op de lange termijn. Voor dergelijke tracking is waarschijnlijk nog een aantal jaren onderzoek nodig voordat er consequent gerichte aanvallen worden uitgevoerd.

Visie-aanval

Alexei Parfentiev, hoofd van de analyse-afdeling bij SearchInform, is het met Yuri Vilsiter eens. Volgens hem voorspellen experts al aanvallen op neurale netwerken, hoewel dergelijke voorbeelden er nu praktisch niet zijn.

- Onderzoekers van Gartner geloven dat tegen 2022 30% van alle cyberaanvallen gericht zal zijn op het corrumperen van de data waarop het neurale netwerk traint en het stelen van kant-en-klare machine learning-modellen. Zo kunnen onbemande voertuigen plotseling voetgangers voor andere objecten gaan aanzien. En we zullen het niet hebben over financieel of reputatierisico, maar over het leven en de gezondheid van gewone mensen, meent de expert.

Aanvallen op computer vision-systemen worden nu als onderdeel van onderzoek uitgevoerd. Het doel van dergelijke aanvallen is om het neurale netwerk te dwingen in de afbeelding te detecteren wat er niet is. Of, omgekeerd, niet zien wat er was gepland.

Image
Image

"Een van de actief ontwikkelende onderwerpen op het gebied van het trainen van neurale netwerken zijn de zogenaamde vijandige aanvallen (" vijandige aanvallen ". - Izvestia)", legt Vladislav Tushkanov uit, een webanalist bij Kaspersky Lab. - In de meeste gevallen zijn ze gericht op computer vision-systemen. Om een dergelijke aanval uit te voeren, moet u in de meeste gevallen volledige toegang hebben tot het neurale netwerk (de zogenaamde white-box-aanvallen) of de resultaten van zijn werk (black-box-aanvallen). Er zijn geen methoden die in 100% van de gevallen een computer vision-systeem kunnen misleiden. Bovendien zijn er al tools gemaakt waarmee u neurale netwerken kunt testen op weerstand tegen vijandige aanvallen en hun weerstand kunt vergroten.

Tijdens een dergelijke aanval probeert een aanvaller op de een of andere manier het herkende beeld te veranderen, zodat het neurale netwerk niet werkt. Vaak wordt ruis over de foto heen gelegd, vergelijkbaar met wat optreedt bij het fotograferen in een slecht verlichte kamer. Een persoon merkt dergelijke interferentie meestal niet goed, maar het neurale netwerk begint defect te raken. Maar om een dergelijke aanval uit te voeren, heeft de aanvaller toegang tot het algoritme nodig.

Volgens Stanislav Ashmanov, algemeen directeur van Neuroset Ashmanov, zijn er momenteel geen methoden om dit probleem aan te pakken. Bovendien is deze technologie voor iedereen beschikbaar: een gemiddelde programmeur kan er gebruik van maken door de nodige open source software te downloaden van de Github-service.

Image
Image

- Een aanval op een neuraal netwerk is een techniek en algoritmen om een neuraal netwerk te misleiden, waardoor het valse resultaten oplevert, en in feite breekt als een deurslot, - meent Ashmanov. - Het is nu bijvoorbeeld vrij eenvoudig om het gezichtsherkenningssysteem te laten denken dat jij het niet bent, maar Arnold Schwarzenegger ervoor - dit wordt gedaan door additieven te mengen die onmerkbaar zijn voor het menselijk oog in de gegevens die het neurale netwerk binnenkomen. Dezelfde aanvallen zijn mogelijk voor spraakherkennings- en analysesystemen.

De expert is er zeker van dat het alleen maar erger zal worden - deze technologieën zijn naar de massa gegaan, fraudeurs gebruiken ze al en er is geen bescherming tegen. Omdat er geen bescherming is tegen het geautomatiseerd maken van video- en audiofraude.

Diepe vervalsingen

Deepfake-technologieën op basis van Deep Learning (technologieën voor diep leren van neurale netwerken. - Izvestia) vormen al een reële bedreiging. Video- of audio-vervalsingen worden gemaakt door de gezichten van beroemde mensen te bewerken of over elkaar te leggen die zogenaamd de nodige tekst uitspreken en de noodzakelijke rol spelen in de plot.

"Met Deepfake kun je lipbewegingen en menselijke spraak vervangen door video, wat een gevoel van realisme geeft van wat er gebeurt", zegt Andrey Busargin, directeur van de afdeling innovatieve merkbescherming en intellectueel eigendom bij Group-IB. - Valse beroemdheden "bieden" gebruikers op sociale netwerken aan om deel te nemen aan de trekking van waardevolle prijzen (smartphones, auto's, geldbedragen), enz. Links van deze video's leiden vaak naar frauduleuze en phishing-sites waar gebruikers wordt gevraagd om persoonlijke informatie in te voeren, waaronder bankpasgegevens. Dergelijke schema's vormen een bedreiging voor zowel gewone gebruikers als publieke figuren die in commercials worden genoemd. Vanwege dit soort shenanigans worden afbeeldingen van beroemdheden geassocieerd met oplichting of geadverteerde goederen.en dit is waar we persoonlijke merkschade tegenkomen”, zegt hij.

Image
Image

Een andere bedreiging houdt verband met het gebruik van "nepstemmen" voor telefoonfraude. In Duitsland bijvoorbeeld, gebruikten cybercriminelen voice deepfake om het hoofd van een Britse dochteronderneming in een telefoongesprek met spoed € 220.000 over te laten schrijven naar de rekening van een Hongaarse leverancier, die zich voordeed als bedrijfsmanager. Het hoofd van de Britse firma vermoedde een truc toen zijn "baas" om een tweede postwissel vroeg, maar de oproep kwam van een Oostenrijks nummer. Tegen die tijd was de eerste tranche al overgeboekt naar een rekening in Hongarije, van waaruit het geld werd opgenomen in Mexico.

Het blijkt dat de huidige technologieën het mogelijk maken om een individueel nieuwsbeeld te creëren gevuld met nepnieuws. Bovendien zal het binnenkort mogelijk zijn om vervalsingen alleen door hardware te onderscheiden van echte video en audio. Volgens deskundigen zullen maatregelen die de ontwikkeling van neurale netwerken verbieden waarschijnlijk niet effectief zijn. Daarom zullen we binnenkort in een wereld leven waarin het nodig zal zijn om alles constant opnieuw te controleren.

"We moeten ons hierop voorbereiden, en we moeten het accepteren", benadrukte Yuri Vilsiter. - De mensheid is niet de eerste keer dat van de ene werkelijkheid naar de andere gaat. Onze wereld, manier van leven en waarden zijn radicaal anders dan de wereld waarin onze voorouders 60.000 jaar geleden, 5.000 jaar geleden, 2.000 jaar geleden en zelfs 200-100 jaar geleden leefden. In de nabije toekomst zal een persoon grotendeels de privacy worden ontnomen en daarom gedwongen worden om niets te verbergen en eerlijk te handelen. Tegelijkertijd kan niets in de omringende werkelijkheid en in de eigen persoonlijkheid in geloof worden genomen, alles zal in twijfel moeten worden getrokken en voortdurend opnieuw moeten worden gecontroleerd. Maar zal deze toekomstige realiteit verschrikkelijk zijn? Niet. Het zal gewoon heel anders zijn.

Anna Urmantseva

Aanbevolen: