Welke Gevaren Van Neurale Netwerken Onderschatten We? - Alternatieve Mening

Inhoudsopgave:

Welke Gevaren Van Neurale Netwerken Onderschatten We? - Alternatieve Mening
Welke Gevaren Van Neurale Netwerken Onderschatten We? - Alternatieve Mening

Video: Welke Gevaren Van Neurale Netwerken Onderschatten We? - Alternatieve Mening

Video: Welke Gevaren Van Neurale Netwerken Onderschatten We? - Alternatieve Mening
Video: Neurale Netwerken 2024, Mei
Anonim

Heb je ooit iemand op straat ontmoet die een op een zou zijn zoals jij? Kleding, gezicht, manier van lopen, manier van communiceren, gewoonten zijn volledig identiek aan die van u. Het is alsof je wordt gescand en afgedrukt op een printer. Klinkt een beetje eng, nietwaar? Stel je nu voor dat je een video hebt gezien waarin zo iemand iets over zichzelf vertelt. In het beste geval zul je proberen je te herinneren wanneer je zo liep dat je je niets meer herinnerde, maar je zou dit voor de camera kunnen zeggen. Hoewel dit allemaal klinkt als een simpele redenering, maar de technologie staat al heel dicht bij het creëren van zulke mensen. Ze bestaan al, maar binnenkort zullen er nog veel meer zijn.

Waar komt de nep vandaan?

Nu zijn er al te veel dingen die gewoonlijk vervalsingen worden genoemd. Ze zijn overal. Ze zijn te vinden op foto's, in het nieuws, bij de productie van goederen en in informatiediensten. Het is gemakkelijker te zeggen waar er geen verschijnselen zijn die vergezeld gaan van dit woord. Terwijl je ze kunt bevechten. U kunt de oorsprong van de foto bestuderen, de onderscheidende kenmerken van een merkproduct van een nepproduct controleren en het nieuws nogmaals controleren. Hoewel nieuws een apart onderwerp is.

Tegenwoordig wil een contentconsument niet wachten en heeft hij onmiddellijke productie van de maker nodig, soms geeft hij niet eens om de kwaliteit, het belangrijkste is te snel. Dit is waar situaties zich voordoen wanneer iemand iets zei, en de anderen, zonder het te controleren, het weghaalden van hun websites en kranten. In sommige gevallen duurt het lang om deze bal terug te draaien en te bewijzen dat het allemaal fout was.

Het heeft geen zin uit te leggen waarom dit allemaal is gebeurd. Aan de ene kant zijn er degenen die gewoon willen lachen om de situatie, aan de andere kant, degenen die echt niet wisten dat ze ongelijk hadden. Een aparte plaats, ongeveer in het midden, wordt ingenomen door degenen voor wie het banaal is te profiteren. Dit kunnen belangen van invloed zijn op verschillende niveaus, ook op politiek niveau. Soms is dit het doel om winst te maken. Bijvoorbeeld paniek zaaien op de aandelenmarkt en winstgevende transacties doen met effecten. Maar vaak is dit te wijten aan vijandigheid jegens een persoon (bedrijf, product, etc.) om hem te kleineren. Een eenvoudig voorbeeld is het "laten vallen" in de kijkcijfers van een film of instelling die voor iemand niet wenselijk is. Dit vereist natuurlijk een leger van degenen die zullen gaan en een hekel hebben (soms zelfs bots), maar dat is een ander verhaal.

Wat is diep leren?

Promotie video:

De laatste tijd klinkt deze term steeds vaker. Soms is hij niet eens gerelateerd aan de zaak en wordt hij met iets anders verward. Dus het softwareproduct ziet er indrukwekkender uit.

Denk niet dat het concept en de basisprincipes van machine learning pas een paar jaar geleden verschenen. In feite zijn ze zo oud dat velen van ons toen nog niet eens geboren waren. De basisprincipes van deep learning-systemen en de wiskundige modellen voor hun werk waren al in de jaren 80 van de vorige eeuw bekend.

Destijds waren ze niet zo logisch vanwege het ontbreken van een belangrijk onderdeel. Het was een hoge rekenkracht. Pas in het midden van de jaren 2000 verschenen systemen die kunnen helpen om in deze richting te werken en alle benodigde informatie te berekenen. Nu zijn machines nog meer geëvolueerd en sommige systemen van machine vision, stemperceptie en andere werken zo efficiënt dat ze soms zelfs de capaciteiten van een persoon overtreffen. Hoewel ze nog niet in verantwoordelijke richtingen "gevangen" zitten, waardoor ze een aanvulling zijn op de menselijke capaciteiten terwijl ze de controle over hen behouden.

Image
Image

Wat is Deepfake? Wanneer verscheen Deepfake?

Het is gemakkelijk te raden dat Deepfake een kleine woordspeling is die verband houdt met Deep Learning en de vervalsingen waarover ik hierboven sprak. Dat wil zeggen, Deepfake zou nep naar een nieuw niveau moeten tillen en een persoon in deze moeilijke business moeten ontladen, zodat ze nepinhoud kunnen maken zonder energie te verspillen.

Allereerst hebben dergelijke vervalsingen betrekking op video. Dat wil zeggen, elke persoon kan voor de camera zitten, iets zeggen, en zijn gezicht zal worden vervangen door een andere persoon. Het ziet er eng uit, omdat je in feite alleen de basisbewegingen van een persoon hoeft te vangen en het simpelweg onmogelijk is om een nep te onderscheiden. Laten we eens kijken hoe het allemaal begon.

Het eerste generatieve vijandige netwerk is gemaakt door een student aan de Stanford University. Het gebeurde in 2014 en de naam van de student was Ian Goodfellow. In feite plaatste hij twee neurale netwerken tegen elkaar, waarvan er één bezig was met het genereren van menselijke gezichten, en de tweede analyseerde ze en sprak op dezelfde manier of niet. Dus trainden ze elkaar en op een dag begon het tweede neurale netwerk in de war te raken en de gegenereerde afbeeldingen echt te nemen. Het is dit steeds complexere systeem dat Deepfake doet ontstaan.

Nu is een van de belangrijkste promotors van het idee van Deepfake Hao Li. Hij doet niet alleen dit, maar ook vele anderen. Hiervoor ontving hij herhaaldelijk verschillende prijzen, waaronder niet-officiële. Overigens is hij een van degenen die bedankt moeten worden voor het verschijnen van animoji op de iPhone X. Als u geïnteresseerd bent, kunt u er op zijn website meer in detail op vertrouwd raken. Tegenwoordig is hij niet het belangrijkste gespreksonderwerp.

We herinnerden ons hem alleen omdat hij zijn aanvraag liet zien op het World Economic Forum in Davos, waarmee je het gezicht van een persoon die voor de camera zit, kunt vervangen door een ander gezicht. In het bijzonder liet hij zien hoe het systeem werkt aan de hand van de gezichten van Leonardo DiCaprio, Will Smith en andere beroemde mensen.

Het ziet er een beetje eng uit. Aan de ene kant kun je alleen de moderne technologieën bewonderen waarmee je een gezicht kunt scannen, onderweg in een ander kunt veranderen en een nieuwe foto kunt maken. Dit alles duurt een fractie van een seconde en het systeem vertraagt niet eens. Dat wil zeggen, het maakt het niet alleen mogelijk om de voltooide video te verwerken en het gezicht te vervangen, maar ook om aan een dergelijk personage deel te nemen aan een soort live videocommunicatie.

Gevaar voor Deepfake. Hoe verander ik het gezicht van een video?

Je kunt zoveel praten als je wilt dat deze technologie nodig is, het is erg gaaf en je hoeft niet te lasteren. Je kunt zelfs tot het uiterste gaan en beginnen te zeggen dat dit de positie is van een felle ouwe lul die gewoon bang is voor al het nieuwe, maar er zijn echt meer gevaren dan voordelen.

Met dergelijke technologie, vooral als het open source is, kan iedereen surfen en elke video opnemen. Het is niet slecht als het alleen iemands eer en waardigheid in diskrediet brengt, veel erger als het een verklaring is die namens een belangrijk persoon is afgelegd. Door bijvoorbeeld een video van slechts 30-40 seconden op te nemen namens Tim Cook, kun je bijna de hele Amerikaanse IT-sfeer, onder leiding van Apple, vernietigen. De aandelenmarkt zal zo hard worden getroffen dat het paniek zaait onder beleggers. Als gevolg hiervan zullen duizenden mensen miljarden dollars verliezen.

Iedereen die deze manier van geld verdienen niet leuk vindt, zal zeggen dat dit is wat ze nodig hebben, laat ze naar de fabriek gaan. Maar in het meest trieste scenario zal er hierna geen plant zijn. Bovendien is het oubollig dat we iemand krijgen die vals speelt bij waardeschommelingen van effecten. Het is voldoende om ze op tijd te kopen en verkopen.

De situatie zou nog erger kunnen zijn als de "grappenmaker" zich uitspreekt namens de leider van een grote staat. Natuurlijk wordt dan alles onthuld, maar gedurende deze tijd kun je veel onaangename dingen doen. Tegen deze achtergrond zou het eenvoudigweg het gezicht van een beroemdheid vervangen door een acteur in een film voor volwassenen een onschuldige grap zijn.

Bij dergelijke technologieën is het belangrijkste om te scannen, en dan is het een kwestie van technologie. In de ware zin van het woord
Bij dergelijke technologieën is het belangrijkste om te scannen, en dan is het een kwestie van technologie. In de ware zin van het woord

Bij dergelijke technologieën is het belangrijkste om te scannen, en dan is het een kwestie van technologie. In de ware zin van het woord.

Je kunt je de tegenovergestelde situatie voorstellen, wanneer een echt persoon iets zegt en dan iedereen verzekert dat hij erin is geluisd. Hoe je in deze situatie moet zijn, is ook niet erg duidelijk. Dit zal de nieuwsfeeds zodanig verwarren dat het simpelweg niet mogelijk is om het in een andere bron te controleren. Als gevolg hiervan zal het in het algemeen onduidelijk worden wat waar en wat niet waar is in deze wereld. Uit films komt een beeld naar voren over een grimmige toekomst, zoals Surrogates of Terminator, waarin de T-1000 zichzelf voorstelde als andere mensen en onder andere John Conor belde namens zijn adoptiemoeder.

Nu heb ik het niet eens over een ander misbruik dat het verzamelen van vals bewijs mogelijk maakt. Tegen deze achtergrond wordt al het plezier van het speelgoed te twijfelachtig.

Hoe kan ik Deepfake detecteren?

Het probleem is niet eens dat dergelijke systemen verboden zouden moeten worden, maar dat dit niet meer mogelijk is. Ze zijn er al, en de ontwikkeling van technologieën, waaronder het lezen van gezichten, heeft geleid tot hun verschijning en de verspreiding van open source. Zelfs als we ons voorstellen dat het systeem in zijn huidige vorm zal ophouden te bestaan, moeten we begrijpen dat het opnieuw zal worden gecreëerd. Ze zullen neurale netwerken opnieuw leren met elkaar te werken en dat is alles.

Tot nu toe is niet alles zo eng, en je kunt letterlijk een nep met het blote oog identificeren. Het beeld is vergelijkbaar, maar nogal ruw. Bovendien heeft ze soms wat mengproblemen, vooral rond de randen van het gezicht. Maar niets staat stil en het is helemaal niet moeilijk om het nog meer te ontwikkelen. Dezelfde Hao Li is er zeker van dat dit niet meer dan een paar maanden zal duren, en om "maskers" te maken die zelfs een computer niet kan onderscheiden, zal het nog enkele jaren duren. Daarna is er geen weg meer terug.

Enerzijds kan het algoritme dat YouTube en Facebook al aan het maken zijn hiertegen beschermen. Overigens heeft de laatste zelfs een wedstrijd geopend voor de ontwikkeling van herkenningstechnologie - Deepfake Detection Challenge ("De taak om deepfakes te detecteren"). Het prijzengeld voor deze wedstrijd is $ 10 miljoen. De wedstrijd is al begonnen en eindigt in maart 2020. U kunt nog tijd hebben om deel te nemen.

Het vervangen van een gezicht in een video is geen probleem meer
Het vervangen van een gezicht in een video is geen probleem meer

Het vervangen van een gezicht in een video is geen probleem meer.

Misschien is deze vrijgevigheid te wijten aan een nepvideo met Mark Zuckerberg zelf. Als deze twee dingen met elkaar samenhangen, is de opkomst van een dergelijke wedstrijd niet verrassend.

Als het vervangen gezicht volledig overeenkomt met het origineel, zal de tegenkracht die wordt vertegenwoordigd door een speciaal neuraal netwerk machteloos zijn. In dit geval zal ze minimale verschillen in gezichtsuitdrukkingen, bewegingen en manier van spreken moeten opvangen. In het geval van beroemde mensen zal een dergelijk probleem worden opgelost op het niveau van de videoservice, aangezien dezelfde YouTube weet hoe de conventionele Donald Trump beweegt. Als het om een minder bekende persoon gaat, wordt het lastiger. Hoewel dit ook kan worden bewezen door hem voor de camera te plaatsen en een informeel gesprek te voeren terwijl het neurale netwerk zijn bewegingen analyseert. Het zal zoiets blijken te zijn als het bestuderen van een vingerafdruk, maar zoals we kunnen zien, zal dit weer tot onnodige moeilijkheden leiden.

Video-authenticatiesystemen in camera's naaien kan ook worden omzeild. Je kunt de camera de vastgelegde video laten markeren en duidelijk maken dat deze niet is gefilmd via een aparte applicatie of verwerkt in een speciaal programma. Maar hoe zit het met video's die zojuist zijn verwerkt? Bijvoorbeeld een bewerkt interview. Als gevolg hiervan krijgen we een video waarin de originele sleutel niet meer aanwezig is.

Aan het eind een paar memes
Aan het eind een paar memes

Aan het eind een paar memes.

Kunnen we zeggen dat we nu een van de scenario's van een donkere toekomst hebben geschetst? Over het algemeen wel. Als de technologieën die zijn gemaakt om goede doelen te bereiken uit de hand lopen, kunnen ze worden nippen van verdriet. Eigenlijk zijn er veel opties voor dergelijke gevaarlijke technologieën, maar de meeste zijn beschermd. Bijvoorbeeld kernfusie. Hier hebben we te maken met code die iedereen kan krijgen.

Schrijf in de opmerkingen hoe u bescherming tegen vervalsing ziet, aangezien het maskersysteem maskers volledig identiek kon maken aan de originele gezichten. En omdat ze op video staan, kun je er niet eens diepte- en volumeherkenning op toepassen. Laten we bovendien aannemen dat elke code en sleutel die in de afbeelding is ingesloten, kan worden gehackt. Zoals ze zeggen, het zou zijn waarvoor. Nu kunnen we bespreken, alle inleidende is er.

Artem Sutyagin

Aanbevolen: