Google-ingenieur Ontwikkelt Een Tool Om Nepvideo's Te Detecteren - Alternatieve Mening

Google-ingenieur Ontwikkelt Een Tool Om Nepvideo's Te Detecteren - Alternatieve Mening
Google-ingenieur Ontwikkelt Een Tool Om Nepvideo's Te Detecteren - Alternatieve Mening

Video: Google-ingenieur Ontwikkelt Een Tool Om Nepvideo's Te Detecteren - Alternatieve Mening

Video: Google-ingenieur Ontwikkelt Een Tool Om Nepvideo's Te Detecteren - Alternatieve Mening
Video: Deepfake With Audio Only [Wav2Lip] 2024, Mei
Anonim

In een tijdperk vol nepnieuws geloven velen dat video geloofwaardiger is omdat het een duidelijker beeld van de werkelijkheid geeft. Helaas is dit een verkeerde mening, volgens Google-ingenieur Suparsan Suvajanakorn, die een tool heeft ontwikkeld die op basis van de analyse van de originele originele video-informatie een realistisch nepvideobeeld kan creëren dat de kenmerken van iemands spraak simuleert, waardoor een perfecte lipsynchronisatie met de gegeven nep-tekst wordt gegarandeerd.

Zoals elke technologie heeft de nieuwigheid een enorm potentieel, zowel in positieve als negatieve richtingen. Daarom werkt Suwajanakorn ook samen met de AI Foundation, een bedrijf op het gebied van kunstmatige intelligentie, om een Reality Defender-app te maken die zichzelf automatisch kan insluiten in internetbrowsers om nepfoto's en -video's te detecteren en te taggen.

"Ik voedde mijn computer 14 uur met Barack Obama-materiaal en stelde vervolgens zijn toespraak samen", zei Suwajanakorn op een TED-conferentie (Technology, Entertainment, Design) in Vancouver, waar hij indrukwekkend overtuigende resultaten liet zien.

Volgens de auteur kan deze technologie worden gebruikt om virtuele versies te maken van die mensen die onze wereld al hebben verlaten: grootouders die om advies kunnen worden gevraagd; acteurs, wier fans alles willen doen voor een nieuwe ontmoeting met hun idool; geweldige leraren die les zullen geven, evenals auteurs die hun eigen werken lezen.

Hij sprak in het bijzonder over het New Dimensions in Evidence-project, waarmee museumbezoekers kunnen praten met holografische afbeeldingen van overlevenden van de Holocaust.

“De resultaten waren intrigerend, maar tegelijkertijd alarmerend. Ik maak me ernstig zorgen over mogelijke misbruiken”, zei de uitvinder. "Dus ik werk ook aan tegenmaatregelen om nepfoto's en -video's te identificeren."

Hij maakt zich bijvoorbeeld zorgen dat een nepvideo van een van de wereldleiders die een nucleaire aanval op de vijand aankondigt, een wereldoorlog en een catastrofe voor de mensheid zou kunnen uitlokken.

Reality Defender, die afbeeldingen automatisch scant op tekenen van manipulatie, stelt gebruikers ook in staat om manipulatie te melden. Op deze manier wordt de "kracht van de massa" verbonden met de goede zaak om de waarheid te verdedigen.

Promotie video:

"Videomanipulatie kan voor schadelijke doeleinden worden gebruikt als de nodige tegenmaatregelen niet worden genomen", zei de auteur in een interview met Agence France-Presse. “We moeten het maken van nepvideobeelden extreem riskant en inefficiënt maken in termen van kosten.

Nepnieuws schrijven is misschien gemakkelijk en goedkoop, zei Suwajarakorn, maar het manipuleren van videobeelden zonder enig spoor na te laten is een veel moeilijkere taak. Video's zijn streams van duizenden afbeeldingen, die elk foutloos moeten worden aangepast om een goede nep te maken.

"Er is nog een lange weg te gaan voordat we menselijke video effectief kunnen simuleren", zegt Suwajanakorn, wiens werk in het veld enkele jaren geleden begon toen hij student was aan de Universiteit van Washington.

"We moeten uiterst voorzichtig zijn dat deze tool niet in verkeerde handen valt", zei hij tegen Agence France-Presse.

Igor Abramov

Aanbevolen: