Robots Zullen De Meest Plausibele Informatievervalsingen Creëren - Alternatieve Mening

Robots Zullen De Meest Plausibele Informatievervalsingen Creëren - Alternatieve Mening
Robots Zullen De Meest Plausibele Informatievervalsingen Creëren - Alternatieve Mening

Video: Robots Zullen De Meest Plausibele Informatievervalsingen Creëren - Alternatieve Mening

Video: Robots Zullen De Meest Plausibele Informatievervalsingen Creëren - Alternatieve Mening
Video: pelea robots 2024, Mei
Anonim

Stel je voor dat een of ander wonderkind op een dag een technologie zou uitvinden waarmee mensen of materiële voorwerpen door muren kunnen gaan, en instructies op internet zou plaatsen over hoe je goedkoop zo'n wondermachine kunt bouwen met algemeen verkrijgbare huishoudelijke materialen. Hoe zou de wereld veranderen?

Veel industrieën zullen waarschijnlijk aanzienlijk productiever worden. Door door muren te kunnen lopen in plaats van deuren te moeten gebruiken, zouden mensen zich gemakkelijker door kantoren kunnen verplaatsen, goederen in magazijnen kunnen verplaatsen en talloze dagelijkse huishoudelijke taken kunnen uitvoeren. De negatieve gevolgen kunnen echter ruimschoots opwegen tegen de positieve. Het achter slot en grendel houden van waardevolle spullen zou alle betekenis verliezen. Iedereen zou gemakkelijk het magazijn kunnen betreden, een bankkluis of een huis kunnen betreden.

De meeste methoden die we gebruiken om privé-eigendom te beschermen, hebben op de een of andere manier te maken met muren, dus ze zouden van de ene op de andere dag nutteloos zijn. Dieven zouden straffeloos handelen totdat de samenleving alternatieve manieren bedacht om dergelijke misdaden te voorkomen. Een economische ineenstorting of sociale chaos kan het resultaat zijn van een dergelijke ontwikkeling van gebeurtenissen.

Het bovenstaande illustreert een algemeen principe: technologische innovatie is niet altijd gunstig voor de samenleving, althans niet op korte termijn. Technologieën zijn in staat om negatieve externe effecten te creëren, externe effecten. Deze economische term betekent schade toegebracht aan derden of partijen. Als deze negatieve externe effecten opwegen tegen het nut van de technologie zelf, maakt de uitvinding de wereld eigenlijk slechter, niet beter, althans voor een tijdje.

Machine learning, vooral een variant die bekend staat als deep learning, is misschien wel de meest opwindende technologische doorbraak ter wereld. Het stelt computers in staat om veel taken uit te voeren die voorheen alleen mensen konden: afbeeldingen herkennen, auto's besturen, de aandelenmarkt verhandelen en meer. Dit heeft bij sommige mensen tot bezorgdheid geleid dat machine learning mensen onnodig en nutteloos kan maken op de werkplek. En dit is eigenlijk mogelijk, maar er is een veel ernstiger gevaar van machine learning dat tot nu toe niet genoeg aandacht heeft gekregen. Het punt is dat als machines kunnen leren, ze kunnen leren liegen.

Mensen kunnen tegenwoordig afbeeldingen zoals foto's vervalsen, maar dit is een moeizaam en complex proces. En vervalsing van een stem- of videobeeld gaat over het algemeen buiten de mogelijkheden van een gewoon persoon. Maar binnenkort zal het dankzij machine learning waarschijnlijk mogelijk zijn om gemakkelijk geloofwaardige nepvideobeelden van iemands gezicht te maken en de indruk te wekken dat de persoon met zijn eigen stem spreekt. Er is al een technologie voor het synchroniseren van lipbewegingen, die letterlijk elk woord in de mond van een persoon kan stoppen. Dit is slechts het topje van de ijsberg. Binnenkort kunnen 12-jarigen fotorealistische en geloofwaardig klinkende nepbeelden maken van politici, bedrijfsleiders, hun familieleden of vrienden in hun slaapkamers in hun slaapkamers, waarbij ze alles zeggen wat ze maar kunnen bedenken.

Dit leidt op zichzelf al tot duidelijk misbruik. Politieke hoaxes, het zogenaamde ‘nepnieuws’ of ‘information stuffing’, zullen zich als bosbranden verspreiden. Natuurlijk zal het bedrog zo snel mogelijk worden ontdekt - geen enkele digitale technologie kan zo goed zijn dat een andere technologie de vervalsing niet kan detecteren. Maar dit zal pas gebeuren nadat het schadelijke idee al is doorgedrongen tot de geest van mensen die erin geloven. Stel je een perfect gefabriceerde nepvideo voor van presidentskandidaten die racistische opmerkingen schreeuwen of ernstige misdaden opbiechten.

Dit is echter pas het begin. Stel je het potentieel voor om de aandelenmarkt te manipuleren. Stel dat iemand een nepvideo verspreidt waarin Tesla-topman Elon Musk toegeeft dat Tesla-auto's niet veilig zijn. De video wordt over het internet verspreid en de aandelen van het bedrijf zullen crashen. Kort na de ontdekking van een vervalsing, zal hun prijs zich herstellen, maar gedurende deze tijd zullen manipulators enorm veel geld kunnen verdienen door te spelen om Tesla-aandelen te verminderen.

Promotie video:

En dit is verre van het meest extreme scenario. Stel je voor dat zo'n grappenmaker een realistische nepvideo maakt van president Donald Trump die beweert dat een aanval op Noord-Koreaanse doelen op handen is, en die video vervolgens plaatst waar Noord-Koreanen het kunnen zien. Hoe groot is de kans dat de Noord-Koreaanse leiders zullen beseffen dat dit nep is voordat ze moeten beslissen om een oorlog te beginnen?

Degenen die zulke extreme scenario's vaak als een alarmist beschouwen, zullen er redelijkerwijs op wijzen dat elke vervalsing kan worden gedetecteerd, aangezien dezelfde machine learning-technologieën zullen worden gebruikt om ze te detecteren als voor het maken. Maar dit betekent niet dat we niet het gevaar lopen onszelf in een wereld vol alomtegenwoordige vervalsingen te bevinden. Zodra de vervalsingen zo geloofwaardig worden dat mensen ze niet alleen kunnen detecteren, zullen we voor altijd het vertrouwen verliezen in wat we zien en horen. In plaats van onze eigen zintuigen te vertrouwen, zullen we worden gedwongen om te vertrouwen op algoritmen die worden gebruikt om vervalsingen op te sporen en informatie te verifiëren. Tijdens de evolutie hebben we geleerd om op onze eigen gevoelens te vertrouwen,en de overdracht van deze functies naar machine-intelligentie kan voor de meeste mensen te ingrijpend zijn.

Dit kan slecht nieuws zijn voor de economie. Bedrijfs- en handelsnetwerken zijn gebouwd op vertrouwen en communicatie. Als machine learning op een dag een eindeloze orkaan van illusies en vervalsingen in de publieke informatiesfeer werpt, zullen de muren die door evolutie zijn gecreëerd om realiteit van fictie te onderscheiden, instorten. In dit geval kan het niveau van vertrouwen in de samenleving snel afnemen, wat niet zal vertragen om het wereldwijde welzijn van de mensheid negatief te beïnvloeden.

Om deze reden zou de overheid waarschijnlijk enkele stappen moeten ondernemen om ervoor te zorgen dat digitale vervalsing streng wordt bestraft. Helaas is het onwaarschijnlijk dat de huidige regering zo'n stap zal zetten uit liefde voor kleinschalig nieuws. En regeringen zoals Rusland zullen waarschijnlijk nog minder geneigd zijn om dergelijke praktijken aan banden te leggen. Uiteindelijk vormt de combinatie van slecht bestuur met krachtige nieuwe technologieën een veel grotere bedreiging voor de menselijke samenleving dan de technologieën zelf.

Door Noah Smith - Bloomberg News Columnist

Igor Abramov