Google Wil Skynet Op Een Dag Niet Creëren, Dus Maakt Het Een Switch Voor AI - Alternatieve Mening

Google Wil Skynet Op Een Dag Niet Creëren, Dus Maakt Het Een Switch Voor AI - Alternatieve Mening
Google Wil Skynet Op Een Dag Niet Creëren, Dus Maakt Het Een Switch Voor AI - Alternatieve Mening

Video: Google Wil Skynet Op Een Dag Niet Creëren, Dus Maakt Het Een Switch Voor AI - Alternatieve Mening

Video: Google Wil Skynet Op Een Dag Niet Creëren, Dus Maakt Het Een Switch Voor AI - Alternatieve Mening
Video: Switches Tic Tac Toe 2024, Juli-
Anonim

Er zijn twee belangrijke tegengestelde kanten bij vragen en discussies over de toekomst van kunstmatige intelligentie. In de ene hoek zijn bedrijven als Google, Facebook, Amazon en Microsoft agressief te investeren in technologie om AI-systemen slimmer te maken, terwijl in de andere de grote denkers van onze tijd zijn, zoals Elon Musk en Stephen Hawking die geloven dat de ontwikkeling van AI verwant is aan een "demon-spreuk".

Een van de meest geavanceerde AI-bedrijven, DeepMind, eigendom van Google, heeft beveiligingsmaatregelen getroffen voor het geval een persoon "de controle over een robot moet overnemen waarvan het falen kan leiden tot onherstelbare gevolgen". We kunnen aannemen dat we het hebben over … "dood alle mensen." Natuurlijk is de genomen maatregel in werkelijkheid geen aanwijzing voor een mogelijke apocalyps, maar gaat het eerder om beveiligingsmaatregelen die verband houden met slimme robots die werken en in de toekomst zullen werken in verschillende fabrieken en fabrieken.

Het gepubliceerde document met voorschriften is een gezamenlijk werk van DeepMind en het Oxford Institute for the Future of Humanity, dat, zoals de naam al aangeeft, kwesties behandelt die juist deze mensheid in de toekomst zullen brengen. De oprichtende directeur van het instituut, Nick Bostrom, heeft zich decennia lang zeer levendig uitgesproken over de mogelijke gevaren van de ontwikkeling van kunstmatige intelligentie en schreef meer dan één boek over deze kwestie, waarin hij de gevolgen van het maken van superintelligente robots besprak.

De gids waar we het vandaag over hebben, genaamd "Safely Disabled Agents", onderzoekt hoe een AI kan worden uitgeschakeld als deze iets begint te doen dat de menselijke operator niet wil doen. Het werk bestaat uit verschillende berekeningen en formules die 99 procent van ons waarschijnlijk niet zal begrijpen. Daarom hebben we het, simpel gezegd, over een "rode knop" die AI kan uitschakelen.

Je kunt lachen en je afvragen, maar de pioniers van robotica en AI kijken naar dezelfde sciencefictionfilms als wij. Degenen waarin robots ooit hebben bedacht hoe ze het afsluitcommando kunnen negeren. Dus nu zijn we hier klaar voor. Het gepubliceerde document beschrijft methoden en oplossingen om ervoor te zorgen dat de "trainbare agent" (lees AI) niet kan leren de impact van de externe omgeving of menselijke operator te negeren of te voorkomen.

Dit lijkt misschien overdreven, vooral als je bedenkt dat de meest geavanceerde AI op dit moment eigenlijk alleen goed is in bordspellen. Bostrom is echter van mening dat voordat we beginnen met het maken van AI van het niveau van het menselijk brein, passende maatregelen moeten worden genomen:

“Zodra kunstmatige intelligentie het menselijke niveau bereikt, wordt op veel gebieden een forse sprong in ontwikkeling verwacht. Ook zullen de AI's kort daarna zelf nieuwe AI's creëren. Beoordeel gewoon deze vooruitzichten en tegelijkertijd de mogelijke gevaren. Daarom is het beter om het te overdrijven dan het te missen."

NIKOLAY KHIZHNYAK

Promotie video:

Aanbevolen: