"We Moeten Nu Nadenken Hoe We Kunstmatige Intelligentie Kunnen Beveiligen" - Alternatieve Mening

"We Moeten Nu Nadenken Hoe We Kunstmatige Intelligentie Kunnen Beveiligen" - Alternatieve Mening
"We Moeten Nu Nadenken Hoe We Kunstmatige Intelligentie Kunnen Beveiligen" - Alternatieve Mening

Video: "We Moeten Nu Nadenken Hoe We Kunstmatige Intelligentie Kunnen Beveiligen" - Alternatieve Mening

Video:
Video: 'Europa onderschat nog steeds het gevaar van China en de CCP.' Een gesprek met Henk Schulte Nordholt 2024, September
Anonim

Stephen Hawking zet de "kruistocht" tegen kunstmatige intelligentie (AI) voort.

Tijdens de langverwachte Ask Me Everything on Reddit-campagne schreef hij dat het werk aan het ontwikkelen van een AI-beveiligingsprotocol nu moet worden gedaan, niet in de verre toekomst.

"Ons doel zou niet moeten zijn om abstracte kunstmatige intelligentie te creëren, maar om bruikbare intelligentie te creëren", schreef de beroemde natuurkundige. geavanceerde AI”.

Hawking gebruikt roem om de AI-veiligheidsbeweging te ondersteunen sinds 2014, toen hij samen met andere onderzoekers een redactioneel commentaar schreef voor de existentiële bedreiging die geavanceerde machines vormen voor de mensheid.

Andere opmerkelijke technische persoonlijkheden, Elon Musk en Steve Wozniak, hebben zich bij Hawking aangesloten. Eerder ondertekenden alle drie een open brief waarin werd opgeroepen tot een verbod op autonome wapens of gevechtsrobots.

De verwachting dat de mensheid binnenkort kunstmatige intelligentie zal creëren, bestaan al sinds de jaren 50 en hebben zichzelf nog niet gerechtvaardigd. De meeste AI-wetenschappers geloven echter dat in deze eeuw machines zullen verschijnen die qua intelligentie gelijk zijn aan mensen.

Image
Image

Foto: ANDREW COWIE / AFP

Promotie video:

Hawking waarschuwt dat de weergave van kunstmatige intelligentie in sciencefictionfilms het werkelijke gevaar van machines verstoort. Films zoals The Terminator tonen demonische killer-robots die de mensheid proberen te vernietigen om redenen die echte kunstmatige intelligentie niet had. Ze maken het ook gemakkelijker om potentiële AI-risico's te verkleinen (zoals het niet bouwen van cyborgs).

“De echte dreiging van AI is niet dat het slecht is, maar dat het zeer capabel is. Kunstmatige superintelligentie is erg goed in het uitvoeren van zijn taken.

Als zijn taken niet samenvallen met de onze, zullen we problemen hebben, - schreef Hawking, - je hebt nauwelijks een hekel aan mieren, maar als je de leiding hebt over een groen energieproject, en het gebied waar de mierenhoop zich bevindt, moet worden overstroomd, hebben de mieren pech. Laten we niet toestaan dat de mensheid zich in de positie van deze mieren bevindt."

Nick Bostrom, een AI-filosoof, fantaseert over scenario's voor het einde van de wereld wanneer een programma in de verkeerde richting begint te werken. Kunstmatige intelligentie krijgt bijvoorbeeld de taak om een plan te ontwikkelen om het milieu te beschermen, en om het ecologische probleem op te lossen, besluit het de mensheid te vernietigen.

Elon Musk heeft al $ 10 miljoen uitgetrokken voor AI-beveiligingsonderzoek om te voorkomen dat destructieve kunstmatige intelligentie zoals Skynet in Terminator verschijnt. Maar Hawking wil dat mensen hun algemene perceptie van AI veranderen.

"Vertel je leerlingen alsjeblieft dat ze niet alleen moeten nadenken over hoe ze AI kunnen maken, maar ook hoe ze ervoor kunnen zorgen dat het voor nuttige doeleinden wordt gebruikt", zei Hawking tegen de docent die les geeft over kunstmatige intelligentie. "De opkomst van een AI die de mens overstijgt, zal worden ofwel de beste of de ergste gebeurtenis in de menselijke geschiedenis. Daarom is het belangrijk dat alles verloopt zoals het hoort."

Aanbevolen: