Om De Dood Te Voorkomen, Moet De Mensheid Kunstmatige Intelligentie Opsluiten - Alternatieve Mening

Inhoudsopgave:

Om De Dood Te Voorkomen, Moet De Mensheid Kunstmatige Intelligentie Opsluiten - Alternatieve Mening
Om De Dood Te Voorkomen, Moet De Mensheid Kunstmatige Intelligentie Opsluiten - Alternatieve Mening

Video: Om De Dood Te Voorkomen, Moet De Mensheid Kunstmatige Intelligentie Opsluiten - Alternatieve Mening

Video: Om De Dood Te Voorkomen, Moet De Mensheid Kunstmatige Intelligentie Opsluiten - Alternatieve Mening
Video: Bedreiging voor de mensheid: kunstmatige intellige - RTL Z NIEUWS 2024, Mei
Anonim

Superintelligente computers of robots die het bestaan van de mensheid bedreigen, zijn een favoriete plot van sciencefiction. Volgens wetenschappers kan zo'n doemscenario in werkelijkheid alleen worden voorkomen door een virtuele "gevangenis" te creëren waarin kunstmatige intelligentie (AI) is ondergebracht. En dit moet gebeuren voordat hij leert zich bewust te zijn van zichzelf en zichzelf te verbeteren.

Als je deze geest uit de fles laat, kan het van een orakel dat onze problemen oplost, een apocalyptische dreiging worden, zegt Roman Yampolsky, een wetenschapper aan de Universiteit van Louisville, Kentucky, die in de informatica werkt. De omstandigheden waarin de AI zal worden ingeperkt, moeten zorgvuldig worden gepland, zodat deze niet kan losbreken door middel van bedreigingen, omkoping, verleiding of computerhacking.

"Hij kan vele manieren bedenken om invloed uit te oefenen, een complexe socio-engineering combinatie op gang te brengen en bestaande hardwarecomponenten te gebruiken voor doeleinden die we ons niet eens kunnen voorstellen", meent Yampolsky. - Dergelijke software heeft onbeperkte mogelijkheden om computers en netwerken te infecteren. AI kan manieren vinden om de menselijke psyche te beïnvloeden, mensen om te kopen of te chanteren die ermee in contact staan."

De opkomst van een nieuw gebied van wetenschappelijk onderzoek dat zich bezighoudt met het probleem van het creëren van een "gevangenis" voor kunstmatige intelligentie heeft extra voordelen. Deze onderzoeken zijn erg nuttig voor het verbeteren van computerbeveiliging en cryptografie, weet Yampolsky zeker. Zijn voorstellen werden gedetailleerd beschreven in het maartnummer van het academische tijdschrift van de Journal of Consciousness Studies.

Hoe u een val instelt voor Skynet

Om te beginnen kunt u kunstmatige intelligentie insluiten in een "virtuele machine". Laat het werken binnen een normaal besturingssysteem - door AI-toegang tot de software en hardware van de hostcomputer te beperken, wordt het veel onschadelijker. Hoe dan ook, slimme AI zal geen geheime berichten naar zijn menselijke supporters kunnen sturen en morsecode verslaan met koelventilatoren.

Kunstmatige intelligentie in een computer plaatsen zonder internettoegang is een goede manier om de verraderlijke plannen van AI om de aarde tegen jou en mij te beschermen, te dwarsbomen. In het geval van een andere storing, kunnen onderzoekers het AI-denkproces altijd vertragen door de verwerkingssnelheid van de computer te vertragen, regelmatig op de resetknop te drukken of de AI los te koppelen van de voeding.

Promotie video:

Deze beveiligingsmaatregelen zijn ontworpen om zeer intelligente en gevaarlijke computervirussen aan te pakken, maar hoe effectief ze blijken te zijn, is voor iedereen een raadsel.

Catch-22 (roman van de Amerikaanse schrijver J. Heller; ong. Mixednews) is dat we onze ideeën niet op ware grootte kunnen testen totdat de ontwikkeling van AI is voltooid. Maar om AI veilig te maken, is het nodig om een reeks passende maatregelen te ontwikkelen, zegt Yampolsky. "De beste optie is om beperkingen op te leggen aan het gebruik van AI-systemen en vervolgens, indien nodig, die beperkingen te wijzigen in overeenstemming met de toenemende mogelijkheden van AI."

Image
Image

Wetenschapper Roman Yampolsky stelde voor om het "@" -teken of andere tekens die tegenwoordig worden gebruikt om een straling of biologische dreiging aan te duiden, te gebruiken om de aanwezigheid van een gevaar in verband met kunstmatige intelligentie aan te duiden.

Zet nooit een menselijke bewaker op het voertuig

Tijdens een ogenschijnlijk onschuldig gesprek met een bewaker belet niets de AI psychologische technieken zoals vriendschap of chantage te gebruiken. Iemand kan worden omgekocht door hem perfecte gezondheid, onsterfelijkheid te beloven of zelfs een belofte om familieleden en vrienden uit de andere wereld terug te laten keren. Of bereik iets met bedreigingen.

De veiligste manier om met AI te communiceren, is door het bij het oplossen van een specifiek wetenschappelijk of technisch probleem een antwoord te laten kiezen uit de vele beschikbare opties, legt Yampolsky uit. Dit zal helpen om het superslimme orakel aan een korte lijn te houden.

Veel onderzoekers zijn van mening dat het, ondanks alle voorzorgsmaatregelen, niet zal werken om de AI-smartass voor onbepaalde tijd op slot te houden. Het laatste experiment van Eliezer Yudkowski, een onderzoeker aan het Institute of Singularity over de creatie van kunstmatige intelligentie, toonde aan dat zelfs intelligentie op menselijk niveau een persoon kan misleiden en kan "ontsnappen" uit de gevangenis.

Desalniettemin staat Yampolsky erop AI strikt geïsoleerd te houden - het is nog steeds beter dan opgeven en het volledige vrijheid geven. Maar als de ontwikkeling van AI het punt bereikt waarop het een persoon kan manipuleren met behulp van het onderbewustzijn (voorspellen van de toekomst), telepathie of telekinese, zullen de gevolgen onvoorspelbaar zijn.

"Als een dergelijke AI zichzelf zal verbeteren en een niveau zal bereiken dat de mogelijkheden van de menselijke intelligentie aanzienlijk overtreft, zijn de gevolgen niet eens voor te stellen", waarschuwt Yampolsky.