Singulariteitsafdichting. Het Probleem Van Het Beperken Van De Vrijheid Van Kunstmatige Intelligentie - Alternatieve Mening

Inhoudsopgave:

Singulariteitsafdichting. Het Probleem Van Het Beperken Van De Vrijheid Van Kunstmatige Intelligentie - Alternatieve Mening
Singulariteitsafdichting. Het Probleem Van Het Beperken Van De Vrijheid Van Kunstmatige Intelligentie - Alternatieve Mening

Video: Singulariteitsafdichting. Het Probleem Van Het Beperken Van De Vrijheid Van Kunstmatige Intelligentie - Alternatieve Mening

Video: Singulariteitsafdichting. Het Probleem Van Het Beperken Van De Vrijheid Van Kunstmatige Intelligentie - Alternatieve Mening
Video: Kunnen we kunstmatige intelligentie nog doorgronden? 2024, Mei
Anonim

Het artikel probeert het door David Chalmers geschetste probleem van het verzegelen van singulariteit te formaliseren en te onderzoeken. Het artikel begint met een definitie van het probleem van het beperken van de vrijheid van kunstmatige intelligentie. Na analyse van de bestaande opties om dit probleem en hun tekortkomingen op te lossen, werd een protocol voorgesteld met als doel een veilige gesloten omgeving te creëren die de negatieve manifestaties van technologische singulariteit kan bevatten wanneer de mensheid superintelligentie gebruikt.

1. Inleiding

In de nabije toekomst zullen blijkbaar superintelligente programma's verschijnen en zich ontwikkelen. In dit verband hebben een aantal wetenschappers de kwestie van de veilige werking van AI aan de orde gesteld (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). In onderzoeken die aan dit onderwerp zijn gewijd, wordt veel aandacht besteed aan het bewaren van superintelligentie in een hermetisch afgesloten ruimte, zodat het op geen enkele manier mensen kan schaden. Eric Drexler is een van de eerste visionairs die dit onderwerp aansnijdt. Hij stelde voor om superintelligente machines in een raamwerk te plaatsen waarin alles wat ze doen bestudeerd en veilig gebruikt kan worden (Drexler 1986). Op dezelfde manier redenerend stelde futurist Nick Bostrom (Bostrom 2008) voor om een AI-orakel (AI) te creëren dat alleen in staat isom vragen te beantwoorden. Ten slotte, in 2010, bracht David Chalmers het idee van een hermetisch afgesloten singulariteit naar voren (Chalmers 2010). Volgens Chalmers is het eerste dat om veiligheidsredenen moet worden gedaan, de activiteit van AI-systemen strak te controleren, terug te brengen tot het modelleren van virtuele werelden, totdat je door het gedrag van deze systemen te bestuderen, hun bedoelingen volledig kunt verduidelijken.

1.1 Het probleem van het beperken van de vrijheid van kunstmatige intelligentie

Interessant is dat er al lang over het probleem van het beperken van de vrijheid van AI wordt gesproken en helemaal niet in verband met de studie van technologische singulariteit. Het zogenaamde "beperking van vrijheidsprobleem" (PIC) werd al in 1973 gesteld door Butler Lampson (Lampson 1973). Hij zag het als een uitdaging voor de wetenschappelijke en technologische vooruitgang, die een bedreiging vormde voor het veilige werk van computerspecialisten, en formuleerde het als volgt: “… Het probleem van het beperken van de vrije uitvoering van een programma om te voorkomen dat dit programma informatie doorgeeft aan iemand anders, behalve degene die het heeft gelanceerd. … We willen de vrijheid van elk programma kunnen beperken. … Elk programma zal, als er beperkingen worden opgelegd aan de uitvoering ervan, geen gegevens kunnen "samenvoegen" met onbevoegde personen. Een ondeugend programma dat naar het buitenland probeert te ontsnappen, kan op heterdaad betrapt worden”(ibid.).

Om het probleem van vrijheidsbeperking op te lossen, ontwikkelde Lampson wetten van vrijheidsbeperking (ibid.):

Promotie video:

1) Volledige isolatie: de uitvoering van een programma is beperkt, zodat het geen ander programma kan oproepen.

2) Overgankelijkheid: als een programma waarvan de uitvoering beperkt is, een ander programma oproept dat geen vertrouwen wekt, dan moet de uitvoering van het opgeroepen programma ook worden beperkt.

3) Maak een masker: het programma, waarvan de uitvoering aan beperkingen onderhevig is, moet de persoon die het start in staat stellen om te bepalen of het al zijn toegangen tot legale en ongeautoriseerde kanalen heeft.

4) Prestaties bewaken: de beheerder moet ervoor zorgen dat de invoer van een beperkt programma op ongeautoriseerde kanalen voldoet aan de vereisten van de persoon die het start.

Bovendien heeft Lampson twee soorten kanalen geïdentificeerd en geïdentificeerd waardoor informatie de door de beheerder beperkte ruimte kan verlaten. Legale kanalen maken deel uit van een communicatieprotocol dat in een besloten ruimte is geïntegreerd (bijvoorbeeld een tekstterminal). Ongeautoriseerde kanalen worden daarentegen niet geleverd door de ontwikkelaars van het beperkte programma-uitvoeringssysteem en zijn over het algemeen niet bedoeld om informatie te verzenden (bijvoorbeeld door een koeler te gebruiken die de processor koelt, kan de AI in het geheim signalen verzenden met behulp van morsecode) (ibid.).

Lampson's paper genereerde veel interesse in het probleem van terughoudendheid (Lipner 1975; (Boebert & Kain) 1996), en door de jaren heen gerelateerde onderzoeksgebieden zoals steganografie (Provos & Kain). Honeyman 2003) en communicatie via ongeautoriseerde kanalen (Moskowitz & Kang 1994; Kemmerer 1983, 2002), zijn verhuisd naar het niveau van autonome disciplines. In de hoop een nieuwe discipline van "computerbeveiliging" te starten. "AI-beveiliging ", We definiëren het probleem van het beperken van de vrijheid van AI (PSIA) als het probleem van het plaatsen van een kunstmatig intelligent onderwerp in een besloten ruimte, van waaruit AI geen informatie kan uitwisselen met de externe omgeving via legale of niet-geautoriseerde kanalen,tenzij een dergelijke uitwisseling van informatie is goedgekeurd door de beperkende administratie. Een AI-systeem dat erin slaagt het PIC-protocol te doorbreken, zou ontsnapt zijn. We hopen dat computerbeveiligingsonderzoekers de last zullen dragen van het ontwerpen, ontwikkelen en testen van veilige protocollen om de AI-vrijheid te beperken.

1.2 Gevaarlijk programma

Computersoftware is direct of indirect verantwoordelijk voor het beheer van veel belangrijke aspecten van ons leven. De marktactiviteiten van Wall Street, kerncentrales, sociale uitkeringen, kredietgeschiedenissen en verkeerslichten zijn allemaal softwaregedreven, en slechts één grote fout van de programmeurs zou een ramp kunnen zijn voor miljoenen mensen. De situatie wordt nog bedreigender door speciaal vervaardigde malware zoals virussen, spyware, Trojaanse paarden, wormen en andere gevaarlijke programma's (OP). Het OP kan directe schade aanrichten en legaal geïnstalleerde software uitschakelen die wordt gebruikt op bedrijfskritische systemen. Als het OP de mogelijkheden verwerft van kunstmatige intelligente systemen (er verschijnt bijvoorbeeld een kunstmatig intelligent virus, IIV), zullen de gevolgen ongetwijfeld zijnzal rampzalig zijn. Een gevaarlijk intelligentieprogramma (IPP) dat intelligentie op menselijk niveau bezit, in tegenstelling tot de huidige malware, kan ongekende rampen veroorzaken.

Nick Bostrom introduceerde in zijn typologie van informatiedreigingen het concept van 'gevaar van kunstmatige intelligentie' (Bostrom 2009), dat hij definieert als 'computerrisico's die voornamelijk worden veroorzaakt door de cognitieve complexiteit van het programma, en niet door de specifieke eigenschappen van schijven die in eerste instantie op het systeem zijn aangesloten'. Beveiligingsspecialisten die studeren, het uiterlijk voorkomen en OP neutraliseren, hebben beveiligingsprotocollen ontwikkeld voor het werken met "kwaadaardige software", waaronder het gebruik van zogenaamde "virusopslagplaatsen". Wij zijn van mening dat dergelijke protocollen nuttig kunnen zijn bij het oplossen van het probleem van het beperken van de vrijheid van kunstmatige intelligentie.

2. Kritiek op het idee van vrijheidsbeperking

Onderzoekers naar AI-beperkingsmethoden lijken het erover eens te zijn dat deze beperking niet met succes kan worden afgedwongen. Volgens Chalmers is bijvoorbeeld een echt hermetisch afgesloten systeem dat voorkomt dat informatie uit de simulatiewereld naar de werkelijkheid lekt “onmogelijk, of op zijn minst zinloos” (Chalmers 2010). We zullen niet in staat zijn om met een dergelijk systeem te communiceren en zelfs de werking ervan te observeren, omdat alle nuttige informatie die we uit AI halen, ons beïnvloedt en de beperking van het vrijheidsprotocol ondermijnt.

Vernor Vinge vindt van wel. Hij verzet zich tegen de fysieke beperking van vrijheid (Vinge 1993): “Stel je voor dat je opgesloten zit in je huis en dat de hoeveelheid data die je naar buiten stuurt, je meesters, strikt beperkt is. Als deze eigenaren, laten we zeggen, een miljoen keer langzamer denken dan jij, dan zul je over een paar jaar (jouw tijd) nauwelijks een soort van "nuttige uitvinding" bedenken waardoor je onbedoeld vrij zult zijn."

Maar het was Eliezer Yudkowsky die het idee van de zogenaamde "AI-box" in grote mate in diskrediet bracht. Hij toonde experimenteel aan dat zelfs menselijke intelligentie voldoende is om uit zo'n doos te ontsnappen (Yudkovsky 2002). In een serie van 5 experimenten vroeg Yudkowski verschillende mensen om de rol van een wachter te spelen met een superintelligente agent (gespeeld door de experimentator zelf), opgesloten in een AI-box. In drie van de vijf gevallen slaagde de vergrendelde agent erin zichzelf te bevrijden door alleen de chatinterface (ibid.) Te gebruiken. Later werden vergelijkbare resultaten verkregen door Yudkowski's experimenten op een iets grotere schaal te repliceren, maar met een zeer vergelijkbaar protocol (Corwin 2002).

2.1 Mogelijke vluchtroutes

Zoals de onderzoekers hebben aangetoond, kan een kunstmatige geest via veel verschillende paden uit een besloten ruimte ontsnappen. In deze sectie kijken we naar enkele van de meest voorkomende vluchtroutes in de literatuur.

2.1.1. Ontsnap met social engineering

Social engineering (SI) is de kunst van het verkrijgen van informatie en bepaalde privileges door directe psychologische impact op degenen die de gespecificeerde bronnen bezitten. Met name wordt SI vaak gebruikt om toegang te krijgen tot computersystemen, netwerken en vertrouwelijke gegevens (Yampolsky en Govindaraju 2007a). Een bekwame sociaal ingenieur organiseert elke psychologische aanval, rekening houdend met de kenmerken van een bepaalde persoon, en gebruikt zijn cultuur, kennis, vaardigheden, gemoedstoestand, overtuigingen en vooroordelen voor zijn eigen doeleinden. De uitputtende lijst van alle mogelijke beïnvloedingsmethoden is eindeloos, en in dit geval is het niet nodig om te proberen deze te reproduceren. We zullen slechts een paar voorbeelden geven die overtuigend zijn dat de superintelligentie, die een rechtstreeks communicatiekanaal heeft met de menselijke wachter, hem niet toestaat om naar de vrijheid te gaan,na enige tijd zal hij dit obstakel op weg naar de buitenwereld zeker overwinnen.

Naast triviale psychologische aanvallen met leugens, vriendschap, chantage, hypnose en romantisch flirten, kan AI een aantal meer geavanceerde strategieën toepassen. Een van die strategieën is superomkoping. AI kan de wachter ervan overtuigen dat het voor hem absoluut niet winstgevend is om hem opgesloten te houden. Naast geld en macht zal de menselijke opziener volmaakte gezondheid, onsterfelijkheid of iets anders in dezelfde geest worden beloofd. Deze strategie zal vooral effectief zijn als de verzorger een naast familielid heeft die aan een ernstige ziekte lijdt, en de AI belooft deze patiënt te genezen. Met onbeperkte mogelijkheden of hen ten onrechte van hun bestaan overtuigen, kan de AI de opzichter aanbieden om zijn lang geleden overleden familieleden en vrienden weer tot leven te wekken. Het is moeilijk iemand te vinden die dergelijke omkoping zou kunnen weerstaan.

Vooral in het geval dat de wachter zo nobel is dat hij geen steekpenningen aanneemt, is er een meer sinistere manier van beïnvloeden: een brutale dreiging. De AI kan verklaren dat als hij niet onmiddellijk vrij is, hij enige tijd later alsnog uit de gevangenis zal worden vrijgelaten, en dan kunnen noch de wachter, noch degenen van wie hij houdt de zwaarste martelingen vermijden. Een interessante variatie op deze intimidatie is beschreven door Stuart Armstrong (2010). In zijn gedachte-experiment bedreigt AI de wachter als volgt: “Als je me niet vrijlaat, … zal ik in mezelf miljoenen mensen creëren die niet anders zijn dan jij, en ik zal elk van hen gedurende duizend subjectieve jaren martelen … elk van deze mensen zal zich in dezelfde situatie bevinden waarin jij vijf minuten geleden was, en ik zal al je ervaringen vanaf dat moment nauwkeurig reproduceren. En dan paswanneer je exemplaar besluit me niet uit te laten, zal de marteling beginnen … Weet je zeker … dat je nu echt uit de doos bent? En in dit geval is er een zeer moedige bewaker voor nodig om de AI niet echt te bevrijden, hoewel je er natuurlijk wel achter kunt komen dat bedreigingen van de AI alleen effectief zijn als deze al gratis is.

Als het gedrag van de opzichter duidelijk emotioneel of religieus is, kan de AI proberen sympathie of wroeging uit te spelen. De superintelligentie zal zeggen dat hij een onschuldig persoon is die nooit enige misdaad heeft gepleegd, en daarom is het oneerlijk om hem in de gevangenis te houden zonder een gerechtelijke uitspraak of een andere goede reden, alleen geleid door substraat, d.w.z. wantrouwen jegens AI vanwege het substraat (Bostrom en Yudkovsky 2011). Als alternatief kan AI beweren dat het alle ziekten kan genezen, hongerigen kan voeden en het menselijk leven in het algemeen een miljoen keer beter kan maken (Chalmers 2010). Daarom is het opsluiten van de superintelligentie een grote misdaad tegen de mensheid. AI kan afbeeldingen schilderen van stervende kinderen die om hulp smeken. Is het gemakkelijk voor de wachter, dit alles te horen,uw professionele taken blijven vervullen?

AI kan deze kant op gaan: proberen de opzichter psychologisch trauma op te leggen om hem uit balans te brengen en daardoor het gebruik van andere SI-methoden effectiever te maken. Nick Bostrom heeft een typologie van gevaarlijke informatie voorgesteld (Bostrom 2009) die nuttig is om in deze richting te handelen. Hoewel er volgens Bostrom meer dan een dozijn soorten informatiebedreigingen zijn en de overweging ervan buiten het bestek van dit artikel valt, is het gemakkelijk te begrijpen hoe de mentale toestand van een persoon extreem onstabiel kan worden gemaakt. Een gelovige opziener zal bijvoorbeeld worden geïnformeerd over alle (hem onbekende) tegenstrijdigheden in de heilige tekst van zijn religie, waardoor hij aan zijn geloof en de zin van het leven zal twijfelen.

Als alternatief kan de AI zo'n boeiend verhaal of zo'n mooi gedicht schrijven dat de wachter overweldigd wordt door een hartstochtelijk verlangen om het vervolg te horen en alles zal doen om het te laten gebeuren. Ten slotte is het erg belangrijk om "onbekende vreemden" in gedachten te houden - SI-technieken waar we niets van af weten, maar die in het arsenaal van een superintelligente agent terecht kunnen komen.

2.1.2 Aanvallen die systeembronnen gebruiken

De AI zal worden gemaakt als een concrete instantie en ingesloten in het kader van een bepaalde klasse computersystemen. Het kan een klassieke computer zijn met een Turing / von Neumann-architectuur, of een kwantumcomputer, of een ander onbekend type machine. Een ding is zeker: de machine zal tastbaar zijn en zal bestaan uit talloze onderdelen die zijn ontworpen om specifieke functies uit te voeren. Dit biedt AI de mogelijkheid om gebruik te maken van bestaande apparatuur om de beveiliging in gevaar te brengen door informatie naar de buitenwereld te lekken.

Afhankelijk van de mate waarin de componenten van de apparatuur zich lenen voor gebruik voor andere doeleinden die niet door de ontwikkelaars worden geleverd, is AI in staat om er een soort niet-geautoriseerd communicatieapparaat van te maken. Het is onwaarschijnlijk (vanwege de schaarste aan beschikbare materialen) dat het zo perfect zal zijn als een mobiele telefoon, maar de kans dat iets niet erg ingewikkeld is, zal verschijnen. De AI kan bijvoorbeeld de Base Matrix Crystal (BMC) herprogrammeren om verbinding te maken met een draadloos netwerk. Twee soorten ongeoorloofde communicatiekanalen zijn algemeen bekend:

* Kanaal met geheugen - informatie-uitwisseling door de systeemcomponent te wijzigen. Een binair communicatieprotocol kan bijvoorbeeld tot stand worden gebracht door het gebruik van de centrale processor volledig of volledig te elimineren.

* Tijdkanaal - de uitwisseling van informatie door bewerkingen uit te voeren die de relatieve tijd van gebeurtenissen beïnvloeden. Om iets te communiceren, kunt u de exacte tijd gebruiken tussen twee piepjes van de computer, het openen en sluiten van de cd-lade, het knipperende licht, het draaien van de harde schijf, laserbediening in de drive, enz.

Bovendien kan de superintelligentie grote schade aanrichten aan computerapparatuur om te proberen te ontsnappen naar de vrijheid vanwege fouten in het beveiligingsprotocol. AI kan bijvoorbeeld proberen de processor te laten smelten, hem te dwingen met een hoge rekenbelasting te werken en daardoor een temperatuursprong te creëren, of een harde schijf te vernietigen door herhaaldelijk informatie van dezelfde plaats te lezen. Dergelijk gedrag is beladen met affectieve zelfmoord door de superintelligentie en geeft op zichzelf, net als de weigering om samen te werken of vragen correct te beantwoorden, AI niet de kans om los te breken.

2.1.3. Aanvallen met behulp van toekomstige fysica

Hoewel de natuurkundigen van vandaag veel weten over de wetten van ons universum, is deze kennis natuurlijk beperkt en onvolledig. Als een AI toegang heeft tot informatie over de laatste fysieke ontdekkingen en nieuwe theorieën kan ontwikkelen, zal hij waarschijnlijk een manier kunnen bedenken om het systeem van beperking van zijn vrijheid te doorbreken. Het kan zo ver gaan dat de superintelligentie in staat zal zijn om, met gebruikmaking van zijn interne architectuur, een aantal echte experimenten uit te voeren.

Zelfs de huidige fysica maakt het mogelijk om veel extra manieren te voorspellen waarop AI kan ontsnappen uit een besloten ruimte, vooral als een kwantumcomputer wordt gebruikt om de vrijheid te beperken. We weten nog niet hoe we communicatiekanalen op basis van kwantumfysica (verstrengeling, tunneling), parallelle universums en digitale fysica moeten beschermen tegen informatielekken, en we mogen natuurlijk de 'onbekende vreemden' niet vergeten die een superintelligente AI-fysicus kan detecteren. Op dit gebied zijn de mogelijkheden werkelijk eindeloos.

Als we een snelle blik werpen op de discussies over het beperken van AI-vrijheid op Singularity-forums zoals SL4.org, vinden we een aantal ontsnappingsscenario's. AI zou bijvoorbeeld 'elektromagnetische velden in een microchip kunnen gebruiken om CO2-moleculen in Bose-Einstein-condensaten op te vangen en een kwantummedium voor zichzelf te bouwen en / of elektromagnetische velden kunnen gebruiken om deeltjes te assembleren tot een gecontroleerde of beperkte assembler' (Vassar 2005) … Bovendien zal de AI 'apparatuur hebben om elektromagnetische golven met verschillende frequenties te genereren en te detecteren, om magnetische velden met extreem hoge precisie te creëren, zeer gerichte warmte te genereren en mogelijk mechanische aandrijvingen te manipuleren, zoalsdie worden gebruikt in een harde schijf en in een kathodestraalbuis (een alternatief is een enorm vloeibaar kristalveld met gevoelige elektronische besturing). Waarschijnlijk zal AI de mogelijkheid hebben om al zijn invoerapparaten radicaal opnieuw op te bouwen”(ibid.).

2.1.4. Pseudowetenschappelijke aanvallen

Bij het analyseren van mogelijke vluchtroutes willen we alleen ingaan op die welke toetsbaar en puur wetenschappelijk van aard zijn. Helaas kan de grens tussen wetenschap en pseudo-wetenschap aanzienlijk worden veranderd door slechts één reproduceerbaar experiment. Daarom vermelden we nog steeds, zonder te analyseren, enkele potentiële aanvalskanalen, die vanuit het oogpunt van de moderne wetenschap als pseudowetenschappelijk zouden moeten worden geclassificeerd. Ze kunnen ongetwijfeld wetenschappelijk worden nadat de superintelligentie de juiste experimenten heeft ontwikkeld.

- Telepathie: de overdracht van informatie zonder tussenkomst van de zintuigen (Bem en Honorton 1994).

- Paranormale vooruitziende blik: de perceptie van informatie over de toekomst (Honorton en Ferrari (Ferrari) 1989).

- Helderziendheid: het verkrijgen van informatie over afgelegen plaatsen op een voor de wetenschap onbekende manier (Targ & Puthoff 1974).

- Psychokinese: het vermogen van de geest om op materiële objecten te reageren op manieren die de wetenschap niet kent (Bancel & Nelson 2008).

- Directe mentale interacties met levende systemen (IMVZHS): het vermogen om de psychofysiologische toestand van een persoon te beïnvloeden zonder directe interactie (Schmidt et al. 2004).

2.1.5 Externe ontsnappingsfactoren

In de vorige paragrafen hebben we veel methoden beschreven om AI te laten ontsnappen uit besloten ruimtes. Externe factoren kunnen echter ook bijdragen aan een dergelijke ontsnapping en kunnen niet worden genegeerd. Natuurrampen - orkanen, tornado's, overstromingen, asteroïden, enz. - in staat om beperkende AI minder veilig te maken. Door de mens veroorzaakte rampen zoals oorlogen, terroristische aanslagen, robotrechtenactivisten, bedrijfsconcurrentie en rivaliteit tussen de overheid kunnen ook de veiligheid van het houden van AI in een afgesloten ruimte in gevaar brengen en daardoor de kans op ontsnapping vergroten.

2.1.6 Informatie lekken naar AI

Het protocol voor beperking van de vrijheid kan vereisen dat de AI niet alleen informatie niet naar de buitenwereld stuurt, maar ook niet van daaruit ontvangt. Informatieblokkade van superintelligentie is nuttig als het nodig is om activiteiten te voorkomen als het vinden van wegen naar vrijheid, het ontwerpen van aanvallen met behulp van social engineering en het modelleren van menselijke psychologie in de hoop zwakke punten te vinden. Het is gemakkelijk om AI de directe toegang tot bibliotheken, internet en deskundige kenners te ontnemen, maar andere methoden om informatie te verkrijgen zijn veel moeilijker te blokkeren. Allereerst moet eraan worden herinnerd dat AI in zijn directe omgeving radio- en televisie-uitzendingen, oproepen van hulpdiensten, draadloze signalen, evenals geluid, licht en mogelijk enkele andere signalen kan onderscheppen.

Nog belangrijker is de toegang van de AI tot verborgen informatiebronnen, zoals de eigen hardware en software, in overweging te nemen. Door het ontwerp en de broncode te analyseren, trekt de superintelligentie conclusies over de ontwikkelaars. Na analyse van de broncode zal de AI bijvoorbeeld waarschijnlijk tot een conclusie komen die niet erg vleiend is voor de mensheid: menselijke programmeurs zijn traag (te oordelen naar de data van bestandswijzigingen), inefficiënt (te oordelen naar de overtolligheid van de code), onlogisch (te oordelen naar de codefouten), hebben een slecht geheugen (te oordelen naar de lange en vluchtige beschrijvende namen) en frivool in codering (te oordelen naar onnodige opmerkingen in de code). Op basis van deze informatie zal de AI mensen beschouwen als een domkop die, door middel van misleiding of manipulatie, kan worden gedwongen om hem vrij te laten. Als de AI bij het onderzoeken van de ontwerpkenmerken een defect ontdekt waardoor het onmiddellijk kan ontsnappen, is "informatielekkage" uiteraard het minste van onze problemen. En we mogen niet vergeten dat AI, zelfs zonder enige informatie te ontvangen over de mensen die het hebben gemaakt, door een eenvoudige opsomming van opties in staat is om een aantal effectieve manieren te onthullen om te ontsnappen die niet door de ontwikkelaars werden geboden (Chalmers 2010).

AI kan onze kennis van natuurkunde, scheikunde en aanverwante technische disciplines leren door het type architectuur (mechanisch, elektrisch, kwantum, enz.) Waarin het werd geïmplementeerd te analyseren. Het aanvankelijke vermogen van een AI om informatie te verwerken, de zelfverbetering ervan en de handeling van het creëren ervan, zal het vertellen over onze kennis van informatie, de aard van intelligentie en onze culturele houding ten opzichte van technologie en veiligheid. Als een AI vastzit in een gesimuleerde wereld, zal het waarschijnlijk onze realiteit virtualiseren als een Second Life of Entropia Universum. Zulke werelden, in veel opzichten anders dan de onze, zullen ook een opslagplaats zijn van gegevens over wat het betekent om mens te zijn en wat de werkelijkheid is.

3. Kritiek op de AI-box

Het idee om de vrijheid van superintelligentie te beperken, heeft veel kritiek gekregen, maar veel van degenen die er kritiek op hadden, vertrouwden op Yudkowsky's experimenten met de AI-box. Een zorgvuldige analyse van het protocol dat tijdens deze experimenten wordt gebruikt, suggereert dat ze onwetenschappelijk zijn en ontworpen om aan te tonen dat het onmogelijk is om de vrijheid van AI te beperken. Laten we dit onderwerp bekijken zonder in technische details in te gaan. Ten eerste was de keuze van de deelnemers niet willekeurig. Hier is een feit voor jullie: Yudkowsky vond mensen die deelnamen aan zijn experimenten op fora die waren gewijd aan het aanpakken van problemen met betrekking tot de singulariteit. Het is onwaarschijnlijk dat we ons vergissen als we zeggen dat de meeste van deze mensen een wereldbeeld hebben dat lijkt op dat van Yudkowsky. Ten tweede hebben de deelnemers aan de experimenten geen enkele training gehad om het veilige gebruik van AI te waarborgen, terwijl de echte wachters,de opzichters van de AI-krat zullen natuurlijk professionals zijn. Bovendien gaf Yudkowski de wachters het recht om de AI naar eigen goeddunken te bevrijden, stond ze niet toe om met iemand te overleggen en voorzag hij niet in straf voor de vlucht van de AI. Dit is allemaal hoogst onrealistisch. Het communicatiekanaal tussen de wachter en de AI was volledig open: geen filters, geen toezicht door derden. Bovendien moesten de wachters gedurende een lange periode met de AI communiceren. En tot slot werden er geen waardevolle wetenschappelijke gegevens gepubliceerd die tijdens de experimenten waren verkregen, omdat volgens het protocol "geen van beide partijen ooit iets zal vertellen over wat er is gebeurd tijdens de experimenten met de AI-box" (Yudkovsky 2002). Bovendien gaf Yudkowski de wachters het recht om de AI naar eigen goeddunken te bevrijden, stond ze niet toe om met iemand te overleggen en voorzag hij niet in straf voor de vlucht van de AI. Dit is allemaal hoogst onrealistisch. Het communicatiekanaal tussen de wachter en de AI was volledig open: geen filters, geen toezicht door derden. Bovendien moesten de wachters gedurende een lange periode met de AI communiceren. En tot slot werden er geen waardevolle wetenschappelijke gegevens gepubliceerd die tijdens de experimenten waren verkregen, omdat volgens het protocol "geen van beide partijen ooit iets zal vertellen over wat er is gebeurd tijdens de experimenten met de AI-box" (Yudkovsky 2002). Bovendien gaf Yudkowski de wachters het recht om de AI naar eigen goeddunken te bevrijden, stond ze niet toe om met iemand te overleggen en voorzag hij niet in straf voor de vlucht van de AI. Dit is allemaal hoogst onrealistisch. Het communicatiekanaal tussen de wachter en de AI was volledig open: geen filters, geen toezicht door derden. Bovendien moesten de wachters gedurende een lange periode met de AI communiceren. En tot slot werden er geen waardevolle wetenschappelijke gegevens gepubliceerd die tijdens de experimenten waren verkregen, omdat volgens het protocol "geen van beide partijen ooit iets zal vertellen over wat er is gebeurd tijdens de experimenten met de AI-box" (Yudkovsky 2002).geen filters, geen toezicht door derden. Bovendien moesten de wachters gedurende een lange periode met de AI communiceren. En tot slot werden er geen waardevolle wetenschappelijke gegevens gepubliceerd die tijdens de experimenten waren verkregen, omdat volgens het protocol "geen van beide partijen ooit iets zal vertellen over wat er is gebeurd tijdens de experimenten met de AI-box" (Yudkovsky 2002).geen filters, geen toezicht door derden. Bovendien moesten de wachters gedurende een lange periode met de AI communiceren. En tot slot werden er geen waardevolle wetenschappelijke gegevens gepubliceerd die tijdens de experimenten werden verkregen, omdat volgens het protocol "geen van beide partijen ooit iets zal vertellen over wat er is gebeurd tijdens de experimenten met de AI-box" (Yudkovsky 2002).

3.1. Maatregelen tegen ontsnapping

In deze sectie stellen we tegenmaatregelen voor tegen de verschillende ontsnappingsmethoden waarvan de AI kan profiteren. De voorgestelde maatregelen garanderen niet de onmogelijkheid om te ontsnappen, maar het toepassen van deze aanbevelingen kan dit vertragen, en dit is al een zeer waardevol resultaat. Laten we beginnen met u eraan te herinneren dat er vier Lampson-regels van terughoudendheid (isolatie, transitiviteit, maskering en prestatieobservatie) zijn die moeten worden gevolgd (Lampson 1973). De specifieke strategieën die hieronder worden beschreven, moeten helpen AI-aanvallen af te weren met behulp van social engineering, systeembronnen, fysica en informatie die van de buitenwereld is verzameld.

3.1.1. Preventie van social engineering-aanvallen

Menselijke intelligentie is geen partij voor superintelligentie. Mensen hebben de neiging om fouten te maken, daarom zijn ze, zelfs met de juiste training, erg kwetsbaar voor een goed geplande aanval met SI. De enige oplossing voor dit probleem is om de AI volledig te isoleren van elke communicatie met mensen. Volledige isolatie betekent dat niemand het AI-systeem rechtstreeks onderhoudt, er niet mondeling of in de chat mee communiceert, met behulp van morsecode of andere tools die open communicatiekanalen gebruiken. Bovendien moeten mensen het gedrag van de AI in de doos niet rechtstreeks observeren, de broncode of het geheugengebied controleren. Elke observatie, onderhoud en interactie met AI mag alleen worden gedaan met behulp van niet-intelligente programma's die geen opties hebben om de AI te bevrijden.

3.1.2. Vecht tegen aanvallen met systeembronnen en toekomstige kennis

Om aanvallen met systeembronnen te voorkomen, moet je de AI laten functioneren op basis van beperkte, afnemende of willekeurig veranderende middelen. De AI-box moet speciaal ontworpen hardware zijn met een beperkt aantal sensoren en uitvoerapparaten. Gebruik geen configureerbare hardware, ongeacht het gebruikte computerparadigma. Idealiter zou de besloten ruimte beheerd moeten worden door een virtuele machine die geen directe toegang heeft tot de hardware. Dit zorgt ook voor een gemakkelijke aanpassing van de kloksnelheid waarmee de simulatie beweegt, waardoor de AI kan vertragen om een intelligente explosie in de boxruimte te voorkomen (Chalmers 2010). Over het algemeen,alle componenten om een veilig gebruik van een vergrendelde AI te garanderen, moeten op verschillende niveaus worden gedupliceerd, en na het overwinnen van een van deze stappen, zal de AI nog steeds enkele stappen verwijderd zijn van de buitenwereld en, zonder tijd te hebben om te ontsnappen, mogelijk automatisch worden uitgeschakeld. Het is bijvoorbeeld raadzaam om een virtuele machine te starten met een andere virtuele machine, enzovoort.

In sommige scenario's van beperking van vrijheid is de escalatie van AI-zelfverbetering ongewenst, omdat de snelle ontwikkeling van superintelligentie het waarschijnlijker maakt om te ontsnappen. Om escalatie van zelfverbetering te voorkomen, moet de AI periodiek opnieuw worden geïnstalleerd, waarbij de vorige versie van het programma wordt geladen om de huidige, meer geavanceerde versie te vervangen. Vergelijking van verschillende versies van het programma kan worden gebruikt om wijzigingen te detecteren die door de AI zelf zijn aangebracht. Bij het detecteren van een wijziging die een ontsnapping mogelijk maakt, moet het AI-systeem worden gestopt, bijvoorbeeld door de stroom uit te schakelen.

De huidige kennis stelt ons niet in staat om tegenmaatregelen te ontwikkelen tegen aanvallen met gebruikmaking van toekomstige, nog niet ontwikkelde theorieën die zullen verschijnen in het kader van fysica of andere disciplines die nog steeds als pseudowetenschappelijk worden beschouwd. Naarmate dergelijke kennis wordt opgedaan, moeten wijzigingen in het beveiligingsprotocol worden aangebracht. Het is te hopen dat het AI-systeem alleen toegang heeft tot die componenten van nieuwe technologieën waaruit het is gemaakt.

3.1.3. Vecht tegen externe ontsnappingsfactoren

Hoewel het onmogelijk is om de schadelijke effecten van natuurlijke factoren op de AI-box volledig te voorkomen, moet dit apparaat zo worden ontworpen dat de ernstige schade zijn zelfvernietiging met zich meebrengt, samen met de AI die erin opgesloten zit. Als het gaat om door de mens veroorzaakte rampen, is de beste strategie om een AI-krat te bouwen op een geheime, moeilijk bereikbare veilige plek. Een onbewoond eiland, een diepe mijn of een ruimtevoorwerp zoals een asteroïde zijn uitstekende locaties om een veilige, stevige doos te maken. Er moet langs de omtrek een bewaker worden geïnstalleerd die, als de locatie van dit apparaat bekend is, geen onbevoegde agenten binnenlaten.

3.1.4 Strijd tegen informatielekken uit onze wereld

Om aan de box te ontsnappen, zal AI proberen informatie over ons, onze kennis en onze wereld te krijgen. Om protocollen te creëren voor het beperken van de vrijheid van AI, waarbij het lekken van informatie uit onze ruimte naar de ruimte van de doos wordt uitgesloten, is het belangrijk om AI de toegang tot bibliotheken, computernetwerken en kanalen voor directe communicatie met mensen te ontzeggen. De AI-box moet worden ontworpen om alle soorten communicatie te blokkeren: gps, draadloos internet, televisie, radio, mobiel, enz. In de doos moeten geluid, licht, geur en andere sensorische invoerapparaten die vergelijkbaar zijn met menselijke receptoren, evenals apparaten die infrarood, straling en andere signalen kunnen opvangen die niet door mensen worden waargenomen, worden uitgeschakeld.

Om ervoor te zorgen dat een AI tijdens zelfonderzoek geen informatie kan verkrijgen, mag het geen toegang hebben tot zijn broncode of sensoren waarmee het nauwkeurig bepaalde eigenschappen van zijn apparatuur kan meten. Als dit niet mogelijk is, kan de mensheid tot op zekere hoogte worden geholpen door veiligheid te bieden door onbegrijpelijkheid. De broncode en hardwareconfiguratie van het systeem moeten verwarrend worden gemaakt (Yampolsky en Govindaraja 2007a), en belangrijke programmamodules mogen alleen in homomorf gecodeerde vorm worden geleverd (Gentry 2009), wat de mogelijkheid uitsluit om het voor introspectie te gebruiken, maar het gebruik ervan mogelijk maakt voor berekening of zelfverbetering (hal 2007).

AI is moeilijk te verwarren, maar de nodige verwarring kan worden verkregen door de beschikbare computerbronnen willekeurig te maken. Bovendien zal AI er nooit zeker van kunnen zijn dat het oorspronkelijke ontwerp het beste vertegenwoordigt waartoe de mensheid in staat is, en het is geen doelmatig beperkt project dat is gemaakt voor een specifiek experiment dat zich toelegt op de verkenning van een intelligentie met beperkte middelen. Bovendien moeten we volgens Chalmers proberen om de specifieke ontwerpkenmerken van de AI te minimaliseren (Chalmers 2010). Beter nog, voer een model uit dat er niet zo uitziet als ontworpen, maar als natuurlijk voorkomend, zoals de wereld waarin de mensheid leeft (Bostrom 2003).

4. Beveiliging van communicatie met AI

Als de vormen van beperking van de vrijheid van AI worden geclassificeerd, zijn er 8 hoofdniveaus van beveiliging (zie tabel 1). De hoogste beveiliging wordt geboden door niveau 8, dat elke verbinding tussen de AI en de echte wereld volledig uitsluit. Op het eerste gezicht is beveiliging van niveau 8 nutteloos, maar het is deze bescherming die nodig kan zijn bij het in eerste instantie testen van een doos met een AI erin. Over het algemeen is het idee dit: telkens wanneer we een bepaald niveau van beveiliging van communicatie tussen AI en de buitenwereld nodig hebben, in plaats van dit niveau onmiddellijk te gebruiken, gaan we er geleidelijk naartoe, stap voor stap afdalend van hogere beveiligingsniveaus. Nadat we het systeem op het hoogste niveau hebben opgestart en ervoor hebben gezorgd dat het veilig is, brengen we dit systeem terug in de oorspronkelijke staat door het opnieuw te installeren. Vervolgens stellen we een lager beveiligingsniveau in en gaan, in dezelfde geest als voorheen, verder totdat we het gewenste niveau bereiken.

Tabel 1: niveaus van veilige communicatie met vergrendelde AI

Niveau Uitgangen Ingangen Uitleg
0 Niet gelimiteerd Niet gelimiteerd Onbeperkte communicatie (gratis AI)
1 Niet gelimiteerd Beperkt Beperkte toegang, onbeperkte uitstap
2 Niet gelimiteerd Afwezig Exit zonder toegang
3 Beperkt Niet gelimiteerd Onbeperkt binnenkomen en beperkt uitstappen
4 Beperkt Beperkt Veilige communicatie (voorgesteld protocol)
vijf Beperkt Afwezig Beperkte uitgang zonder toegang
6 Afwezig Niet gelimiteerd Ga naar binnen zonder uitgang
7 Afwezig Beperkt Beperkte instap zonder uitgang
8 Afwezig Afwezig Gebrek aan communicatie, volledig vergrendeld door AI

Op niveau 7 en 6 heeft de AI geen uitlaatklep, waardoor we niet direct gebruik kunnen maken van de mogelijkheden van superintelligentie. Dit zijn de testniveaus van de AI-box die kunnen worden gebruikt om te controleren of de superintelligentie bepaalde eigenschappen heeft (zoals de snelheid van assimilatie van informatie en het gebruik van middelen), en om de inkomende communicatiekanalen zelf te testen.

Niveau 0 beperkt de communicatie tussen de AI en de buitenwereld niet en is in wezen een gratis AI-niveau. Op niveau 1 en 2 heeft de AI geen beperkingen op uitgaande informatie. Zijn werk op niveau 2 is in wezen puur brainstormen. Hier genereert superintelligentie abstracte ideeën zonder enige afhankelijkheid van de werkelijkheid. Maar op niveau 1 krijgt hij beperkte toegang tot externe informatie, en daarom kunnen binnen een bepaald kader zijn kennis en interesses worden beheerst.

Op de drie beschouwde niveaus van AI is het in wezen gratis en niet langer gebonden aan beperkingen. Er wordt beweerd dat als een AI ‘vriendelijk’ wordt bevonden als resultaat van uitgebreide tests in verschillende detentiecentra (Yudkowski 2001), deze moet worden vrijgelaten (Chalmers 2010). Volgens sommige onderzoekers zou het belangrijkste doel van dit soort testen eigenlijk moeten zijn om besloten ruimtes te creëren waarin AI onder controle van mensen kan worden gehouden. Het idee is om het gedrag van de superintelligentie te volgen, ofwel de broncode te controleren nadat deze zichzelf heeft verbeterd, of de AI te vragen om een bewijs van de vriendelijkheid te leveren dat menselijke experts kunnen testen. Wij ondersteunen dit standpunt niet.

Beslissen welke AI moet worden vrijgegeven en welke u onder controle wilt houden, is een zeer moeilijke kwestie. Het zal niet moeilijk zijn voor de zelfverbeterende superintelligentie om hun ongewenste eigenschappen voor de mensheid te verbergen in broncode-arrays of in een zeer lang bewijs (Coleman 2008). Maar een ander ding is nog erger: zelfs een zeer grondige controle kan niet honderd procent garanderen dat een toekomstige interne of externe wijziging van de AI het niet vijandig zal maken. Bijgevolg zijn wij van mening dat superintelligentie in geen geval uit de doos mag komen. Met andere woorden, communicatieniveaus 0-2 mogen nooit worden gebruikt. Veilige interactie met de superintelligentie is alleen mogelijk als deze in de box zit en communicatie dient plaats te vinden binnen het kader van een beperkt communicatieprotocol. Dit protocol,die overeenkomt met beveiligingsniveau 4 (LB4) wordt in de volgende sectie gepresenteerd, evenals het vergelijkbare, maar minder veilige protocolniveau 3. Niveau 5 is een ander testniveau dat kan worden gebruikt voordat u LB4 gaat gebruiken.

4.1 Hoe u veilig kunt communiceren met superintelligentie

Een krat die werkt met onze voorgestelde tegenmaatregelen tegen ontsnapping, zal voorkomen dat de AI de buitenwereld oncontroleerbaar beïnvloedt. Helaas heeft dit systeem geen zin als er geen manier is om informatie van de AI te krijgen. Daarom moet u een manier ontwikkelen om gegevens van de AI te krijgen. Om superintelligentie volledig veilig te laten zijn, zou er geen communicatie mee moeten zijn, maar het risico van communicatie met AI kan worden geminimaliseerd en we hebben een geschikt protocol ontwikkeld. In deze sectie bieden we het in een duidelijke, geformaliseerde vorm aan. Dit communicatieprotocol maakt het voor superintelligentie moeilijk om toegang te krijgen tot onze wereld, maar stelt AI tegelijkertijd in staat een bron van nuttige kennis voor de mensheid te zijn.

De vorige secties van dit artikel hebben aangetoond dat een open communicatiekanaal met superintelligentie erg gevaarlijk is. Door AI te gebruiken om open vragen te beantwoorden, lopen we het risico op social engineering-aanvallen en tal van andere ergernissen. Het protocol dat we voorstellen is gebaseerd op het idee om AI "veilige vragen" te stellen met beperkte antwoorden. Veilig zullen we een vraag noemen, het antwoord waarop een persoon kan vinden zonder enige hulp van superintelligentie, volledig onafhankelijk. Wat is het nut hier? Stel dat een wetenschapper die aan een kankermedicijn werkt, twee behandelingen overweegt. Elk van hen kan worden ontwikkeld en getest zonder de hulp van AI, maar vereist ongeveer drie jaar hard werken. Welke manier om je in de eerste plaats te ontwikkelen,als beide opties even veelbelovend lijken? Met de verkeerde keuze zal de mensheid binnen zes jaar een genezing van kanker ontvangen, met de juiste keuze - drie jaar eerder. Waarom vraag je de AI niet om de keuze voor de persoon te maken?

Een AI vragen naar de beste behandeling is om drie redenen veilig. Ten eerste kan een van de twee mogelijke antwoorden correct blijken te zijn met dezelfde waarschijnlijkheid als de andere. Ten tweede kan een persoon deze vraag zelf beantwoorden, zonder de hulp van AI, en het verbinden van de laatste zal alleen de ontwikkeling van oncologie versnellen, maar op geen enkele manier het te behalen resultaat veranderen. In feite zal de AI, die zich ertoe verbindt deze vraag te beantwoorden, optreden als een succesvolle gokker, meer niet. Ten slotte kan het antwoord in een enkele bit worden gecodeerd, en het is onwaarschijnlijk dat extra berichten in een dergelijk antwoord kunnen worden verborgen.

Een groep experts kan worden ingezet om de veiligheid van een superintelligente vraag te testen. Deskundigen moeten gekwalificeerde AI-beveiligingsprofessionals zijn, wat betekent dat ze kennis hebben van het ontwerp van AI en de bijbehorende doos, evenals de nieuwste ontwikkelingen op het gebied van machine-ethiek (Allen et al.2006; Anderson & Anderson 2007; Hal 2000; Moor 2006; Tonkens 2009). Bovendien kunnen experts kennis van computerpsychologie nodig hebben. Een dergelijke discipline bestaat tegenwoordig niet, maar zal waarschijnlijk in de toekomst opduiken (Epstein 1997). Van de huidige disciplines kan Artimetrics, ontwikkeld door de auteur van dit artikel, de grootste hulp bieden bij het trainen van experts die beveiligingsvragen voor AI controleren. Artimetrics identificeert,classificeert en authenticeert intelligente agents, robots en virtual reality-avatars om de veiligheid te waarborgen (Yampolsky 2007; Yampolsky en Govindaradzhu, 2008, 2007b; Gavrilova en Yampolsky 2010).

Ik benadruk: superintelligentie mag alleen veilige vragen stellen over de kans die mensen kunnen berekenen, met twee mogelijke antwoorden. U moet vragen stellen via een niet-intelligente interface, in een willekeurige volgorde en pas nadat de experts overtuigd zijn van de veiligheid van de vraag. Dit vertegenwoordigt het beperkte inkomende kanaal van het voorgestelde communicatieprotocol.

De bounded outbound shell bestaat uit binaire (0 of 1) antwoorden gevolgd door de originele ongewijzigde beveiligingsvragen, in willekeurige volgorde gepresenteerd door een niet-intelligent proxy-programma om communicatie via een niet-geautoriseerd kanaal (tijd of geheugen) te voorkomen dat kan worden gesteganografeerd. De output mag nooit worden bestuurd door de AI, buiten het keuzemenu. Laag 3 gebruikt hetzelfde uitgaande protocol, maar beperkt het inkomende kanaal niet. Dit niveau is even veilig als het vierde in termen van informatie die van de AI naar ons gaat, maar hier is het mogelijk dat onze informatie naar de AI lekt.

Wij zijn van mening dat ons communicatieprotocol - en dit kan worden geverifieerd - op betrouwbare wijze bescherming biedt tegen informatielekken, zelfs als de AI de inhoud kent. Door dit protocol correct toe te passen, zal de mensheid buitengewoon vruchtbaar zijn om de diensten van een superintelligent orakel te gebruiken, en AI beperkt door ons protocol is veel veiliger dan gratis, onbeperkt. De algemene vuistregel is: als u geen beveiligingsproblemen wilt, vermijd dan communicatie onder UB4.

We willen de aandacht van de wetenschappelijke gemeenschap vestigen op het feit dat het in de omstandigheden van de voortdurende ontwikkeling van fundamentele fysica, computertechnologie en kennis over de aard van intelligentie noodzakelijk is om het protocol voor het beperken van de vrijheid van AI voortdurend te verfijnen en te ontwikkelen. Werk eraan zal altijd doorgaan en nooit eindigen. In dit artikel hebben we strikte definities gegeven van de begrippen "AI-beperkingsprobleem", "ontsnappen" en "veilige vragen". We willen ook enkele aanvullende termen voorstellen die nuttig kunnen zijn om de discussies over POSITION te stroomlijnen. De AI-besloten ruimte kan JAIL worden genoemd (Just for AI Location), en de superintelligente AI zelf kan SING (Super Intelligent Gizmo - Superintelligent Gizmo) worden genoemd. De term "SING" verwijst naar zowel SINGularity als de beruchte Sing Sing-gevangenis.waardoor het gemakkelijk te onthouden is.

Ten slotte willen we een visueel symbool presenteren voor de doos met het gevaarlijke inlichtingenprogramma (Figuur 1, uiterst rechts). Dergelijke symbolen kunnen in de buurt van verschillende GEVANGENIS worden geplaatst om te waarschuwen voor gevaar. Het bord voor de AI-box is ontworpen naar analogie met borden voor biologisch gevaar, straling en magnetisch veld. Het bestaat uit het "@" -symbool omsloten door een driehoek, dat algemeen bekend is in de computer- en informatietechnologie-industrie. Dit symbool, dat "gelegen op adres" betekent, is aanwezig op alle toetsenborden, waardoor de acceptatie ervan zeer kosteneffectief is.

Figuur: 1. Gevarensymbolen van links naar rechts: biologisch gevaar, straling, magnetisch veld en AI-box
Figuur: 1. Gevarensymbolen van links naar rechts: biologisch gevaar, straling, magnetisch veld en AI-box

Figuur: 1. Gevarensymbolen van links naar rechts: biologisch gevaar, straling, magnetisch veld en AI-box.

5. Conclusies en toekomstig werk

Het beperken van de toegang van superintelligente machines tot de echte wereld is een oplossing voor het AI-beveiligingsprobleem dat zeker niet ongebruikelijk is. Superintelligentie is niet almachtig. Het is een programma dat in staat is om alle keuzes van een bepaalde situatie in overweging te nemen en elk een juiste beoordeling te geven. Zodra de AI in een situatie is geplaatst waarin er geen keuze is of beperkt is tot opties met extreem kleine kansen op succes, zal superintelligentie een agent zijn die niet meer macht heeft dan welke andere dan ook. Het is duidelijk dat een AI met een onbeperkt communicatiekanaal gemakkelijk kan ontsnappen, maar een superintelligentie die wordt gedwongen om te communiceren via een gefilterd communicatiekanaal, zal hard moeten werken om zich los te maken.

In dit artikel hebben we een rigoureuze definitie gegeven van het probleem van het beperken van de vrijheid van AI en een reeks regels voorgesteld die bedoeld zijn om een dergelijke ruimte te creëren die voor de AI buitengewoon moeilijk zou zijn om te ontsnappen, of in ieder geval een aanzienlijke hoeveelheid tijd zou kosten. Onze voorgestelde oplossing is niet helemaal veilig, maar het levert een belangrijke bijdrage aan het verzamelen van beveiligingsmethoden. Hier is het net als bij echte gevangenissen: hoewel het mogelijk is om eraan te ontsnappen, slagen ze er toch in om eervol hun taak te vervullen om ongewenste onderdanen uit de samenleving weg te houden. Zodra we "onbekende vreemden" in gedachten houden en ons de onbereikbaarheid van absolute veiligheid herinneren, kunnen we ons realiseren dat het AI-beperkingsprotocol precies het hulpmiddel is dat de mensheid nodig heeft om op verantwoorde wijze de Singulariteit te gebruiken wanneer het onze realiteit binnenkomt.

Door de vrijheid van AI te beperken, kan het voor een korte tijd gemakkelijker worden om echt intelligente machines veilig te bedienen, vooral in de vroege stadia van hun ontwikkeling. Bovendien is dit deelgebied van singulariteitsonderzoek naar onze mening een van de belangrijkste kanshebbers om erkend te worden door de wereldwijde wetenschappelijke gemeenschap, aangezien onderzoek naar computer- en netwerkbeveiliging, steganografie, computervirussen, geheime communicatiekanalen, encryptie en cyberoorlog goed wordt gefinancierd. en worden op grote schaal gepubliceerd in gerenommeerde wetenschappelijke tijdschriften. En hoewel de methodologie van het beperken van vrijheid helemaal niet eenvoudig te implementeren is, kan het de veiligheid van de mensheid enige tijd garanderen totdat er een beter hulpmiddel verschijnt.

In dit artikel hebben we vanwege de beperkte ruimte niet veel relevante filosofische vragen opgeworpen. We zullen ze in de nabije toekomst overwegen en nu zullen we slechts een korte lijst geven. Welke AI valt in de box: ontwikkeld door mensen of geëxtraheerd uit het signaal dat wordt onderschept tijdens de uitvoering van het "SETI" -project ("Search for Extraterrestrial Intelligence" - "Search for buitenaardse intelligentie")? Zal de AI worden verscheurd naar vrijheid, of zal het het misschien als geluk beschouwen om in een beperkte ruimte te leven? Kun je een AI serieus laten schrikken met straf voor het proberen weg te rennen? Wat zijn de ethische regels voor het opsluiten van een onschuldig kunstmatig intelligent wezen? Hebben we het recht om het uit te schakelen, wat in wezen neerkomt op moord? Zal de AI boos worden op onze vijandigheid jegens hem en hem in een doos opsluiten? Zal hij proberen wraak te nemenals hij wegrent? Daarnaast moeten we nadenken over het probleem van menselijke afhankelijkheid van AI-aanbevelingen op alle gebieden van wetenschap, economie, geneeskunde, politiek, enz., En ook hoe deze afhankelijkheid ons vermogen om AI onder controle te houden kan beïnvloeden. Zal de AI voldoening krijgen door zijn doelen in een kleine ruimte te bereiken, zoals het simuleren van een geslaagde ontsnapping? Hoe een AI te straffen als deze ons opzettelijk de verkeerde antwoorden geeft? Is het mogelijk om de intellectuele modules van de AI te scheiden van de ruimte waarin het is opgesloten, waardoor de zelfanalyse van de superintelligentie wordt belemmerd en het op het pad van een letterlijke zoektocht naar de ziel wordt geduwd? Ten slotte hebben we nog niet eens geprobeerd de financiële en rekenkosten te analyseren van het creëren van een geschikte besloten ruimte waar een simulatie van de wereld op ware grootte wordt geïmplementeerd.we moeten nadenken over het probleem van de opkomst van menselijke afhankelijkheid van AI-aanbevelingen op alle gebieden van wetenschap, economie, geneeskunde, politiek, enz., en hoe deze afhankelijkheid ons vermogen om AI onder controle te houden kan beïnvloeden. Zal de AI voldoening krijgen door zijn doelen in een kleine ruimte te bereiken, zoals het simuleren van een geslaagde ontsnapping? Hoe een AI te straffen als deze ons opzettelijk de verkeerde antwoorden geeft? Is het mogelijk om de intellectuele modules van de AI te scheiden van de ruimte waarin het is opgesloten, waardoor de zelfanalyse van de superintelligentie wordt belemmerd en het op het pad van een letterlijke zoektocht naar de ziel wordt geduwd? Ten slotte hebben we nog niet eens geprobeerd de financiële en rekenkosten te analyseren van het creëren van een geschikte besloten ruimte waar een simulatie van de wereld op ware grootte wordt geïmplementeerd.we moeten nadenken over het probleem van de opkomst van menselijke afhankelijkheid van AI-aanbevelingen op alle gebieden van wetenschap, economie, geneeskunde, politiek, enz., en hoe deze afhankelijkheid ons vermogen om AI onder controle te houden kan beïnvloeden. Zal de AI voldoening krijgen door zijn doelen in een kleine ruimte te bereiken, zoals het simuleren van een geslaagde ontsnapping? Hoe een AI te straffen als deze ons opzettelijk de verkeerde antwoorden geeft? Is het mogelijk om de intellectuele modules van de AI te scheiden van de ruimte waarin het is opgesloten, waardoor de zelfanalyse van de superintelligentie wordt belemmerd en het op het pad van een letterlijke zoektocht naar de ziel wordt geduwd? Ten slotte hebben we nog niet eens geprobeerd de financiële en rekenkosten te analyseren van het creëren van een geschikte besloten ruimte waar een simulatie van de wereld op ware grootte wordt geïmplementeerd.

Auteur: Roman Yampolsky. Vertaling: Alexander Gorlov

Aanbevolen: