Kunstmatige Intelligentie. Deel Twee: Uitsterven Of Onsterfelijkheid? - Alternatieve Mening

Inhoudsopgave:

Kunstmatige Intelligentie. Deel Twee: Uitsterven Of Onsterfelijkheid? - Alternatieve Mening
Kunstmatige Intelligentie. Deel Twee: Uitsterven Of Onsterfelijkheid? - Alternatieve Mening
Anonim

Voor u is het tweede deel van een artikel uit de serie "Wacht, hoe dit allemaal echt kan zijn, waarom wordt er nog steeds niet op elke hoek over gesproken." In de vorige serie werd bekend dat een explosie van intelligentie geleidelijk naar de mensen van planeet Aarde kruipt, het probeert zich te ontwikkelen van eng gefocust naar universele intelligentie en, ten slotte, kunstmatige superintelligentie.

"Misschien staan we voor een buitengewoon moeilijk probleem, en het is niet bekend hoeveel tijd er wordt uitgetrokken voor de oplossing, maar de toekomst van de mensheid hangt mogelijk af van de oplossing." - Nick Bostrom.

Het eerste deel van het artikel begon onschuldig genoeg. We bespraken eng gerichte kunstmatige intelligentie (AI, gespecialiseerd in het oplossen van één specifiek probleem, zoals routes bepalen of schaken), in onze wereld is er veel. Vervolgens analyseerden ze waarom het zo moeilijk is om algemene directionele kunstmatige intelligentie te kweken (AGI, of AI, die qua intellectuele capaciteiten vergelijkbaar is met een mens bij het oplossen van elk probleem), zo moeilijk is. We concludeerden dat het exponentiële tempo van technologische vooruitgang erop duidt dat AGI binnenkort om de hoek kan komen. Uiteindelijk hebben we besloten dat zodra machines menselijke intelligentie bereiken, het volgende kan gebeuren:

Image
Image
Image
Image
Image
Image
Image
Image

Zoals gewoonlijk kijken we naar het scherm, zonder te geloven dat kunstmatige superintelligentie (ISI, die veel slimmer is dan welke persoon dan ook) tijdens ons leven kan verschijnen, en kiezen we emoties die het beste onze mening over deze kwestie weerspiegelen.

Promotie video:

Voordat we ingaan op de specifieke kenmerken van ISI, willen we ons eraan herinneren wat het betekent dat een machine superintelligent is.

Het belangrijkste verschil ligt tussen snelle superintelligentie en hoogwaardige superintelligentie. Het eerste dat in je opkomt als je aan een superintelligente computer denkt, is vaak dat hij veel sneller kan denken dan een mens - miljoenen keren sneller, en binnen vijf minuten zal hij begrijpen wat iemand tien jaar nodig zou hebben gehad. ("Ik ken Kung Fu!")

Het klinkt indrukwekkend, en ISI zou echt sneller moeten denken dan alle mensen - maar het belangrijkste onderscheidende kenmerk zal de kwaliteit van zijn intellect zijn, wat een heel ander is. Mensen zijn veel slimmer dan apen, niet omdat ze sneller denken, maar omdat hun hersenen een aantal ingenieuze cognitieve modules bevatten die complexe linguïstische representaties, langetermijnplanning en abstract denken uitvoeren, waartoe apen niet in staat zijn. Als je het brein van een aap duizend keer versnelt, zal het niet slimmer worden dan wij - zelfs na tien jaar zal het niet in staat zijn om een constructeur te assembleren volgens de instructies, wat een persoon maximaal een paar uur zou kosten. Er zijn dingen die een aap nooit zal leren, hoeveel uur hij ook doorbrengt of hoe snel zijn hersenen werken.

Bovendien weet de aap niet hoe menselijk, omdat zijn hersenen eenvoudigweg niet in staat zijn om het bestaan van andere werelden te beseffen - de aap weet misschien wat een persoon is en wat een wolkenkrabber is, maar zal nooit begrijpen dat een wolkenkrabber door mensen is gebouwd. In haar wereld behoort alles tot de natuur, en de makaak kan niet alleen geen wolkenkrabber bouwen, maar ook begrijpen dat iedereen het kan bouwen. En dit is het resultaat van een klein verschil in de kwaliteit van intelligentie.

In het algemene intelligentieschema waar we het over hebben, of gewoon volgens de normen van biologische wezens, is het verschil in kwaliteit van intelligentie tussen mensen en apen klein. In het vorige artikel hebben we biologische cognitieve vaardigheden op een ladder geplaatst:

Image
Image

Om te begrijpen hoe serieus een superintelligente machine zal zijn, plaatst u deze twee inkepingen hoger dan de persoon op die ladder. Deze machine is misschien een beetje superintelligent, maar zijn superioriteit ten opzichte van onze cognitieve vermogens zal dezelfde zijn als die van ons - ten opzichte van de apen. En net zoals een chimpansee nooit zal begrijpen dat er een wolkenkrabber kan worden gebouwd, zullen we misschien nooit begrijpen wat een machine een paar stappen hoger zal begrijpen, zelfs niet als de machine het ons probeert uit te leggen. Maar dit zijn slechts een paar stappen. Een slimmere machine zal mieren in ons zien - het zal ons jarenlang de eenvoudigste dingen leren vanuit zijn positie, en deze pogingen zullen volkomen hopeloos zijn.

Het soort superintelligentie waar we het vandaag over hebben, ligt ver buiten deze ladder. Dit is een explosie van intelligentie - wanneer hoe slimmer een auto wordt, hoe sneller hij zijn eigen intelligentie kan vergroten, waardoor het momentum geleidelijk toeneemt. Het kan jaren duren voordat een machine als deze chimpansees in intelligentie overtreft, maar misschien een paar uur om ons met een paar stappen te overtreffen. Vanaf dit moment kan de auto al elke seconde over vier stappen springen. Daarom moeten we begrijpen dat zeer kort nadat het eerste nieuws dat de machine het niveau van menselijke intelligentie heeft bereikt verschijnt, we de realiteit van het samenleven op aarde onder ogen kunnen zien met iets dat veel hoger zal zijn dan wij op deze ladder (of misschien, en miljoenen keren hoger):

Image
Image

En aangezien we hebben vastgesteld dat het volkomen nutteloos is om de kracht van een machine die slechts twee stappen boven ons is te proberen te begrijpen, laten we eens en voor altijd vaststellen dat er geen manier is om te begrijpen wat ISI zal doen en wat de gevolgen hiervan voor ons zullen zijn. Iedereen die het tegendeel beweert, begrijpt gewoon niet wat superintelligentie betekent.

Evolutie heeft langzaam en geleidelijk biologische hersenen ontwikkeld gedurende honderden miljoenen jaren, en als mensen een superintelligente machine creëren, zullen we in zekere zin de evolutie transcenderen. Of het zal deel uitmaken van de evolutie - misschien werkt de evolutie op zo'n manier dat intelligentie zich geleidelijk ontwikkelt totdat het een keerpunt bereikt dat een nieuwe toekomst voor alle levende wezens inluidt:

Image
Image

Om redenen die we later zullen bespreken, gelooft een groot deel van de wetenschappelijke gemeenschap dat de vraag niet is of we op dit omslagpunt zullen komen, maar wanneer.

Waar komen we hierna terecht?

Ik denk dat niemand in deze wereld, noch ik, noch jij, zal kunnen zeggen wat er zal gebeuren als we het omslagpunt bereiken. De Oxford-filosoof en vooraanstaand AI-theoreticus Nick Bostrom gelooft dat we alle mogelijke uitkomsten in twee brede categorieën kunnen samenvatten.

Als we eerst naar de geschiedenis kijken, weten we het volgende over het leven: soorten verschijnen, bestaan voor een bepaalde tijd en vallen dan onvermijdelijk uit de balans van het leven en sterven uit.

Image
Image

"Alle soorten sterven uit" is in de geschiedenis een even betrouwbare regel geweest als "alle mensen sterven op een dag." 99,9% van de soorten is uit een logboek van leven gevallen, en het is vrij duidelijk dat als een soort te lang op dit blok blijft, een windvlaag van natuurlijke wind of een plotselinge asteroïde het blok zal omkeren. Bostrom noemt uitsterven de toestand van een attractor - een plaats waar alle soorten in evenwicht zijn om niet te vallen waar geen enkele soort is teruggekeerd.

En hoewel de meeste wetenschappers toegeven dat ISI het vermogen zal hebben om mensen tot uitsterven te brengen, geloven velen ook dat het gebruik van de mogelijkheden van ISI individuen (en de soort als geheel) in staat zal stellen om de tweede staat van de attractor te bereiken: de onsterfelijkheid van de soort. Bostrom gelooft dat de onsterfelijkheid van een soort evenzeer een attractor is als het uitsterven van een soort, dat wil zeggen, als we dit bereiken, zullen we gedoemd zijn tot het eeuwige bestaan. Dus zelfs als alle soorten tot op de dag van vandaag van deze stok in de maalstroom van uitsterven zijn gevallen, gelooft Bostrom dat de boomstam twee kanten heeft, en dat er gewoon niet zo'n intelligentie op aarde verscheen die zou begrijpen hoe hij naar de andere kant moest vallen.

Image
Image

Als Bostrom en anderen gelijk hebben, en te oordelen naar alle informatie waarover we beschikken, kunnen ze dat wel zijn, dan moeten we twee zeer schokkende feiten accepteren:

1. De opkomst van ISI voor de eerste keer in de geschiedenis zal voor een soort de mogelijkheid openen om onsterfelijkheid te bereiken en uit de fatale cyclus van uitsterven te treden.

2. De opkomst van ISI zal zo'n onvoorstelbaar grote impact hebben dat het de mensheid hoogstwaarschijnlijk in de ene of de andere richting van deze straal zal duwen.

Het is mogelijk dat wanneer evolutie zo'n keerpunt bereikt, het altijd een einde maakt aan de relatie van mensen met de levensstroom en een nieuwe wereld creëert, met of zonder mensen.

Dit roept een interessante vraag op die alleen een spelbreker niet zou stellen: wanneer komen we bij dit omslagpunt en waar zullen we komen? Niemand in de wereld weet het antwoord op deze dubbele vraag, maar veel slimme mensen hebben tientallen jaren geprobeerd het uit te zoeken. Voor de rest van het artikel zullen we uitzoeken waar ze vandaan kwamen.

* * *

Laten we beginnen met het eerste deel van deze vraag: wanneer moeten we het omslagpunt bereiken? Met andere woorden: hoeveel tijd is er nog voordat de eerste machine de superintelligentie bereikt?

De meningen verschillen van geval tot geval. Velen, waaronder professor Vernor Vinge, wetenschapper Ben Herzel, Bill Joy, medeoprichter van Sun Microsystems, futurist Ray Kurzweil, waren het eens met machine learning-expert Jeremy Howard toen hij de volgende grafiek presenteerde op TED Talk:

Image
Image

Deze mensen delen de mening dat ISI binnenkort komt - deze exponentiële groei, die ons vandaag traag lijkt, zal letterlijk exploderen in de komende decennia.

Anderen, zoals medeoprichter van Microsoft Paul Allen, onderzoekspsycholoog Gary Marcus, computerexpert Ernest Davis en tech-ondernemer Mitch Kapor, geloven dat denkers als Kurzweil de omvang van het probleem ernstig onderschatten, en ze denken dat we lang niet zo dicht bij een omslagpunt zitten.

Het kamp van Kurzweil stelt dat de enige onderschatting die optreedt het negeren van exponentiële groei is, en de twijfelaars kunnen worden vergeleken met degenen die naar het langzaam groeiende internet keken in 1985 en voerden aan dat het in de nabije toekomst geen impact zou hebben op de wereld.

Twijfelaars kunnen voorkomen dat het voor vooruitgang moeilijker is om elke volgende stap te zetten als het gaat om de exponentiële ontwikkeling van intelligentie, die de typische exponentiële aard van technologische vooruitgang neutraliseert. Enzovoort.

Het derde kamp, waarin Nick Bostrom is gevestigd, is het niet eens met het eerste of het tweede, met het argument dat a) dit alles absoluut in de nabije toekomst kan gebeuren; en b) er is geen garantie dat dit überhaupt zal gebeuren of dat het langer zal duren.

Anderen, zoals de filosoof Hubert Dreyfus, geloven dat alle drie de groepen naïef geloven dat er überhaupt een omslagpunt zal zijn en dat we hoogstwaarschijnlijk nooit bij ISI zullen komen.

Wat gebeurt er als we al deze meningen samenvoegen?

In 2013 voerde Bostrom een onderzoek uit waarin hij honderden experts op het gebied van kunstmatige intelligentie interviewde tijdens een reeks conferenties over het volgende onderwerp: "Wat zullen uw voorspellingen zijn voor het bereiken van AGI op menselijk niveau?" en vroeg ons een optimistisch jaar te noemen (waarin we AGI zullen hebben met een kans van 10 procent), een realistische aanname (een jaar waarin we AGI zullen hebben met een kans van 50 procent) en een zelfverzekerde aanname (het vroegste jaar waarin AGI zal verschijnen sinds 90 -percentage kans). Hier zijn de resultaten:

- Gemiddeld optimistisch jaar (10%): 2022

- Gemiddeld realistisch jaar (50%): 2040

- Gemiddeld pessimistisch jaar (90%): 2075

De gemiddelde respondenten zijn van mening dat we over 25 jaar AGI zullen hebben in plaats van niet. Een kans van 90 procent dat AGI zich voordoet in 2075 betekent dat als je nu nog vrij jong bent, dit hoogstwaarschijnlijk tijdens je leven zal gebeuren.

Een afzonderlijke studie die onlangs werd uitgevoerd door James Barratt (de auteur van het veelgeprezen en zeer goede boek Our Latest Invention, fragmenten waarvan ik de aandacht van Hi-News.ru-lezers bracht) en Ben Hertzel op de AGI-conferentie, een jaarlijkse AGI-conferentie, toonde eenvoudig de mening van mensen ten opzichte van het jaar dat we bij AGI komen: 2030, 2050, 2100, later of nooit. Hier zijn de resultaten:

- Tegen 2030: 42% van de respondenten

- Tegen 2050: 25%

- Tegen 2100: 20%

- Na 2100: 10%

- Nooit: 2%

Vergelijkbaar met de resultaten van Bostrom. In de peiling van Barratt gelooft meer dan tweederde van de ondervraagden dat AGI hier tegen 2050 zal zijn, en minder dan de helft gelooft dat AGI in de komende 15 jaar zal verschijnen. Opvallend is ook dat slechts 2% van de respondenten AGI in onze toekomst in principe niet ziet.

Maar AGI is geen omslagpunt zoals ISI. Wanneer zullen we volgens experts ISI hebben?

Bostrom vroeg de experts wanneer we ASI zullen bereiken: a) twee jaar nadat we AGI hebben bereikt (dat wil zeggen, bijna onmiddellijk vanwege een explosie van intelligentie); b) na 30 jaar. Resultaten?

De gemiddelde mening is dat de snelle overgang van AGI naar ISI zal plaatsvinden met een kans van 10%, maar over 30 jaar of minder met een kans van 75%.

Uit deze gegevens weten we niet op welke datum de respondenten een kans van 50 procent op een ASI zouden noemen, maar laten we op basis van de twee bovenstaande antwoorden aannemen dat het 20 jaar is. Dat wil zeggen, 's werelds toonaangevende AI-experts geloven dat het keerpunt zal komen in 2060 (AGI zal verschijnen in 2040 + het zal 20 jaar duren voor de overgang van AGI naar ISI).

Image
Image

Alle bovenstaande statistieken zijn natuurlijk speculatief en vertegenwoordigen slechts de mening van experts op het gebied van kunstmatige intelligentie, maar ze geven ook aan dat de meerderheid van de geïnteresseerden het erover eens is dat de AI in 2060 het meest waarschijnlijk zal arriveren. In slechts 45 jaar.

Laten we verder gaan met de tweede vraag. Als we bij het omslagpunt komen, welke kant van de fatale keuze zal ons dan bepalen?

Superintelligentie zal de krachtigste kracht hebben, en de cruciale vraag voor ons zal de volgende zijn:

Wie of wat zal deze macht beheersen en wat zal hun motivatie zijn?

Het antwoord op deze vraag hangt ervan af of de ISI een ongelooflijk krachtige ontwikkeling krijgt, een onmetelijk angstaanjagende ontwikkeling of iets daartussenin.

Natuurlijk probeert de expertgemeenschap ook deze vragen te beantwoorden. Bostrom's peiling analyseerde de waarschijnlijkheid van mogelijke gevolgen van de impact van AGI op de mensheid, en het bleek dat met een kans van 52 procent alles heel goed zal gaan en met een kans van 31 procent alles slecht of extreem slecht zal gaan. De enquête die aan het einde van het vorige deel van dit onderwerp is bijgevoegd, onder u, beste lezers van Hi-News, toonde ongeveer dezelfde resultaten. Voor een relatief neutraal resultaat was de kans slechts 17%. Met andere woorden, we geloven allemaal dat AGI een groot probleem gaat worden. Het is ook vermeldenswaard dat dit onderzoek betrekking heeft op de opkomst van AGI - in het geval van ISI zal het percentage neutraliteit lager zijn.

Voordat we dieper ingaan op de goede en slechte kanten van de vraag, laten we beide kanten van de vraag combineren - "wanneer zal dit gebeuren?" en "is dit goed of slecht?" in een tabel met de standpunten van de meeste experts.

Image
Image

We zullen het zo meteen over het hoofdkamp hebben, maar bepaal eerst je positie. Hoogstwaarschijnlijk bevindt u zich op dezelfde plek waar ik was voordat ik aan dit onderwerp begon te werken. Er zijn verschillende redenen waarom mensen helemaal niet over dit onderwerp nadenken:

- Zoals vermeld in het eerste deel, brachten de films mensen en feiten ernstig in verwarring en presenteerden ze onrealistische scenario's met kunstmatige intelligentie, wat leidde tot het feit dat we AI helemaal niet serieus moesten nemen. James Barratt vergeleek deze situatie met een waarschuwing van de Centers for Disease Control (CDC) met een serieuze waarschuwing over vampiers in onze toekomst.

- Vanwege de zogenaamde cognitieve vooroordelen is het erg moeilijk voor ons om te geloven dat iets echt is totdat we bewijs hebben. Je kunt je met een gerust hart voorstellen dat de computerwetenschappers van 1988 regelmatig de verstrekkende gevolgen van internet bespraken en wat het zou kunnen worden, maar mensen geloofden nauwelijks dat het hun leven zou veranderen totdat het echt gebeurde. Het is gewoon dat computers in 1988 niet wisten hoe ze dit moesten doen, en mensen keken gewoon naar hun computer en dachten: "Echt waar? Is dit wat de wereld zal veranderen? " Hun verbeeldingskracht werd beperkt door wat hun persoonlijke ervaring hen leerde, ze wisten wat een computer was en het was moeilijk voor te stellen waartoe een computer in de toekomst in staat zou zijn. Hetzelfde gebeurt nu met AI. We hebben gehoord dat het een serieuze zaak zal wordenMaar aangezien we het nog niet van aangezicht tot aangezicht zijn tegengekomen en we over het algemeen nogal zwakke manifestaties van AI in onze moderne wereld waarnemen, is het nogal moeilijk voor ons te geloven dat het ons leven radicaal zal veranderen. Het is tegen deze vooroordelen dat talloze experts uit alle kampen, evenals geïnteresseerde mensen, ertegen zijn om onze aandacht te trekken door het lawaai van alledaags collectief egocentrisme.

- Zelfs als we in dit alles zouden geloven - hoe vaak heb je vandaag nagedacht over het feit dat je de rest van de eeuwigheid in het niets zult doorbrengen? Een beetje mee eens. Zelfs als dit feit veel belangrijker is dan alles wat u dag in dag uit doet. Dit komt omdat onze hersenen meestal gefocust zijn op kleine alledaagse dingen, ongeacht hoe waanvoorstellingen de langetermijnsituatie waarin we ons bevinden. Het is gewoon dat we gemaakt zijn.

Een van de doelen van dit artikel is om je uit het kamp genaamd 'Ik denk graag aan andere dingen' te halen en je in het expertkamp te plaatsen, zelfs als je gewoon op het kruispunt tussen de twee stippellijnen in het vak hierboven staat, volkomen onbeslist.

In de loop van het onderzoek wordt duidelijk dat de meningen van de meeste mensen snel afdrijven naar het "hoofdkamp" en driekwart van de experts valt in twee subkampen in het hoofdkamp.

Image
Image

We zullen beide kampen volledig bezoeken. Laten we beginnen met plezier.

Waarom zou de toekomst onze grootste droom kunnen zijn?

Terwijl we de AI-wereld verkennen, vinden we verrassend veel mensen in onze comfortzone. De mensen rechtsboven bruisen van opwinding. Ze geloven dat we aan de goede kant van het blok zullen vallen, en ze geloven ook dat we hier onvermijdelijk toe zullen komen. Voor hen is de toekomst alleen het beste waarvan men alleen maar kan dromen.

Het punt dat deze mensen onderscheidt van andere denkers is niet dat ze aan de gelukkige kant willen zijn, maar dat ze zeker weten dat ze op ons wacht.

Dit vertrouwen komt voort uit controverse. Critici geloven dat het voortkomt uit oogverblindende opwinding die mogelijke negatieve kanten overschaduwt. Maar voorstanders zeggen dat sombere voorspellingen altijd naïef zijn; technologie gaat door en zal ons altijd meer helpen dan ons schaden.

Je bent vrij om een van deze meningen te kiezen, maar zet het scepticisme opzij en kijk goed naar de gelukkige kant van de evenwichtsbalk, in een poging te accepteren dat alles waarover je leest misschien al is gebeurd. Als je jager-verzamelaars onze wereld van comfort, technologie en eindeloze overvloed zou laten zien, zou het voor hen een magische fictie lijken - en we gedragen ons nogal bescheiden, niet in staat toe te geven dat dezelfde onbegrijpelijke transformatie ons in de toekomst te wachten staat.

Nick Bostrom beschrijft drie wegen die een superintelligent AI-systeem kan volgen:

Een orakel dat elke exacte vraag kan beantwoorden, inclusief complexe vragen die mensen niet kunnen beantwoorden - bijvoorbeeld "hoe kan een automotor efficiënter worden gemaakt?" Google is een primitief type "orakel".

Een geest die elk commando op hoog niveau zal uitvoeren - met behulp van moleculaire assembler om een nieuwe, efficiëntere versie van een automotor te maken - en zal wachten op het volgende commando.

Een soeverein die brede toegang zal hebben en het vermogen zal hebben om vrij in de wereld te functioneren, zijn eigen beslissingen te nemen en het proces te verbeteren. Hij zal een goedkopere, snellere en veiligere manier van privévervoer uitvinden dan een auto.

Deze vragen en taken, die voor ons moeilijk lijken, zullen voor het superintelligente systeem overkomen alsof iemand vroeg om verbetering van de situatie "mijn potlood viel van de tafel", waarin je het gewoon oppakt en weer terugplaatst.

Eliezer Yudkowski, een Amerikaanse expert op het gebied van kunstmatige intelligentie, zei het goed:

“Er zijn geen harde problemen, alleen problemen die moeilijk zijn voor een bepaald niveau van intelligentie. Ga een stap hoger (in termen van intelligentie), en sommige problemen zullen plotseling van de categorie "onmogelijk" naar het kamp van "duidelijk" gaan. Een stap hoger - en ze zullen allemaal duidelijk worden."

Er zijn veel ongeduldige wetenschappers, uitvinders en ondernemers die een zone van zelfverzekerd comfort op onze tafel hebben gekozen, maar we hebben maar één gids nodig om voor het beste te wandelen in deze beste wereld.

Ray Kurzweil is dubbelzinnig. Sommigen verafgoden zijn ideeën, sommigen verachten. Sommigen blijven in het midden - Douglas Hofstadter, die de ideeën uit de boeken van Kurzweil besprak, merkte welsprekend op dat "het is alsof je veel lekker eten en een beetje hondenpoep neemt, en dan alles zo mengt dat het onmogelijk is om te begrijpen wat goed en wat slecht is."

Of je zijn ideeën nu leuk vindt of niet, het is onmogelijk om ze voorbij te laten gaan zonder enige interesse. Hij begon dingen uit te vinden als tiener, en in de daaropvolgende jaren vond hij verschillende belangrijke dingen uit, waaronder de eerste flatbedscanner, de eerste scanner om tekst naar spraak om te zetten, de bekende Kurzweil muzikale synthesizer (de eerste echte elektrische piano) en de eerste commercieel succesvolle spraakherkenner. Hij is ook de auteur van vijf sensationele boeken. Kurzweil wordt gewaardeerd om zijn gewaagde voorspellingen, en zijn staat van dienst is redelijk goed - eind jaren 80, toen internet nog in de kinderschoenen stond, voorspelde hij dat het internet in de jaren 2000 een wereldwijd fenomeen zou worden. The Wall Street Journal noemde Kurzweil een 'rusteloos genie', Forbes een 'mondiale denkmachine', Inc. Magazine - "Edison's rechtmatige erfgenaam", Bill Gates - "de beste daarvandie de toekomst van kunstmatige intelligentie voorspelt. " In 2012 nodigde Google-medeoprichter Larry Page Kurzweil uit voor de functie van CTO. In 2011 was hij medeoprichter van Singularity University, gehost door NASA en deels gesponsord door Google.

Zijn biografie is belangrijk. Wanneer Kurzweil praat over zijn visie op de toekomst, klinkt het als een gekke, maar het gekke eraan is dat hij verre van gek is - hij is een ongelooflijk slimme, goed opgeleide en verstandige persoon. U denkt misschien dat hij het bij het verkeerde eind heeft in zijn voorspellingen, maar hij is niet gek. De voorspellingen van Kurzweil worden gedeeld door veel comfortzone-experts, Peter Diamandis en Ben Herzel. Dit is wat hij denkt dat er zal gebeuren.

Chronologie

Kurzweil gelooft dat computers tegen 2029 het niveau van algemene kunstmatige intelligentie (AGI) zullen bereiken, en tegen 2045 zullen we niet alleen kunstmatige superintelligentie hebben, maar ook een compleet nieuwe wereld - de tijd van de zogenaamde singulariteit. De chronologie van AI wordt nog steeds als buitensporig overdreven beschouwd, maar in de afgelopen 15 jaar heeft de snelle ontwikkeling van zeer gerichte kunstmatige intelligentie (AI) -systemen veel experts gedwongen de kant van Kurzweil te kiezen. Zijn voorspellingen zijn nog steeds ambitieuzer dan de enquête van Bostrom (AGI tegen 2040, ISI tegen 2060), maar niet veel.

Volgens Kurzweil zorgen drie gelijktijdige revoluties in de biotechnologie, nanotechnologie en, nog belangrijker, AI voor de singulariteit van 2045. Maar voordat we verder gaan - en nanotechnologie volgt kunstmatige intelligentie op de voet - laten we even stilstaan bij nanotechnologie.

Image
Image

Een paar woorden over nanotechnologie

We noemen meestal nanotechnologie-technologieën die zich bezighouden met de manipulatie van materie in het bereik van 1-100 nanometer. Een nanometer is een miljardste van een meter, of een miljoenste van een millimeter; binnen het bereik van 1-100 nanometer kunnen virussen (100 nm in diameter), DNA (10 nm breed), hemoglobinemoleculen (5 nm), glucose (1 nm) en meer worden ondergebracht. Als nanotechnologie ooit ons onderwerp wordt, zal de volgende stap zijn het manipuleren van individuele atomen die kleiner zijn dan één orde van grootte (~, 1 nm).

Om te begrijpen waar mensen problemen tegenkomen bij het manipuleren van materie op een dergelijke schaal, laten we naar een grotere schaal springen. Het internationale ruimtestation ISS bevindt zich 481 kilometer boven de aarde. Als mensen reuzen waren en het ISS met hun hoofd zouden raken, zouden ze 250.000 keer groter zijn dan nu. Als je iets 250.000 keer vergroot van 1 tot 100 nanometer, krijg je 2,5 centimeter. Nanotechnologie is het equivalent van een mens die in een baan om het ISS draait en dingen probeert te manipuleren ter grootte van een zandkorrel of een oogbol. Om naar het volgende niveau te gaan - het besturen van individuele atomen - zal de reus objecten met een diameter van 1/40 millimeter zorgvuldig moeten positioneren. Gewone mensen hebben een microscoop nodig om ze te zien.

Richard Feynman sprak voor het eerst over nanotechnologie in 1959. Toen zei hij: 'De principes van de fysica spreken, voor zover ik weet, niet tegen de mogelijkheid om dingen atoom voor atoom te beheersen. In principe zou een fysicus elke chemische stof kunnen synthetiseren die een chemicus heeft opgeschreven. Hoe? Door atomen te plaatsen waar de chemicus zegt de stof te krijgen. Dit is de hele eenvoud. Als je weet hoe je individuele moleculen of atomen moet verplaatsen, kun je bijna alles doen.

Nanotechnologie werd een serieus wetenschappelijk gebied in 1986 toen ingenieur Eric Drexler de fundamenten presenteerde in zijn baanbrekende boek, Machines of Creation, maar Drexler zelf is van mening dat degenen die meer willen weten over moderne ideeën in nanotechnologie zijn boek uit 2013 moeten lezen. Full Abundance (Radical Abundance).

Nadat we tot op de bodem van nanotechnologie zijn gekomen, kunnen we het gebruiken om technische apparaten, kleding, voedsel, bioproducten te maken - bloedcellen, virus- en kankerbestrijders, spierweefsel, enzovoort - wat dan ook. En in een wereld die nanotechnologie gebruikt, zullen de kosten van een materiaal niet langer gebonden zijn aan de schaarste of de complexiteit van het fabricageproces, maar eerder aan de complexiteit van de atomaire structuur. In de wereld van nanotechnologie kan een diamant goedkoper zijn dan een gum.

We zijn daar nog niet eens dichtbij. En het is niet helemaal duidelijk of we de complexiteit van dit pad onderschatten of overschatten. Alles gaat echter zo ver dat nanotechnologie niet ver weg is. Kurzweil gaat ervan uit dat we ze tegen de jaren 2020 zullen hebben. De wereldstaten weten dat nanotechnologie een grote toekomst kan beloven, en daarom investeren ze er vele miljarden in.

Stel je eens voor welke mogelijkheden een superintelligente computer zou krijgen als hij een betrouwbare assembler op nanoschaal zou krijgen. Maar nanotechnologie is ons idee, en we proberen erop te berijden, het is moeilijk voor ons. Wat als ze maar een grap zijn voor het ISI-systeem, en de ISI zelf technologieën zal bedenken die vele malen krachtiger zullen zijn dan alles wat we in principe kunnen aannemen? We waren het erover eens: niemand kan zich voorstellen waartoe kunstmatige superintelligentie in staat zal zijn? Er wordt aangenomen dat onze hersenen zelfs niet het minimum kunnen voorspellen van wat er zal gebeuren.

Wat kan AI voor ons doen?

Gewapend met superintelligentie en alle technologie die superintelligentie zou kunnen creëren, zal ISI waarschijnlijk alle problemen van de mensheid kunnen oplossen. Opwarming van de aarde? ISI zal eerst de CO2-uitstoot stoppen door een groot aantal efficiënte niet-fossiele brandstoffen uit te vinden voor het opwekken van energie. Hij komt dan met een effectieve, innovatieve manier om overtollige CO2 uit de atmosfeer te verwijderen. Kanker en andere ziekten? Geen probleem - de gezondheidszorg en de geneeskunde zullen veranderen op manieren die onmogelijk voor te stellen zijn. Wereldhonger? ISI zal nanotechnologie gebruiken om vlees te maken dat identiek is aan natuurlijk, helemaal opnieuw, echt vlees.

Image
Image

Nanotechnologie zal een hoop afval kunnen veranderen in een vat met vers vlees of ander voedsel (niet noodzakelijkerwijs zelfs in de gebruikelijke vorm - stel je een gigantische appelblokje voor) en al dit voedsel over de hele wereld kunnen verspreiden met behulp van geavanceerde transportsystemen. Dit is natuurlijk geweldig voor dieren die niet meer voor voedsel hoeven te sterven. ISI kan ook veel andere dingen doen, zoals het in stand houden van bedreigde diersoorten of zelfs het terugbrengen van uitgestorven diersoorten uit bewaard DNA. ISI kan onze moeilijkste macro-economische problemen oplossen - onze moeilijkste economische debatten, ethische en filosofische kwesties, wereldhandel - die allemaal pijnlijk duidelijk zullen zijn voor ISI.

Maar er is iets heel speciaals dat ISI voor ons zou kunnen doen. Verleidelijk en verleidelijk dat alles zou veranderen: ISI kan ons helpen om te gaan met sterfelijkheid. Als u geleidelijk de mogelijkheden van AI begrijpt, zult u misschien al uw ideeën over de dood heroverwegen.

Er was geen reden voor evolutie om onze levensduur langer te verlengen dan nu het geval is. Als we lang genoeg leven om te baren en kinderen op te voeden tot het punt waarop ze voor zichzelf kunnen zorgen, is evolutie voldoende. Evolutionair gezien is 30+ jaar voldoende voor ontwikkeling, en er is geen reden voor mutaties om het leven te verlengen en de waarde van natuurlijke selectie te verminderen. William Butler Yates noemde onze soort 'een ziel gehecht aan een stervend dier'. Niet echt leuk.

En aangezien we allemaal ooit sterven, leven we met het idee dat de dood onvermijdelijk is. We denken aan ouder worden in de loop van de tijd - vooruit blijven gaan en dit proces niet kunnen stoppen. Maar de gedachte aan de dood is verraderlijk: erdoor gegrepen vergeten we te leven. Richard Feynman schreef:

“Er is iets geweldigs in de biologie: er is niets in deze wetenschap dat spreekt over de noodzaak van de dood. Als we een eeuwigdurende bewegingsmachine willen creëren, realiseren we ons dat we genoeg natuurkundige wetten hebben gevonden die ofwel aangeven dat dit onmogelijk is, ofwel dat de wetten verkeerd zijn. Maar er is niets in de biologie dat zou duiden op de onvermijdelijkheid van de dood. Dit brengt me ertoe te geloven dat het niet zo onvermijdelijk is, en het is slechts een kwestie van tijd voordat biologen de oorzaak van dit probleem ontdekken, deze vreselijke universele ziekte, dat het genezen zal worden."

Het feit is dat veroudering niets met tijd te maken heeft. Veroudering is wanneer de fysieke materialen van het lichaam verslijten. Auto-onderdelen gaan ook achteruit - maar is veroudering onvermijdelijk? Als u uw auto blijft repareren terwijl de onderdelen verslijten, gaat deze voor altijd mee. Het menselijk lichaam is niet anders - alleen complexer.

Kurzweil heeft het over intelligente, met wifi verbonden nanobots in de bloedbaan die talloze taken voor de menselijke gezondheid kunnen uitvoeren, waaronder het regelmatig repareren of vervangen van versleten cellen overal in het lichaam. Het verbeteren van dit proces (of het vinden van een alternatief voorgesteld door een slimmere ASI) houdt niet alleen het lichaam gezond, het kan ook veroudering tegengaan. Het verschil tussen het lichaam van een 60-jarige en een 30-jarige ligt in een handvol fysieke problemen die met de juiste technologie kunnen worden verholpen. ISI zou een auto kunnen bouwen die een persoon zou betreden als ze 60 jaar oud zijn en die zou vertrekken als ze 30 jaar oud zijn.

Zelfs een gedegradeerd brein zou kunnen worden vernieuwd. De ISI zou zeker weten hoe hij dit moet doen zonder de hersengegevens (persoonlijkheid, herinneringen, etc.) te beïnvloeden. Een 90-jarige man die lijdt aan volledige hersenafbraak, kan een omscholing ondergaan, vernieuwen en terugkeren naar het begin van zijn leven. Het lijkt misschien absurd, maar het lichaam is een handvol atomen, en de ISI zou ze zeker gemakkelijk kunnen manipuleren, elke atomaire structuur. Het is niet zo absurd.

Kurzweil gelooft ook dat kunstmatige materialen met het verstrijken van de tijd steeds meer in het lichaam zullen worden geïntegreerd. Om te beginnen zouden de orgels kunnen worden vervangen door supergeavanceerde machineversies die eeuwig meegaan en nooit falen. Dan zouden we een compleet herontwerp van het lichaam kunnen doen, waarbij we rode bloedcellen vervangen door perfecte nanobots die vanzelf bewegen, waardoor de noodzaak van een hart helemaal overbodig wordt. We zouden ook onze cognitieve vaardigheden kunnen verbeteren, miljarden keren sneller gaan denken en toegang krijgen tot alle informatie die de mensheid via de cloud ter beschikking staat.

De mogelijkheden om nieuwe horizonten te doorgronden zouden werkelijk eindeloos zijn. Mensen zijn erin geslaagd om seks een nieuw doel te geven, ze doen het voor hun plezier, niet alleen voor de voortplanting. Kurzweil denkt dat we hetzelfde kunnen doen met voedsel. Nanobots kunnen ideale voeding rechtstreeks aan de cellen van het lichaam afgeven, waardoor ongezonde stoffen door het lichaam kunnen gaan. Nanotechnologie-theoreticus Robert Freitas heeft al een vervanging voor bloedcellen ontwikkeld die, wanneer ze in het menselijk lichaam worden geïmplementeerd, hem in staat stellen 15 minuten niet te ademen - en dit is uitgevonden door mensen. Stel je voor wanneer de ISI macht zal krijgen.

Kurzweil gelooft immers dat mensen het punt zullen bereiken waarop ze volledig kunstmatig worden; de tijd dat we naar biologische materialen kijken en nadenken over hoe primitief ze waren; wanneer we zullen lezen over de vroege stadia van de menselijke geschiedenis, verbaasd over hoe ziektekiemen, ongelukken, ziekten of gewoon ouderdom iemand tegen zijn wil kunnen doden. Uiteindelijk zullen mensen hun eigen biologie verslaan en eeuwig worden - dit is het pad naar de gelukkige kant van de evenwichtsbalk waar we het vanaf het allereerste begin over hebben gehad. En mensen die hierin geloven zijn er ook zeker van dat zo'n toekomst heel, heel binnenkort op ons wacht.

Het zal je waarschijnlijk niet verbazen dat de ideeën van Kurzweil harde kritiek hebben gekregen. De singulariteit ervan in 2045 en het daaropvolgende eeuwige leven voor mensen werd "de hemelvaart van nerds" of "intelligente creatie van mensen met een IQ van 140" genoemd. Anderen zetten vraagtekens bij het optimistische tijdsbestek, het begrip van het menselijk lichaam en de hersenen, herinnerd aan de wet van Moore, die nog niet is verdwenen. Voor elke expert die in de ideeën van Kurzweil gelooft, zijn er drie die denken dat hij ongelijk heeft.

Maar het meest interessante hiervan is dat de meeste experts die het niet met hem eens zijn, over het algemeen niet zeggen dat dit onmogelijk is. In plaats van te zeggen "onzin, dit zal nooit gebeuren", zeggen ze zoiets als "dit alles zal gebeuren als we bij de ISI komen, maar dit is het probleem." Bostrom, een van de veelgeprezen AI-experts die waarschuwt voor AI-gevaren, geeft ook toe:

“Er is nauwelijks een probleem meer dat de superintelligentie niet kan oplossen of ons zelfs maar kan helpen oplossen. Ziekte, armoede, vernietiging van het milieu, allerlei soorten lijden - al deze superintelligentie met behulp van nanotechnologie kan in een oogwenk worden opgelost. Superintelligentie kan ons ook een onbeperkte levensduur geven door het verouderingsproces te stoppen en om te keren met behulp van nanogeneeskunde of de mogelijkheid om ons naar de cloud te uploaden. Superintelligentie kan ook mogelijkheden creëren voor eindeloze toename van intellectuele en emotionele vermogens; hij kan ons helpen een wereld te creëren waarin we in vreugde en begrip zullen leven, onze idealen benaderen en regelmatig onze dromen waarmaken."

Dit is echter een citaat van een van Kurzweil's critici, die toegeeft dat dit allemaal mogelijk is als we een veilige ASI kunnen creëren. Kurzweil definieerde eenvoudig wat kunstmatige superintelligentie zou moeten worden, als het enigszins mogelijk was. En als hij een goede god is.

De meest voor de hand liggende kritiek op de voorstanders van comfortzone is dat ze verdoemd kunnen worden bij het beoordelen van de toekomst van ISI. In zijn boek The Singularity wijdde Kurzweil 20 pagina's van de 700 potentiële ISI-bedreigingen. De vraag is niet wanneer we bij ISI komen, de vraag is wat de motivatie zal zijn. Kurzweil beantwoordt deze vraag met de nodige voorzichtigheid: “ISI komt voort uit vele ongelijksoortige inspanningen en zal diep geïntegreerd zijn in de infrastructuur van onze beschaving. In feite zal het nauw zijn ingebed in ons lichaam en onze hersenen. Hij zal onze waarden weerspiegelen omdat hij één met ons zal zijn."

Maar als het antwoord luidt: waarom maken zoveel slimme mensen in deze wereld zich zorgen over de toekomst van kunstmatige intelligentie? Waarom zegt Stephen Hawking dat de ontwikkeling van ISI "het einde van het menselijk ras zou kunnen betekenen"? Bill Gates zegt dat hij ‘mensen die er geen moeite mee doen’ niet begrijpt. Elon Musk is bang dat we 'een demon oproepen'. Waarom beschouwen veel experts ISI als de grootste bedreiging voor de mensheid?

Gebaseerd op materiaal van waitbutwhy.com, samengesteld door Tim Urban. Het artikel maakt gebruik van materiaal uit het werk van Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog en Kai Sotal, Susan Schneider, Stuart Russell en Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Auteur: Ilya Khel

Deel drie: waarom zou het onze laatste uitvinding kunnen zijn?