Denken Als Een Persoon: Wat Gebeurt Er Als Je De Machine De Theorie Van Bewustzijn Schenkt - Alternatieve Mening

Inhoudsopgave:

Denken Als Een Persoon: Wat Gebeurt Er Als Je De Machine De Theorie Van Bewustzijn Schenkt - Alternatieve Mening
Denken Als Een Persoon: Wat Gebeurt Er Als Je De Machine De Theorie Van Bewustzijn Schenkt - Alternatieve Mening

Video: Denken Als Een Persoon: Wat Gebeurt Er Als Je De Machine De Theorie Van Bewustzijn Schenkt - Alternatieve Mening

Video: Denken Als Een Persoon: Wat Gebeurt Er Als Je De Machine De Theorie Van Bewustzijn Schenkt - Alternatieve Mening
Video: Waar in je brein zit je bewustzijn? (5/5) 2024, Juli-
Anonim

Vorige maand leed een team van autodidactische AI-spelers een spectaculaire nederlaag tegen professionele esports-spelers. De showwedstrijd, die plaatsvond als onderdeel van het Dota 2 The International World Championship, toonde aan dat strategisch teamdenken een persoon nog steeds in staat stelt de overhand te krijgen op een auto.

De betrokken AI's waren verschillende algoritmen die zijn ontwikkeld door OpenAI, waarvan Elon Musk een van de oprichters is. Een collectief van digitale spelers, de OpenAI Five genaamd, leerde Dota 2 alleen spelen, met vallen en opstaan, en met elkaar concurreren.

In tegenstelling tot hetzelfde schaak- of bordlogica-spel Go, wordt het populaire en snelgroeiende multiplayer-spel Dota 2 beschouwd als een veel serieuzer veld voor het testen van kunstmatige intelligentie op kracht. De algemene moeilijkheidsgraad van het spel is slechts één factor. Het volstaat niet om heel snel met de muis te klikken en commando's te geven aan het personage dat je bestuurt. Om te winnen is het nodig om intuïtie te hebben en te begrijpen wat je op het volgende moment van de tegenstander kunt verwachten, en om adequaat te handelen volgens deze set van kennis om samen te komen met gezamenlijke inspanningen om een gemeenschappelijk doel te bereiken: overwinning. De computer beschikt niet over deze reeks mogelijkheden.

Tot op heden heeft zelfs het meest opvallende computeralgoritme voor deep learning niet het strategische denken dat nodig is om de doelen van de taken van zijn tegenstander te begrijpen, of het nu een andere AI of een mens is.

Volgens Wang moet AI om te slagen een diepe communicatieve vaardigheid hebben die voortkomt uit het belangrijkste cognitieve kenmerk van een persoon: de aanwezigheid van intelligentie.

Mentale toestandsmodel als simulatie

Promotie video:

Op vierjarige leeftijd beginnen kinderen doorgaans één fundamentele sociale eigenschap te begrijpen: hun geest is anders dan die van anderen. Ze beginnen te begrijpen dat iedereen heeft waar ze in geloven, hun verlangens, emoties en bedoelingen. En, nog belangrijker, door zichzelf in de plaats van anderen te verbeelden, kunnen ze beginnen met het voorspellen van het verdere gedrag van deze mensen en ze uitleggen. In zekere zin beginnen hun hersenen meerdere simulaties van zichzelf in zichzelf te creëren, zichzelf in de plaats van andere mensen te plaatsen en zichzelf in een andere omgeving te plaatsen.

Het mentale toestandsmodel is belangrijk om zichzelf als persoon te begrijpen en speelt ook een belangrijke rol in sociale interactie. Anderen begrijpen is de sleutel tot effectieve communicatie en het bereiken van gemeenschappelijke doelen. Dit vermogen kan echter ook de drijvende kracht zijn achter valse overtuigingen - ideeën die ons wegleiden van de objectieve waarheid. Zodra bijvoorbeeld het vermogen om een mentaal-toestandsmodel te gebruiken wordt aangetast, gebeurt dit bij autisme, dan verslechteren ook de natuurlijke 'menselijke' vaardigheden, zoals het vermogen om uit te leggen en voor te stellen.

Volgens Dr. Alan Winfield, hoogleraar robotica aan de Universiteit van West-Engeland, is het mentale toestandsmodel of "theory of mind" een belangrijk kenmerk dat AI ooit in staat zal stellen mensen, dingen en andere robots te "begrijpen".

In plaats van methoden voor machinaal leren, waarbij meerdere lagen van neurale netwerken afzonderlijke stukjes informatie extraheren en enorme databases 'bestuderen', stelt Winston voor om een andere benadering te kiezen. In plaats van te vertrouwen op leren, stelt Winston voor om de AI vooraf te programmeren met een intern model van zichzelf en van de omgeving dat eenvoudige "wat als?" - vragen beantwoordt.

Stel je bijvoorbeeld voor dat twee robots door een smalle gang bewegen, hun AI kan de resultaten simuleren van verdere acties die hun botsing voorkomen: linksaf, rechtsaf of rechtdoor. Dit interne model zal in wezen fungeren als een ‘gevolgmechanisme’, als een soort ‘gezond verstand’ dat de AI helpt om de volgende correcte acties te ondernemen door de toekomstige ontwikkeling van de situatie te voorspellen.

In een onderzoek dat eerder dit jaar werd gepubliceerd, demonstreerde Winston een prototype van een robot die dergelijke resultaten kan bereiken. Anticiperend op het gedrag van anderen, passeerde de robot met succes de gang zonder botsingen. In feite is dit niet verrassend, merkt de auteur op, maar de "attente" robot, die een gesimuleerde benadering gebruikte om het probleem op te lossen, deed er 50 procent langer over om de gang te voltooien. Niettemin bewees Winston dat zijn methode van interne simulatie werkt: "Dit is een zeer krachtig en interessant uitgangspunt bij de ontwikkeling van de theorie van kunstmatige intelligentie", concludeerde de wetenschapper.

Winston hoopt dat AI uiteindelijk het vermogen zal krijgen om situaties te beschrijven en mentaal te reproduceren. Een intern model van zichzelf en anderen zal een dergelijke AI in staat stellen om verschillende scenario's te simuleren en, nog belangrijker, om voor elk van hen specifieke doelen en doelstellingen te definiëren.

Dit verschilt significant van deep learning-algoritmen, die in principe niet kunnen verklaren waarom ze bij het oplossen van een probleem tot deze of gene conclusie kwamen. Het black box-model van deep learning is eigenlijk het echte probleem bij het vertrouwen op dergelijke systemen. Dit probleem kan vooral acuut worden, bijvoorbeeld bij de ontwikkeling van verpleegrobots voor ziekenhuizen of voor ouderen.

Een AI die gewapend is met een mentaal-toestandsmodel zou zichzelf in de schoenen van zijn meesters kunnen plaatsen en correct kunnen begrijpen wat er van hem verwacht wordt. Dan kon hij geschikte oplossingen bedenken en, nadat hij deze beslissingen aan de persoon had uitgelegd, zou hij al de taak vervullen die hem was toegewezen. Hoe minder onzekerheid bij beslissingen, hoe meer vertrouwen er zou zijn in dergelijke robots.

Mentale toestandsmodel in een neuraal netwerk

DeepMind heeft een andere benadering. In plaats van een algoritme voor te programmeren voor het mechanisme van gevolgen, hebben ze verschillende neurale netwerken ontwikkeld die gelijkenis vertonen met een model van collectief psychologisch gedrag.

Het AI-algoritme "ToMnet" kan acties leren door andere neutronennetwerken te observeren. ToMNet zelf is een collectief van drie neurale netwerken: de eerste is gebaseerd op de eigenaardigheden van het kiezen van andere AI's op basis van hun laatste acties. De tweede vormt een algemeen concept van de huidige stemming - hun overtuigingen en bedoelingen op een bepaald moment in de tijd. Het collectieve resultaat van het werk van twee neurale netwerken wordt ontvangen door de derde, die op basis van de situatie verdere acties van de AI voorspelt. Net als bij deep learning wordt ToMnet effectiever naarmate het ervaring opdoet door anderen te volgen.

In één experiment 'zag' ToMnet drie AI-agenten manoeuvreren in een digitale kamer en kleurrijke dozen verzamelen. Elk van deze AI had zijn eigen bijzonderheid: de een was "blind" - kon de vorm en plaatsing in de kamer niet bepalen. De andere was een ‘sclerotisch’: hij kon zich zijn laatste stappen niet herinneren. De derde kon zowel zien als onthouden.

Na de training begon ToMnet de voorkeuren van elke AI te voorspellen door zijn acties te observeren. De "blinde" bewoog bijvoorbeeld constant alleen langs de muren. ToMnet herinnerde zich dit. Het algoritme was ook in staat om het toekomstige gedrag van de AI correct te voorspellen en, nog belangrijker, te begrijpen wanneer de AI een valse weergave van de omgeving tegenkwam.

In één test programmeerde een team van wetenschappers één AI voor "bijziendheid" en veranderde de indeling van een kamer. De agenten met normaal zicht pasten zich snel aan de nieuwe lay-out aan, maar de kortzichtige man bleef zijn oorspronkelijke routes volgen, ten onrechte in de veronderstelling dat hij zich nog in de oude omgeving bevond. ToMnet merkte deze functie snel op en voorspelde nauwkeurig het gedrag van de agent en stelde zichzelf op zijn plaats.

Volgens dr. Alison Gopnik, een ontwikkelingspsycholoog aan de University of California, Berkeley, die niet betrokken was bij deze onderzoeken, maar die de bevindingen las, tonen deze resultaten wel aan dat neurale netwerken een verbazingwekkend vermogen hebben om zelf verschillende vaardigheden te leren, door observatie van anderen. Tegelijkertijd is het volgens de expert nog erg vroeg om te zeggen dat deze AI's een kunstmatig model van de mentale toestand hebben ontwikkeld.

Volgens dr. Josh Tenebaum van het Massachusetts Institute of Technology, die ook niet bij het onderzoek betrokken was, is het "begrip" van ToMnet sterk verbonden met de context van de leeromgeving - dezelfde kamer en specifieke AI-agenten wiens taak het was om dozen op te pakken. Deze beperking binnen een bepaald kader maakt ToMnet minder effectief in het voorspellen van gedrag in radicaal nieuwe omgevingen, in tegenstelling tot dezelfde kinderen die zich kunnen aanpassen aan nieuwe situaties. Het algoritme kan volgens de wetenschapper niet omgaan met het modelleren van de acties van een geheel andere AI of persoon.

In ieder geval toont het werk van Winston en DeepMind aan dat computers de eerste beginselen van "begrip" van elkaar beginnen te vertonen, ook al is dit begrip nog slechts rudimentair. En terwijl ze deze vaardigheid blijven verbeteren, elkaar steeds beter begrijpen, zal er een tijd komen dat machines de complexiteit en complexiteit van ons eigen bewustzijn kunnen begrijpen.

Nikolay Khizhnyak

Aanbevolen: