Hoe Creëer Je Een Robot Die De Wereld Wil Veranderen? - Alternatieve Mening

Inhoudsopgave:

Hoe Creëer Je Een Robot Die De Wereld Wil Veranderen? - Alternatieve Mening
Hoe Creëer Je Een Robot Die De Wereld Wil Veranderen? - Alternatieve Mening

Video: Hoe Creëer Je Een Robot Die De Wereld Wil Veranderen? - Alternatieve Mening

Video: Hoe Creëer Je Een Robot Die De Wereld Wil Veranderen? - Alternatieve Mening
Video: 10 Eten Waar je Niet Van Weet Hoe Het Gemaakt Is! 2024, September
Anonim

Computerwetenschapper Christoph Solge probeert de behoefte aan regels voor het gedrag van robots weg te nemen. Zijn strategie is om ze een doel te geven: om ons krachtiger te maken. Christophe werkt bij het Game Innovation Lab aan de New York University. Sasha Maslov interviewde Sold for Quanta Magazine, waaruit we leren dat we het misschien niet waard zijn om de niet te stoppen stroom van technologische singulariteit tegen te houden.

Isaac Asimovs beroemde Three Laws of Robotics - die het gedrag van androïden en automaten beperken om de mensheid te beschermen - waren ook niet af. Deze wetten verschenen voor het eerst in het verhaal van Asimov in 1942, en daarna in klassieke werken als "I, Robot" en klinken ongeveer als volgt:

1. Een robot kan een persoon geen schade toebrengen of, door zijn passiviteit, iemand schade toebrengen.

2. De robot moet de bevelen van mensen opvolgen, als deze niet in strijd zijn met de eerste wet.

3. Een robot moet zijn bestaan verdedigen als deze bescherming niet in strijd is met de eerste of tweede wet.

Natuurlijk kan men in deze wetten veel tegenstrijdigheden en mazen in de wet vinden (die Azimov in feite zelf gebruikte). In ons huidige tijdperk van geavanceerde software met machine learning en autonome robotica is het definiëren en implementeren van de ijzeren ethiek van kunstmatige intelligentie een dringende uitdaging geworden voor organisaties zoals het Machine Intelligence Research Institute en OpenAI.

Christoph Salge pakte het anders aan. In plaats van top-down filosofische definities op te leggen van hoe kunstmatige agenten zich wel of niet zouden moeten gedragen, onderzoeken Salge en zijn collega Daniel Polani het bottom-up pad, of 'wat de robot eerst zou moeten doen', zoals ze schreven. in zijn artikel "Empowerment als vervanging voor de drie wetten van robotica." Empowerment, een concept geboren op het snijvlak van cybernetica en psychologie, beschrijft de intrinsieke motivatie van een agent om zich te verzetten en tegelijkertijd in de omgeving te werken. “Als organisme wil het overleven. Hij wil een stempel op de wereld drukken”, legt Salge uit. Roomba's stofzuiger, geprogrammeerd om te zoeken naar een laadstation wanneer de batterijen bijna leeg zijn, is een rudimentair voorbeeld van 'empowered': blijven functioneren in de wereld,hij moet een aanklacht ontvangen en zijn eigen bestaan voortzetten, dat wil zeggen overleven.

Empowerment klinkt misschien als een recept voor de uitkomst die voorvechters van veilige AI, zoals Nick Bostrom, vrezen: een krachtig autonoom systeem, dat zich alleen bezighoudt met eigenbelang, en gek wordt in het proces. Maar Salge, die de sociale interacties tussen mens en machine bestudeert, vraagt: wat als een bekrachtigde agent 'ook een ander bekrachtigt? De robot moet niet alleen in goede staat willen blijven, hij moet ook zijn menselijke partner willen ondersteunen."

Promotie video:

Solge en Polanyi realiseerden zich dat de informatietheorie een manier bood om deze wederzijdse expansie te vertalen naar een wiskundig raamwerk voor een niet-filosoferende kunstmatige agent. "Een van de nadelen van de drie wetten van robotica is dat ze op taal zijn gebaseerd, en de taal is zeer dubbelzinnig", zegt Salge. "We proberen iets te vinden dat echt kan worden gedaan."

Sommige technologen zijn van mening dat AI een grote, zelfs catastrofale bedreiging vormt voor het menselijk bestaan. En jij?

Ik zal me onthouden. Dus ik geloof echt dat er nu angst is voor robots en de groeiende invloed van AI. Maar ik denk dat we ons op korte termijn meer zorgen zullen maken over de mogelijke verandering van baan, het besluitvormingsproces, het verlies van democratie, het verlies van privacy. Ik weet niet hoe waarschijnlijk het is dat er binnenkort een niet te stoppen AI zal verschijnen. Maar zelfs als AI het gezondheidszorgsysteem moet beheersen en recepten moet uitgeven, moeten we nadenken over de ethische kwesties die zich voordoen tijdens de werking ervan.

Hoe kan het empowerment-concept ons helpen om met deze uitdagingen om te gaan?

Ik denk dat het idee van empowerment een niche vult. Het laat de agent de persoon niet doodgaan, maar als je eenmaal aan die drempel kunt vasthouden, ondersteunt het de intentie om de persoon extra kansen te geven om de wereld te uiten en te beïnvloeden. In een van Asimovs boeken zullen robots uiteindelijk alle mensen in veilige containers stoppen. Dit zou ongewenst zijn. Als ons vermogen om de wereld te beïnvloeden blijft verbeteren, denk ik dat het een veel interessanter doel zal zijn om te bereiken.

U hebt uw virtuele agentideeën getest in een videogame-omgeving. Wat is er gebeurd?

De agent, gemotiveerd door zijn eigen uitgebreide rechten, zal het projectiel ontwijken en zal in het algemeen niet in de put vallen, zal in het algemeen elke situatie vermijden die zou kunnen leiden tot zijn verlies van mobiliteit, overlijden of schade op een manier die zijn operabiliteit vermindert. Hij zal gewoon volhouden.

In samenwerking met de menselijke speler, die ook met verbeterde rechten is begiftigd, zagen we dat de virtuele robot een bepaalde afstand zou bewaren om menselijke bewegingen niet te belemmeren. Hij zal je niet blokkeren, hij zal niet in het gangpad staan zodat je er niet langs kunt. Hij zal zo dicht mogelijk bij je blijven om je te helpen. Dit leidt tot gedrag waarbij hij zowel het initiatief kan nemen als dat van iemand anders kan volgen.

We hebben bijvoorbeeld een scenario gemaakt waarin we een laserbarrière hadden die gevaarlijk is voor mensen, maar veilig voor een robot. Als de persoon in dit spel de lasers nadert, heeft de robot meer prikkel om de laser te blokkeren. De prikkel wordt versterkt wanneer de persoon recht voor de barrière staat, alsof hij van plan is deze over te steken. En de robot blokkeert eigenlijk de laser, terwijl hij voor de persoon staat.

Hebben deze agenten onbedoeld gedrag vertoond dat vergelijkbaar is met de drie wetten in Asimovs boek?

Het gedrag was aanvankelijk goed. Een virtuele robot onderschepte bijvoorbeeld tegenstanders die je probeerden te vermoorden. Van tijd tot tijd sprong hij onder een kogel als dat de enige manier was om je te redden. Maar wat ons vooral vanaf het begin verbaasde, was dat hij ook erg bang was voor de persoon.

De reden hiervoor is te wijten aan zijn "kortzichtige" model: in feite analyseert hij hoe opeenvolgingen van bepaalde acties in twee of drie stappen de wereld kunnen beïnvloeden, zowel voor jou als voor hem. Daarom hebben we in de eerste stap geprogrammeerd dat de speler willekeurig handelt. Maar in de praktijk resulteerde dit in het feit dat de agent de persoon behandelde als een soort psychopaat, die de agent bijvoorbeeld op elk moment kon neerschieten. Daarom moest de agent heel, heel zorgvuldig de positie kiezen waarin de persoon hem niet kon doden.

We moesten dit oplossen, dus hebben we de zogenaamde vertrouwensaanname gemodelleerd. Kortom, de reisgenoot handelt in de veronderstelling dat de persoon alleen die acties kiest die de uitgebreide rechten van de makelaar zelf niet beperken - misschien is dit een geschikter model voor de metgezel.

We hebben ook gemerkt dat als je bijvoorbeeld 10 gezondheidspunten in het spel had, het de metgezel niet echt kon schelen of je acht of negen van die punten verloor - hij kon je zelfs één keer neerschieten, gewoon voor de lol. En toen realiseerden we ons dat er een kloof is tussen de wereld waarin we leven en het model in een computerspel. Zodra we de capaciteitsbeperking als gevolg van gezondheidsverlies gemodelleerd hadden, verdween het probleem. Het kan ook worden opgelost door een model te maken dat niet zo kortzichtig was en dat acties een paar stappen verder in de toekomst zou kunnen berekenen. Als de agent verder in de toekomst zou kunnen kijken, zou hij zien dat het hebben van meer gezondheidspunten gunstig zou kunnen zijn voor toekomstige evenementen.

Rekening houdend met het feit dat het wijzigen van het aantal gezondheidspunten op geen enkele manier invloed heeft op mijn uitgebreide rechten, besluit de agent: "Ik schiet hem, ik schiet niet - wat is het verschil?" En soms schiet het. Wat natuurlijk een probleem is. Ik wil geen willekeurige schoten op spelers. We hebben een oplossing toegevoegd om de virtuele robot een beetje meer zorgen te maken over uw toestand dan over zijn eigen toestand.

Hoe maak je deze concepten accuraat?

Als we agents beschouwen als controlesystemen, kunnen ze worden opgesplitst in informatiecomponenten: er gebeurt iets in de wereld en op de een of andere manier maakt u zich zorgen. We hebben het niet over informatie als dingen die je waarneemt, maar als invloeden van welke aard dan ook - het kan een substantie zijn, iets dat tussen de wereld en jou stroomt. Er kunnen temperatuur of voedingsstoffen in uw lichaam zijn. Alles dat de grens tussen de wereld en de agent overschrijdt, draagt informatie op zich. Op dezelfde manier kan een agent de buitenwereld op verschillende manieren beïnvloeden en er ook informatie naar sturen.

Deze stream kun je beschouwen als de bandbreedte van het kanaal, dit is een concept uit de informatietheorie. U kunt brede bevoegdheden hebben, uitgebreide rechten, als u in staat bent om verschillende acties te ondernemen die tot verschillende resultaten leiden. Gaat er iets mis, dan verlies je je autoriteit, want het capaciteitsverlies komt overeen met een kwantitatieve afname van de bandbreedte van het kanaal tussen jou en de omgeving. Dit is het belangrijkste idee.

Hoeveel moet een agent weten om zijn uitgebreide bevoegdheden volledig te laten werken?

Uitgebreide rechten hebben het voordeel dat ze ook kunnen worden toegepast als u niet over volledige kennis beschikt. De agent heeft echt een model nodig van hoe zijn acties de wereld zullen beïnvloeden, maar hij heeft geen volledig begrip van de wereld en al zijn subtiliteiten nodig. In tegenstelling tot sommige benaderingen die alles in de wereld zoveel mogelijk proberen te modelleren, moet je in ons geval gewoon uitzoeken hoe je acties je eigen perceptie beïnvloeden. U hoeft niet alles over alles te weten; je hebt alleen een agent nodig die de wereld verkent. Hij doet iets en probeert te begrijpen hoe zijn daden de wereld beïnvloeden. Het model groeit en de agent begrijpt steeds beter waar de grenzen van zijn autoriteit zich uitstrekken.

Je hebt het getest in een virtuele omgeving. Waarom niet in de echte wereld?

Het belangrijkste obstakel om dit model te schalen en in een echte robot te plaatsen, is de moeilijkheid om de bandbreedte van een agent en een persoon in zo'n rijke omgeving als de echte wereld voor een lange tijd te berekenen. Al deze processen moeten nog effectief worden. Ik ben optimistisch, maar tot dusver blijft dit probleem puur computationeel. Daarom controleren we de werking van het systeem in een computerspel, in een vereenvoudigde vorm.

Het lijkt erop dat empowerment onze machines idealiter krachtige hulphonden zal maken

Ik ken zelfs enkele robottechnici die opzettelijk het gedrag van een op honden gebaseerde metgezel modelleren. Ik denk dat als robots ons behandelen als onze honden, we in deze toekomst allemaal goed met elkaar kunnen opschieten.

Ilya Khel

Aanbevolen: