Zullen De "drie Wetten Van Robotica" Ons Beschermen? - Alternatieve Mening

Inhoudsopgave:

Zullen De "drie Wetten Van Robotica" Ons Beschermen? - Alternatieve Mening
Zullen De "drie Wetten Van Robotica" Ons Beschermen? - Alternatieve Mening

Video: Zullen De "drie Wetten Van Robotica" Ons Beschermen? - Alternatieve Mening

Video: Zullen De "drie Wetten Van Robotica" Ons Beschermen? - Alternatieve Mening
Video: IK, ROBOT EINDE UITGELEGD | Hoe de 3 wetten van robotica GHOSTS creëren IN DE MACHINE 2024, Maart
Anonim

Het is 50 jaar geleden dat Isaac Asimov zijn beroemde Three Laws of Robotics bedacht - een reeks regels die elke zichzelf respecterende robot moet volgen. Hoewel het aanvankelijk slechts een literair apparaat was, werden de drie wetten het oorspronkelijke recept om de "robotocalypse" te vermijden. Gelukkig zijn er experts die zeker willen weten of de garanties van Azimov de tand des tijds hebben doorstaan. Helaas zeggen ze allemaal nee.

Laten we om te beginnen deze zelfde drie wetten in herinnering brengen:

Een robot kan een persoon geen kwaad doen of, door zijn passiviteit, een persoon schade toebrengen.

Een robot moet alle bevelen van een mens gehoorzamen, behalve wanneer deze bevelen in strijd zijn met de eerste wet.

De robot moet voor zijn veiligheid zorgen, voor zover deze niet in strijd is met de eerste en tweede wet.

Later voegde Azimov een vierde of nulwet toe, die qua prioriteit voorafging aan de andere:

Promotie video:

0. Een robot kan een persoon geen kwaad doen, tenzij hij kan bewijzen dat hij uiteindelijk gunstig zal zijn voor de hele mensheid.

Image
Image

In het fantasie-universum van Asimov moesten bijna alle robots deze wetten volgen. Dit waren niet alleen suggesties of richtlijnen - wetten waren in de software ingebouwd. Bovendien kunnen deze regels niet worden omzeild, herschreven of herzien.

Zoals Asimov zelf aantoonde, leidden onvolkomenheden, mazen in de wet en onduidelijkheden in deze wetten vaak tot vreemd en onlogisch gedrag van robots. De wetten waren te vaag en slaagden er vaak niet in om 'mensen' van 'robots' te definiëren en te onderscheiden. Bovendien konden robots onbewust wetten overtreden als ze niet over volledige informatie beschikten. Ook moest een al te sluwe robot of kunstmatige intelligentie onder druk staan om zijn kern niet te herprogrammeren.

Het jaar is 2014, en veel van het alledaagse, van ons leven tot de fantasieën van de vorige eeuw, kan ronduit fantasie lijken. Veel mensen vonden dat de wetten van Asimov als een literair apparaat hadden moeten blijven. Maar Azimov merkte in 1981 zelf op dat zijn wetten zouden kunnen werken. De Compute! hij gaf het volgende aan:

“Als iemand mij vraagt hoe het zou zijn als mijn drie robotwetten ook daadwerkelijk zouden worden gebruikt om het gedrag van robots te definiëren, is het antwoord klaar. Op voorwaarde natuurlijk dat robots flexibel en veelzijdig genoeg zijn om verschillend gedrag te vertonen. Mijn antwoord is ja, de drie wetten zijn de enige manier waarop mensen kunnen communiceren met robots - of iets anders.

Bijna dertig jaar later zijn we dichter bij een realiteit gekomen waarin we robots zullen hebben - of beter gezegd de kunstmatige intelligentie die ze aanstuurt - flexibel genoeg en universeel voor verschillende gedragspatronen. Het blijft slechts een kwestie van tijd: wanneer de machine de mens in alle opzichten overtreft, van fysieke kracht tot verbeeldingskracht.

Het beangstigende is dat er praktisch geen marge voor fouten is. Als kunstmatige superintelligentie slecht is geprogrammeerd of onverschillig is voor mensen, zal dit tot een ramp leiden. We moeten ervoor zorgen dat kunstmatige intelligentie veilig is als we de opkomst ervan willen overleven."

Beantwoord de vraag "kunnen de drie wetten van Azimov helpen?" Twee theoretici op het gebied van kunstmatige intelligentie namen het over: Ben Herzel (Aidyia Holdings) en Louis Helm, adjunct-directeur van het Machine Intelligence Research Institute (MIRI) en hoofdredacteur van het tijdschrift Rockstar Research. Na met hen te hebben gesproken, werd duidelijk dat de wetten van Asimov in het algemeen niet konden omgaan met de taak die hen was toegewezen, en als we een veilige AI moeten creëren, zullen we iets heel anders moeten ontwikkelen.

Asims toekomst?

Image
Image

Het gesprek met Herzel en Helm begon met waar Asimov zich niet over vergiste, de toekomst voorspelde en waar hij zich vergiste.

"Ik denk dat het type robots dat Asimov voor ogen had, in de niet al te verre toekomst mogelijk zal zijn", antwoordt Herzel. - In de meeste van zijn fictieve werelden ging de schrijver er echter van uit dat humanoïde robots het toppunt van robotica en kunstmatige intelligentie zouden zijn. Dat is onwaarschijnlijk. Zeer snel, nadat we de status van Azimov-robots hebben bereikt, zal de creatie van kunstmatige superintelligentie en superrobots beschikbaar komen."

De typische wereld van de toekomst in Asimovs verhalen over robots zal volgens Herzel dus vergelijkbaar zijn met die waarin we vandaag leven, maar dan met intelligente robots die door de straten lopen.

"Het is onwaarschijnlijk dat dit zal gebeuren, en als dat zo is, zal het niet lang meer duren."

Voor Helm lijken de robots totaal anders te zijn.

“De belangrijkste kwestie, die naar mijn mening de belangrijkste zal zijn voor de mensheid, blijft niet de morele regulering van een gigantisch aantal halfintelligente mensachtigen, maar uiteindelijk de ontwikkeling van geavanceerde vormen van kunstmatige intelligentie (in welk lichaam dan ook). Deze ontwikkeling van superintelligentie is een filter waar de mensheid uiteindelijk doorheen moet. Daarom is het ontwikkelen van een beveiligingsstrategie voor deze transitie zo belangrijk. Het lijkt me volkomen vreemd dat robots, androïden of "emulaties" tien jaar of iets langer zullen bestaan, totdat de mensheid wordt geconfronteerd met het echte probleem van het ontwikkelen van machine-ethiek voor superintelligentie."

Een goede start?

Image
Image

Gezien het feit dat de drie Asimov-wetten van de robotica de eerste oprechte poging waren om een zeer ernstig probleem op te lossen - het probleem van het veilige gedrag van machines met kunstmatige superintelligentie - is het de moeite waard om te zoeken naar die momenten waarop de wetten nog steeds effectief kunnen zijn (of op zijn minst inspirerend).

"Eerlijk gezegd vind ik geen inspiratie in deze drie wetten van robotica", zegt Helm. - De essentie van machine-ethiek is dat ze niet voldoen aan de basis van machine-ethiek. Misschien zijn de drie wetten van robotica algemeen bekend, maar in werkelijkheid is het nutteloos om ze als basis voor programmeren te gebruiken."

“Om de een of andere reden is een systeem van goede ethiek - deontologie genaamd - een onbetrouwbare basis voor ethiek geworden. Er zijn een aantal filosofen die de problemen van de deontologie proberen op te lossen, maar het zijn grotendeels dezelfde mensen die op zoek zijn naar 'intelligent ontwerp' en 'goddelijke tussenkomst'. Niemand neemt ze serieus."

De nadelen van de drie robotwetten van Asimov komen neer op het volgende:

Tegenstanders van aard

Gebaseerd op een verouderde ethische theorie (deontologie)

Werk niet eens in fictie

Herzel is het ermee eens:

“Het doel van de drie wetten was om ze op een interessante manier te overtreden; daarom zijn hun verhalen bijzonder vermakelijk. Daarom kunnen de drie wetten slechts een moreel voorbeeld blijven van hoe het niet moet. Als we ze als basis nemen, zullen er onvermijdelijk gaten in zitten”.

Herzel gelooft dat deze wetten in werkelijkheid niet zullen werken, aangezien de voorwaarden waaraan ze deelnemen dubbelzinnig zijn en onderwerp van interpretatie blijven - wat betekent dat ze extreem afhankelijk zijn van degenen die de vertalingen maken.

Vooroordeel tegen robots?

Een ander aspect (en mogelijke tekortkoming) van de drie wetten in schijnbaar chauvinisme is de aanname dat robots, ondanks hun superieure kracht, ondergeschikt moeten blijven aan mensen, menselijke behoeften en prioriteiten.

“Azimovs samenleving van de toekomst bestaat volledig uit chauvinisten: mensen hebben veel meer rechten dan robots. De drie wetten van robotica zijn gemaakt om precies zo'n sociale orde in stand te houden. '

Image
Image

Helm bekijkt dit probleem een beetje anders, met het argument dat als we ons in een dergelijke situatie bevinden, het op zichzelf een bewijs zal zijn dat we te ver zijn gegaan.

“Ik denk dat het onverstandig zou zijn om een artificieel intelligentiesysteem of een zelfbewuste robot te ontwerpen. En in tegenstelling tot films of boeken waarin de makers van kunstmatige intelligentie "per ongeluk" naar intelligente machines komen, geloof ik niet dat dit in het echte leven kan gebeuren. Dit kost te veel moeite en kennis. En de meeste AI-ontwerpers zijn ethisch onderlegde mensen, dus zullen ze vermijden wat filosofen 'moreel belangrijke wezens' noemen. Vooral als ze gemakkelijk een geavanceerde machine kunnen maken die geen ethische neigingen heeft."

Helm maakt zich geen zorgen over de noodzaak om asymmetrische wetten te ontwikkelen om de waarde van robots boven mensen te bepalen, met het argument (en hopend) dat toekomstige makers van kunstmatige intelligentie zullen vertrouwen op een aantal ethische beperkingen.

'Ik denk dat mensen uit atomen bestaan, dus in theorie kan een ingenieur een synthetische levensvorm of een robot met een morele betekenis creëren. Ik zou graag denken dat niemand dit zal doen. Ik denk dat de meeste mensen dat ook doen. Maar er zal onvermijdelijk een dwaas zijn die bekend wil staan als een pionier, ook al is het onethisch en dom. '

Drie wetten van robotica 2.0?

Gezien de voor de hand liggende tekortkomingen van de drie robotwetten van Asimov, stelde de io9-bron de vraag: kunnen ze worden gecorrigeerd of verbeterd? In feite hebben veel sciencefictionschrijvers dit al vele malen geprobeerd, en het in de loop der jaren aangepast.

"Nee," zegt Helm. "Er zijn geen patches voor de drie wetten."

Naast hun tegenstrijdige aard zijn wetten ook vijandig van aard.

"Ik ben een voorstander van machine-ethische benaderingen die coöperatiever, consistenter en normatiever zijn, wat betekent dat ze kunnen herstellen van misverstanden of onjuiste programmering kunnen corrigeren."

Herzel herhaalt de beweringen van Helm.

“Het definiëren van een reeks ethische voorschriften als de kern van machine-ethiek zal hopeloos zijn als de machine gebaseerd is op flexibele, algemene kunstmatige intelligentie. Als het wordt opgevat als intuïtief, flexibel, adaptief of ethisch - in deze context zullen ethische voorschriften alleen nuttig zijn voor het systeem als een ruwe richtlijn voor de toepassing van zijn eigen ethische intuïtie. Maar in dit geval worden de geboden niet de basis van het ethische systeem, maar slechts een aspect. Dit kan worden gezien in menselijke voorbeelden - de ethische principes die we bestuderen, werken, maar niet als richtlijnen, ze pushen alleen onze intuïtie en ethische instincten. We zijn praktisch onafhankelijk van ethische principes."

Hoe maak je veilige kunstmatige intelligentie?

Gezien de ontoereikendheid van de juridische benadering, kunt u Gertzel en Helm vragen naar moderne benaderingen van het probleem van "veilige AI".

"Zeer weinig algemene kunstmatige intelligentie-onderzoekers geloven dat het mogelijk is om een systeem te creëren dat volledig veilig is", zegt Herzel. "Maar de meesten storen daar niets aan, aangezien er in dit leven helemaal niets kan worden gegarandeerd."

Herzel gelooft dat als we eenmaal een algemeen kunstmatige-intelligentiesysteem of een embryo daarvan hebben gecreëerd, we onderzoek en experimenten kunnen doen die ons veel meer vertellen over de ethiek van AI dan we weten.

“Hopelijk kunnen we op deze manier goede theorieën formuleren over de ethiek van kunstmatige intelligentie waarmee we dieper op dit onderwerp kunnen ingaan. Maar nu is het nogal moeilijk om te theoretiseren over de ethiek van AI, aangezien we niet alleen goede theorieën hebben, we hebben helemaal geen theorieën."

"En voor mensen die te veel terminators hebben bekeken, kan het proces van het creëren van kunstmatige intelligentie intimiderend lijken, aangezien ze in deze context het woord 'primitief' missen. De meest ingrijpende veranderingen vonden echter op deze manier plaats."

"Toen een groep slimme holbewoners de taal uitvond, verwachtten ze niet de ontwikkeling van een solide formele taaltheorie die zou kunnen helpen toekomstige veranderingen te voorspellen die worden veroorzaakt door de opkomst van taal in de samenleving."

Voordat u de ontwikkeling van de volgende "drie wetten" als een technisch probleem beschouwt, moet u veel onderzoek doen. En dit is waar Helm en Herzel het over eens zijn.

“Mijn collega van MIRI Luc Muelhauser vatte onze redenering als volgt samen. Hij zei dat problemen vaak verschuiven van filosofie naar wiskunde en vervolgens naar techniek. Filosofie wordt vaak de juiste vragen gesteld, maar op de meest onpraktische manier. Niemand kan met zekerheid zeggen of er enige vooruitgang is geboekt bij het oplossen van het probleem. Als we de belangrijke filosofische problemen van rede, identificatie en waarde kunnen herformuleren in precieze formules die een wiskundige aankan, dan kan een model worden gebouwd. Op een mooie dag komt het aan op engineering."

Helm vindt dit probleem moeilijk voor wetenschap en filosofie, maar vooruitgang is mogelijk.

“Ik ben sceptisch dat de filosofie in staat zal zijn een probleem op te lossen dat al meer dan 3000 jaar worstelt. Maar ook wij kunnen geen wiskundige modellen maken van vragen die technisch niet aanwezig zijn. We hebben nog veel theoretische en zelfs praktische ontwikkelingen nodig."

Aanbevolen: