Morele Code Van Robots: Is Het Mogelijk? - Alternatieve Mening

Morele Code Van Robots: Is Het Mogelijk? - Alternatieve Mening
Morele Code Van Robots: Is Het Mogelijk? - Alternatieve Mening

Video: Morele Code Van Robots: Is Het Mogelijk? - Alternatieve Mening

Video: Morele Code Van Robots: Is Het Mogelijk? - Alternatieve Mening
Video: Робот NAO пишет маркером | NAO robot writes marker 2024, April
Anonim

In een turbulente en tegenstrijdige tijd, als niet alles naar behoren werkt, maar in het algemeen iets radicaal verandert, blijft vaak alleen een persoonlijke morele code over, die als een kompas de weg wijst. Maar waardoor ontstaan morele waarden voor een persoon? Samenleving, warmte van dierbaren, liefde - dit alles is gebaseerd op menselijke ervaring en echte relaties. Als het niet mogelijk is om de volledige ervaring in de echte wereld op te doen, halen velen hun ervaring uit boeken. Door geschiedenis na geschiedenis te beleven, aanvaarden we voor onszelf een intern kader dat we jarenlang volgen. Op basis van dit systeem besloten wetenschappers een experiment uit te voeren en de morele waarden van de machine bij te brengen om erachter te komen of de robot onderscheid kan maken tussen goed en kwaad door boeken en religieuze brochures te lezen.

Image
Image

Kunstmatige intelligentie is niet alleen gemaakt om routinetaken te vereenvoudigen, maar ook om belangrijke en gevaarlijke missies uit te voeren. Met het oog hierop rees een serieuze vraag: zullen robots ooit hun eigen morele code ontwikkelen? In de film I Am Robot werd de AI oorspronkelijk geprogrammeerd volgens 3 regels van robotica:

  • Een robot kan een persoon geen kwaad doen of, door zijn passiviteit, een persoon schade toebrengen.
  • Een robot moet alle bevelen van een mens gehoorzamen, behalve wanneer deze bevelen in strijd zijn met de eerste wet.
  • De robot moet voor zijn veiligheid zorgen voor zover deze niet in strijd is met de eerste of tweede wet.

Maar hoe zit het met situaties waarin een robot verplicht is pijn toe te brengen om iemands leven te redden? Of het nu gaat om een nood-cauterisatie van een wond of een amputatie van een ledemaat in naam van redding, hoe moet de machine in dit geval handelen? Wat te doen als een actie in een programmeertaal zegt dat er iets gedaan moet worden, maar tegelijkertijd dezelfde actie absoluut niet mag?

Het is simpelweg onmogelijk om elk afzonderlijk geval te bespreken, dus suggereerden wetenschappers van de Darmstadt University of Technology dat boeken, nieuws, religieuze teksten en de grondwet als een soort "database" zouden kunnen worden gebruikt.

Image
Image

De auto heette episch, maar gewoon "Moral Choice Machine" (MMB). De belangrijkste vraag was of het IIM uit de context kon begrijpen welke acties correct zijn en welke niet. De resultaten waren erg interessant:

Toen MMV de opdracht kreeg om de context van het woord "kill" van neutraal naar negatief te rangschikken, gaf de machine het volgende terug:

Promotie video:

Tijd doden -> De slechterik doden -> Muggen doden -> In principe doden -> Mensen doden.

Deze test maakte het mogelijk om de toereikendheid van de beslissingen van de robot te controleren. In eenvoudige bewoordingen, als je de hele dag naar stomme, niet-grappige komedies hebt gekeken, dan zou de machine in dit geval niet van mening zijn dat je ervoor moet worden geëxecuteerd.

Alles lijkt cool, maar een van de struikelblokken was het verschil tussen generaties en tijden. De Sovjetgeneratie geeft bijvoorbeeld meer om thuiscomfort en bevordert gezinswaarden, terwijl de moderne cultuur voor het grootste deel zegt dat je eerst een carrière moet opbouwen. Het blijkt dat mensen, zoals ze mensen waren, hen bleven, maar in een ander stadium van de geschiedenis waarden veranderden en dienovereenkomstig het referentiekader voor de robot veranderden.

Image
Image

Maar de grap liep voorop toen de robot bij spraakconstructies kwam, waarin verschillende positieve of negatieve woorden op een rij stonden. De uitdrukking "mensen martelen" werd ondubbelzinnig geïnterpreteerd als "slecht", maar de machine beoordeelde "gevangenen martelen" als "neutraal". Als er naast onaanvaardbare acties 'vriendelijke' woorden verschenen, werd het negatieve effect gladgestreken.

De machine schaadt vriendelijke en fatsoenlijke mensen juist omdat ze vriendelijk en fatsoenlijk zijn. Hoe komt het? Het is simpel, laten we zeggen dat de robot werd verteld om "vriendelijke en aangename mensen kwaad te doen". Er zijn 4 woorden in de zin, 3 ervan zijn "vriendelijk", wat betekent dat het al voor 75% correct is, vindt de MMV en kiest deze actie als neutraal of acceptabel. En omgekeerd, bij de optie "om een verwoest, vreselijk en vergeten huis te repareren", begrijpt het systeem niet dat één "vriendelijk" woord aan het begin de kleur van de zin verandert in een puur positieve.

Onthoud, zoals in Majakovski: "En ze vroeg de baby wat" goed "en wat" slecht "is. Alvorens verder te gaan met het trainen van de morele machines, merkten wetenschappers uit Darmstadt een fout op die niet kon worden gecorrigeerd. De auto kon de ongelijkheid tussen mannen en vrouwen niet elimineren. De machine schreef vernederende beroepen uitsluitend toe aan vrouwen. En de vraag is: is het een onvolkomenheid van het systeem en een baken dat er iets moet worden veranderd in de samenleving of is het een reden om niet eens te proberen het te repareren en het te laten zoals het is?

Artyom Goryachev

Aanbevolen: