HAL 9000 Zal Nooit Verschijnen: Emoties Zijn Niet Programmeerbaar - Alternatieve Mening

Inhoudsopgave:

HAL 9000 Zal Nooit Verschijnen: Emoties Zijn Niet Programmeerbaar - Alternatieve Mening
HAL 9000 Zal Nooit Verschijnen: Emoties Zijn Niet Programmeerbaar - Alternatieve Mening

Video: HAL 9000 Zal Nooit Verschijnen: Emoties Zijn Niet Programmeerbaar - Alternatieve Mening

Video: HAL 9000 Zal Nooit Verschijnen: Emoties Zijn Niet Programmeerbaar - Alternatieve Mening
Video: HAL9000 - Indiegogo 2024, September
Anonim

HAL 9000 is een van de beroemdste cinematografische kunstmatige intelligenties. Deze fantastische vorm van intelligente computer werkte niet goed op weg naar Jupiter in Stanley Kubricks iconische 2001 Space Odyssey, die momenteel zijn 50e verjaardag viert. HAL kan spreken, begrijpt een persoon, zijn gezichtsuitdrukkingen, leest lippen - en speelt schaak. Zijn superieure rekenkracht wordt ondersteund door unieke menselijke eigenschappen. Hij kan emotioneel gedrag interpreteren, redeneren en kunst waarderen.

Door HAL emotie te geven, hebben schrijver Arthur Clarke en filmmaker Stanley Kubrick er een van de meest mensachtige beelden van intelligente technologie van gemaakt. In een van de mooiste scènes in sciencefictionfilms zegt hij dat hij "bang" is als missiecommandant David Bowman zijn geheugenmodules begint af te sluiten na een reeks moorddadige gebeurtenissen.

HAL is geprogrammeerd om assistentie te verlenen aan de bemanning van het Discovery-schip. Hij bestuurt het schip met de steun van zijn krachtige kunstmatige intelligentie. Maar het wordt al snel duidelijk dat hij erg emotioneel is - hij kan angst en medeleven voelen, zij het een beetje. Sciencefiction sciencefiction, maar dergelijke emotionele kunstmatige intelligentie in onze realiteit is op dit moment gewoonweg onmogelijk. Elke diepte van emotie en gevoel die u in moderne technologie aantreft, zal volledig nep zijn.

"Perfecte" kunstmatige intelligentie

Wanneer Bowman de HAL-functies in de film handmatig begint aan te passen, vraagt hij hem te stoppen, en wanneer we een verrassende vernietiging zien van de 'mentale' vermogens van de HAL, probeert de AI zichzelf te kalmeren door 'Daisy Bell' te neuriën - dit is waarschijnlijk het eerste nummer ooit geschreven door een computer.

In wezen beginnen kijkers te voelen dat Bowman HAL vermoordt. De shutdown lijkt op wraak, zeker na wat bekend is geworden uit de eerdere gebeurtenissen in de film. Maar als HAL in staat is om emotionele oordelen te vellen, zal real-world AI zeker beperkt zijn in redenering en besluitvorming. Bovendien zullen we, ondanks de mening van futuristen, nooit emoties kunnen programmeren zoals sciencefictionschrijvers - de makers van HAL -, omdat we ze niet begrijpen. Psychologen en neurowetenschappers proberen ondubbelzinnig te achterhalen hoe emoties omgaan met cognitie, maar zijn daar nog niet in geslaagd.

In een onderzoek met Chinees-Engelse tweetaligen onderzochten onderzoekers hoe de emotionele betekenis van woorden onbewuste mentale processen kan veranderen. Als de deelnemers positieve en neutrale woorden als 'vakantie' of 'boom' kregen voorgeschoteld, haalden ze onbewust Chinese woordvormen eruit. Maar als woorden een negatieve bijklank hadden, zoals 'moord' of 'verkrachting', blokkeerden hun hersenen de toegang tot hun moedertaal - zonder dat ze dat wisten.

Promotie video:

Redenering en emotie

Aan de andere kant weten we heel goed hoe redeneren werkt. We kunnen beschrijven hoe we tot rationele beslissingen komen, regels schrijven en die regels omzetten in proces en code. Maar emotie blijft een mysterieuze evolutionaire erfenis. Hun bron kan niet worden opgespoord, het is zo enorm en het is niet alleen een attribuut van de geest dat opzettelijk kan worden geïntroduceerd. Om iets te programmeren, moet u niet alleen weten hoe het werkt, maar ook waarom. Redeneren heeft doelen en doelstellingen, emoties niet.

In 2015 is een onderzoek uitgevoerd onder studenten van de Universiteit van Bangor die Mandarijn spraken. Ze werden aangeboden om een spel te spelen met de mogelijkheid om geld te winnen. In elke ronde moesten ze de voorgestelde weddenschap op het scherm accepteren of verlaten - bijvoorbeeld 50% kans om 20 punten te krijgen, 50% kans om 100 punten te verliezen.

Wetenschappers hebben gesuggereerd dat het vermogen om hun moedertaal te spreken emotie aan hen zal toevoegen en dat ze zich anders zullen gedragen alsof ze communiceren in een tweede taal, het Engels. Dit is wat er gebeurde: toen de feedback in het Chinees was, hadden proefpersonen 10% meer kans om in de volgende ronde te wedden, ongeacht het risico. Dit laat zien dat emoties het redeneren beïnvloeden.

Terugkerend naar AI, aangezien emoties niet volledig in een programma kunnen worden geïmplementeerd - hoe complex het ook is - zal de redenering van een computer nooit veranderen onder de druk van zijn emoties.

Een mogelijke interpretatie van het vreemde 'emotionele' gedrag van HAL is dat het was geprogrammeerd om emoties te simuleren in extreme situaties, waar het nodig was om mensen te manipuleren op basis van gezond verstand, maar een beroep deed op hun emotionele zelf wanneer de menselijke geest dit tolereert. mislukken. Dit is de enige manier om in deze omstandigheden een boeiende simulatie van emotie te zien.

Naar mijn mening zullen we nooit een auto maken die kan voelen, hopen, vrezen of zich echt verheugen. Elke benadering zal een simulacrum zijn, omdat een machine nooit een mens zal zijn, en emoties zijn standaard het menselijke deel.

Aanbevolen: