Wanneer Begint Kunstmatige Intelligentie Menselijke Emoties Te Begrijpen? - Alternatieve Mening

Inhoudsopgave:

Wanneer Begint Kunstmatige Intelligentie Menselijke Emoties Te Begrijpen? - Alternatieve Mening
Wanneer Begint Kunstmatige Intelligentie Menselijke Emoties Te Begrijpen? - Alternatieve Mening

Video: Wanneer Begint Kunstmatige Intelligentie Menselijke Emoties Te Begrijpen? - Alternatieve Mening

Video: Wanneer Begint Kunstmatige Intelligentie Menselijke Emoties Te Begrijpen? - Alternatieve Mening
Video: Kunnen we kunstmatige intelligentie nog doorgronden? 2024, April
Anonim

Zou u een robot vertrouwen als het uw dokter was? Emotionele intelligente machines zijn misschien niet zo ver van ons verwijderd als ze lijken. In de afgelopen decennia heeft kunstmatige intelligentie het vermogen om de emotionele reacties van mensen te lezen drastisch vergroot.

Maar emoties lezen betekent niet dat je ze begrijpt. Als AI ze zelf niet kan ervaren, zal het ons dan ooit volledig kunnen begrijpen? En zo niet, riskeren we dan eigenschappen toe te kennen aan robots die ze niet hebben?

De nieuwste generatie kunstmatige intelligentie dankt ons al voor de groei van het aantal datacommunicatie waar computers van kunnen leren, en voor de toename van de verwerkingskracht. Deze machines worden gaandeweg verbeterd in zaken die we doorgaans uitsluitend aan mensen ter uitvoering gaven.

Image
Image

Tegenwoordig kan kunstmatige intelligentie onder meer gezichten herkennen, schetsen van gezichten in foto's veranderen, spraak herkennen en Go afspelen.

Identificatie van criminelen

Nog niet zo lang geleden ontwikkelden wetenschappers kunstmatige intelligentie die kan zien of een persoon een crimineel is door gewoon naar hun gelaatstrekken te kijken. Het systeem werd geëvalueerd met behulp van een database met Chinese foto's en de resultaten waren gewoonweg verbluffend. AI heeft in slechts 6% van de gevallen onschuldige mensen ten onrechte als criminelen geclassificeerd en 83% van de criminelen met succes geïdentificeerd. De algehele nauwkeurigheid was bijna 90%.

Promotie video:

Dit systeem is gebaseerd op een benadering genaamd "deep learning" die succesvol is gebleken bij bijvoorbeeld gezichtsherkenning. Door diep leren in combinatie met een 'face-rotatiemodel' kon kunstmatige intelligentie bepalen of twee foto's het gezicht van dezelfde persoon weergeven, zelfs als de belichting of de hoek verandert.

Diep leren creëert een "neuraal netwerk" dat is gebaseerd op de benadering van het menselijk brein. Het bestaat uit honderdduizenden neuronen die in verschillende lagen zijn georganiseerd. Elke laag brengt invoergegevens, zoals een gezichtsbeeld, naar een hoger abstractieniveau, zoals een reeks randen in specifieke richtingen en locaties. En het markeert automatisch de functies die het meest relevant zijn voor de uitvoering van een bepaalde taak.

Gezien het succes van deep learning, is het geen verrassing dat kunstmatige neurale netwerken criminelen kunnen onderscheiden van onschuldige - als er echt gelaatstrekken zijn die tussen hen verschillen. De studie maakte het mogelijk om drie kenmerken te onderscheiden. Een daarvan is de hoek tussen het puntje van de neus en de mondhoeken, die gemiddeld 19,6% minder is voor criminelen. De kromming van de bovenlip is ook gemiddeld 23,4% groter voor criminelen, en de afstand tussen de binnenhoeken van de ogen is gemiddeld 5,6% smaller.

Op het eerste gezicht suggereert deze analyse dat de achterhaalde opvatting dat criminelen kunnen worden geïdentificeerd aan de hand van fysieke kenmerken niet zo verkeerd is. Dit is echter niet het hele verhaal. Opmerkelijk is dat de twee meest relevante kenmerken worden geassocieerd met de lippen, en dit zijn onze meest expressieve gelaatstrekken. De foto's van de criminelen die in het onderzoek werden gebruikt, vereisen een neutrale gezichtsuitdrukking, maar de AI slaagde er toch in om verborgen emoties in deze foto's te vinden. Misschien zo onbeduidend dat mensen ze niet kunnen detecteren.

Image
Image

Het is moeilijk om de verleiding te weerstaan om zelf naar voorbeeldfoto's te kijken - hier zijn ze. Het document wordt nog herzien. Bij nader onderzoek blijkt wel een lichte glimlach op de foto's van de onschuldigen. Maar er zijn niet veel foto's in de monsters, dus het is onmogelijk om conclusies te trekken over de hele database.

De kracht van affectief computergebruik

Dit is niet de eerste keer dat een computer menselijke emoties kan herkennen. Het zogenaamde gebied van "affective computing" of "emotioneel computergebruik" bestaat al een hele tijd. Er wordt aangenomen dat als we comfortabel willen leven en met robots willen omgaan, deze machines in staat moeten zijn om menselijke emoties te begrijpen en er adequaat op te reageren. De mogelijkheden op dit gebied zijn behoorlijk uitgebreid.

De onderzoekers gebruikten bijvoorbeeld gezichtsanalyse om studenten te identificeren die moeite hebben met computerondersteunde leslessen. AI is geleerd om verschillende niveaus van betrokkenheid en frustratie te herkennen, zodat het systeem kan begrijpen wanneer studenten banen te gemakkelijk of te complex vinden. Deze technologie kan handig zijn om de leerervaring op online platforms te verbeteren.

Sony probeert een robot te ontwikkelen die emotionele banden met mensen kan aangaan. Het is nog niet helemaal duidelijk hoe ze dit gaat bereiken of wat de robot precies gaat doen. Het bedrijf zegt echter dat het "hardware en services probeert te integreren om een emotioneel vergelijkbare ervaring te bieden".

Emotionele kunstmatige intelligentie zal een aantal potentiële voordelen hebben, of het nu de rol van de gesprekspartner of de uitvoerder is - het zal zowel de crimineel kunnen identificeren als over behandeling kunnen praten.

Er zijn ook ethische zorgen en risico's. Zou het juist zijn om een patiënt met dementie te laten vertrouwen op een AI-metgezel en hen te vertellen dat ze emotioneel levend zijn terwijl dat niet het geval is? Kun je een persoon achter de tralies zetten als de AI zegt dat hij schuldig is? Natuurlijk niet. Kunstmatige intelligentie zal in de eerste plaats geen rechter zijn, maar een onderzoeker, die ‘verdachte’ maar zeker niet schuldige mensen identificeert.

Subjectieve zaken als emoties en gevoelens zijn moeilijk uit te leggen aan kunstmatige intelligentie, deels omdat AI geen toegang heeft tot gegevens die goed genoeg zijn om objectief te analyseren. Zal AI ooit sarcasme begrijpen? De ene zin kan in de ene context sarcastisch zijn en in de andere compleet anders.

In ieder geval blijft de hoeveelheid data en rekenkracht groeien. Op een paar uitzonderingen na zal AI in de komende decennia wellicht verschillende soorten emoties leren herkennen. Maar zou hij ze ooit zelf kunnen ervaren? Dat is een betwistbaar punt.

ILYA KHEL