Kunstmatige Intelligentie Heeft Geleerd Emoties Te Herkennen. Waar Kan Dit Toe Leiden? - Alternatieve Mening

Inhoudsopgave:

Kunstmatige Intelligentie Heeft Geleerd Emoties Te Herkennen. Waar Kan Dit Toe Leiden? - Alternatieve Mening
Kunstmatige Intelligentie Heeft Geleerd Emoties Te Herkennen. Waar Kan Dit Toe Leiden? - Alternatieve Mening

Video: Kunstmatige Intelligentie Heeft Geleerd Emoties Te Herkennen. Waar Kan Dit Toe Leiden? - Alternatieve Mening

Video: Kunstmatige Intelligentie Heeft Geleerd Emoties Te Herkennen. Waar Kan Dit Toe Leiden? - Alternatieve Mening
Video: Kunstmatige intelligentie filmpje 2024, Mei
Anonim

De ontwikkeling van kunstmatige intelligentie in de 21e eeuw gaat met grote sprongen vooruit: een van de belangrijkste verworvenheden is het vermogen om menselijke emoties te herkennen. Het interdisciplinaire onderzoekscentrum dat de sociale gevolgen van kunstmatige intelligentie AI Now bestudeert, riep in zijn jaarverslag over de ontwikkeling van AI op tot een verbod op het gebruik van deze technologie in bepaalde gevallen. Volgens experts mag AI-vaardigheid op het gebied van het herkennen van emoties niet worden toegepast op beslissingen die het leven van mensen en de samenleving als geheel beïnvloeden. Waarom kan het vermogen van robots om emoties te onderscheiden het gewone leven van de mensheid aanzienlijk veranderen?

Het vermogen van robots om menselijke emoties te herkennen, kan de moderne samenleving negatief beïnvloeden
Het vermogen van robots om menselijke emoties te herkennen, kan de moderne samenleving negatief beïnvloeden

Het vermogen van robots om menselijke emoties te herkennen, kan de moderne samenleving negatief beïnvloeden.

Kan een robot een gevoel van empathie ontwikkelen?

Computer vision-algoritmen die bepaalde emoties kunnen detecteren, bestaan al minstens een paar decennia op de planeet. Deze technologie is gebaseerd op informatie die is verkregen als resultaat van machine learning: speciale algoritmen die gegevens verwerken voor de beste besluitvorming. Ondanks alle vooruitgang in de robotica van vandaag, is het vermogen om deze echt menselijke vaardigheid te reproduceren nog steeds een behoorlijke uitdaging. Microsoft-experts merken op dat de herkenning van menselijke emoties met behulp van computers het potentieel heeft om een aantal nieuwe generatie applicaties te creëren, maar vanwege de moeilijkheden om ze te identificeren, heeft AI lange tijd tot foutieve resultaten geleid. Uit nieuw onderzoek blijkt echterdie moderne technologie helpt wervingsbureaus al om de potentiële productiviteit van een toekomstige werknemer in de interviewfase te beoordelen. De analyse van video-opnames van interviews met behulp van de nieuwste technologieën is dus al aan de gang, waardoor managers een beter beeld krijgen van de emotionele toestand van hun ondergeschikten.

De ontwikkeling van intelligentie in AI kan een aantal ethische en morele problemen veroorzaken
De ontwikkeling van intelligentie in AI kan een aantal ethische en morele problemen veroorzaken

De ontwikkeling van intelligentie in AI kan een aantal ethische en morele problemen veroorzaken.

Het gemak van continue monitoring door AI roept veel ethische uitdagingen op. Momenteel zijn er een groot aantal problemen met betrekking tot de vertrouwelijkheid van persoonlijke informatie die een negatieve publieke houding kunnen veroorzaken. Gezien deze ethische overwegingen kan het gebruik van kunstmatige intelligentie in het dagelijks leven, hoewel het kan helpen bij rekrutering of bij strafrechtelijke veroordelingen, ook onbetrouwbaar zijn. Als systemen bijvoorbeeld leren over vooringenomenheid, kunnen de voordelen van AI tijdens interviews of bij strafoplegging worden geminimaliseerd.

Uiteindelijk moeten technologieontwikkelaars en de samenleving als geheel goed in de gaten houden hoe informatie uit AI-systemen wordt ingevoerd in besluitvormingsprocessen. Net als elke andere vorm van intelligentie, kunnen kunstmatige systemen onjuiste resultaten opleveren die het leven van een individu of een hele samenleving negatief kunnen beïnvloeden. Bovendien heeft moderne AI aanzienlijke technische problemen bij het lezen van bepaalde emoties, bijvoorbeeld het niveau van zelfvertrouwen. Als mensen die geneigd zijn kunstmatige intelligentie te vertrouwen, beslissingen nemen op basis van de verkeerde mening van AI, kan de samenleving zeer grote problemen hebben die alleen kunnen worden voorkomen door kwaliteiten als eerlijkheid, transparantie en ethiek in deze systemen te ontwerpen. Met andere woorden,Voordat slimme systemen emoties correct kunnen leren herkennen, zullen wetenschappers eerst hard moeten werken om een morele code voor kunstmatige intelligentie te creëren.

Promotie video:

Auteur: Daria Eletskaya

Aanbevolen: