Op De Melodie Van Kunstmatige Intelligentie: Waarom Kinderen Robots Meer Vertrouwen Dan Zichzelf - Alternatieve Mening

Inhoudsopgave:

Op De Melodie Van Kunstmatige Intelligentie: Waarom Kinderen Robots Meer Vertrouwen Dan Zichzelf - Alternatieve Mening
Op De Melodie Van Kunstmatige Intelligentie: Waarom Kinderen Robots Meer Vertrouwen Dan Zichzelf - Alternatieve Mening

Video: Op De Melodie Van Kunstmatige Intelligentie: Waarom Kinderen Robots Meer Vertrouwen Dan Zichzelf - Alternatieve Mening

Video: Op De Melodie Van Kunstmatige Intelligentie: Waarom Kinderen Robots Meer Vertrouwen Dan Zichzelf - Alternatieve Mening
Video: AI now enables robots to adapt rapidly to changing real world conditions 2024, Mei
Anonim

Wetenschappers van de Universiteit van Plymouth hebben aangetoond dat kinderen alles geloven wat kunstmatige intelligentie zegt.

Kunstmatige intelligentie is nu in bijna elk strijkijzer terug te vinden, en nog meer in kinderspeelgoed. Kinderen van tegenwoordig leren gadgets te gebruiken voordat ze lezen, vooral omdat ze niet eens een brief hoeven te kennen als ze een stemassistent hebben. Maar elke technische storing of kwetsbaarheid in het systeem kan zo'n apparaat behoorlijk gevaarlijk maken als kinderen alles wat de robot zegt als absolute waarheid beschouwen.

Daarom besloten wetenschappers van de Universiteit van Plymouth (VK) te kijken naar hoe kinderen omgaan met hun slimme speelgoed en of ze de "woorden" van robots kritisch kunnen waarnemen.

Robots weten beter

Om te zien of kinderen kunstmatige intelligentie vertrouwen, herhaalden wetenschappers een experiment van de bekende psycholoog Solomon Asch. In 1951 voerde Asch een reeks experimenten uit over sociaal conformisme. Onder het mom van een oogtest stelde hij voor dat mensen naar vier lijnen kijken en er twee van dezelfde lengte kiezen. Sommige mensen in de groep waren nepacteurs die duidelijk foute antwoorden gaven. In totaal voerde de psycholoog een reeks van 20 van dergelijke experimenten uit. Hierdoor bleek bijna 75% van de onderwerpen zich wel eens een keer aan de publieke opinie aan te passen, zij het onjuist.

Nu hebben de onderzoekers het experiment aangepast. In plaats van dummy-acteurs werden de verkeerde antwoorden ingegeven door robotspeelgoed. En het bleek dat robots kinderen 25% van de tijd kunnen verwarren. Ondanks het feit dat kinderen in hun eentje veel vaker de juiste antwoorden vonden - in 87% van de gevallen.

"Zolang de kinderen alleen in de kamer waren, deden ze het redelijk goed", zegt een van de auteurs van het onderzoek, Tony Belfime, robotica-specialist aan de Universiteit van Plymouth. “Maar zodra de robots verschenen en de verkeerde antwoorden begonnen te geven, volgden de kinderen hen onmiddellijk.

Promotie video:

AI-volwassenen geloven niet

In het tweede deel van het experiment besloten de onderzoekers om te kijken hoe kinderen precies reageren op aanwijzingen van robots. Deze keer kregen de kinderen taken aangeboden waarin het onmogelijk leek om een fout te maken - de juiste antwoorden liggen voor de hand! Toch keek 74% van de proefpersonen eerst naar wat de robot zou zeggen, en herhaalde het antwoord vervolgens woord voor woord. In totaal deden 43 kinderen mee aan de test.

"Mensen hebben de neiging om machines te vertrouwen, dit is een soort vooringenomenheid", zegt Alan Wagner, specialist in lucht- en ruimtevaarttechniek aan de University of Pennsylvania (VS). - We zijn gewend robots en gadgets te vertrouwen omdat we geloven dat ze meer kennis hebben dan wij.

Volwassenen in een soortgelijk experiment bleken echter verre van zo betrouwbaar als kinderen. De wetenschappers herhaalden de test met 60 volwassenen en hun antwoorden werden niet beïnvloed door de prompts van de robot.

"Misschien is het een feit dat deze robots op kinderspeelgoed leken en dat hun antwoorden geen vertrouwen wekte bij het volwassen publiek", zegt Tony Belfime. - Waarschijnlijk, als de robots er solide uitzagen, of als Siri (Apple's stemassistent - red.) Prompts gaf, zou het resultaat anders zijn.

De volwassen deelnemers aan het experiment gaven later zelf toe dat ze besloten hadden dat de robots gewoon kapot waren gegaan. Of dat deze taken te moeilijk bleken voor kunstmatige intelligentie.

Uiteindelijk

Het is duidelijk dat kinderen op deze leeftijd in de steek werden gelaten door de vaardigheid van kritisch denken - het wordt alleen gevormd met leeftijd en ervaring. In het geval van AI en slim speelgoed blijkt die goedgelovigheid echter gevaarlijk te zijn, waarschuwen de onderzoekers. Dergelijke technologieën worden steeds vaker gebruikt in het onderwijs en bij het werken met kinderen. Bovendien krijgen robots steeds vaker menselijke trekken - van handen, voeten, hoofden tot stem. Dit is trouwens de reden waarom vrouwenstemmen vaak worden gebruikt in stemassistenten - dit vergroot het vertrouwen van de gebruiker.

EXPERT COMMENTAAR

Elena Smirnova, doctor in de psychologie, hoofd van het Centrum voor psychologische en pedagogische expertise van games en speelgoed, Moscow City Psychological and Pedagogical University:

- De overgrote meerderheid van slim speelgoed zingt, beweegt en praat nu alleen. Al deze activiteit verlamt de eigen activiteit van het kind. Voor volwassenen is het leuk om naar zo'n speeltje te kijken. Maar het is onmogelijk voor een kind om met haar te spelen. Als het speelgoed uit zichzelf spreekt, kan het in de verbeelding geen eigen stem krijgen. Als ze zelf iets doet, is het moeilijk om haar in sommige game plots te integreren. Slim speelgoed en robots zijn zelfvoorzienend en gesloten, het kind kan er zijn gevoelens en emoties niet in kwijt. Daarom is het niet de moeite waard om te zeggen dat dergelijk speelgoed zich ontwikkelt. Het zijn eerder marketinggimmicks.

KSENIYA KONYUKHOVA

Aanbevolen: