Mensen Vertrouwen Kunstmatige Intelligentie Niet. Hoe Repareer Je Het? - Alternatieve Mening

Inhoudsopgave:

Mensen Vertrouwen Kunstmatige Intelligentie Niet. Hoe Repareer Je Het? - Alternatieve Mening
Mensen Vertrouwen Kunstmatige Intelligentie Niet. Hoe Repareer Je Het? - Alternatieve Mening

Video: Mensen Vertrouwen Kunstmatige Intelligentie Niet. Hoe Repareer Je Het? - Alternatieve Mening

Video: Mensen Vertrouwen Kunstmatige Intelligentie Niet. Hoe Repareer Je Het? - Alternatieve Mening
Video: Kunstmatige intelligentie filmpje 2024, Mei
Anonim

Kunstmatige intelligentie kan de toekomst al voorspellen. De politie maakt er een kaart mee waarop staat waar en wanneer criminaliteit kan plaatsvinden. Artsen gebruiken het om te voorspellen wanneer een patiënt een beroerte of een hartaanval kan krijgen. Wetenschappers proberen zelfs AI een verbeelding te geven, zodat het kan anticiperen op onverwachte gebeurtenissen.

Veel beslissingen in ons leven vereisen goede voorspellingen, en AI-agenten zijn er bijna altijd beter in dan mensen. Ondanks al deze technologische vooruitgang hebben we nog steeds geen vertrouwen in de voorspellingen die kunstmatige intelligentie biedt. Mensen zijn niet gewend om op AI te vertrouwen en geven er de voorkeur aan menselijke experts te vertrouwen, zelfs als die experts het bij het verkeerde eind hebben.

Image
Image

Als we willen dat kunstmatige intelligentie ten goede komt aan mensen, moeten we leren erop te vertrouwen. Om dit te doen, moeten we begrijpen waarom mensen zo volhardend zijn in het weigeren om AI te vertrouwen.

Vertrouw Dr. Robot

De poging van IBM om een supercomputerprogramma aan oncologen te presenteren (Watson for Oncology) is mislukt. AI heeft beloofd om hoogwaardige behandelingsaanbevelingen te geven voor 12 kankers, goed voor 80% van de gevallen in de wereld. Tot op heden hebben meer dan 14.000 patiënten aanbevelingen gekregen op basis van zijn berekeningen.

Maar toen artsen Watson voor het eerst ontmoetten, bevonden ze zich in een nogal moeilijke situatie. Enerzijds, als Watson behandelrichtlijnen gaf die overeenkwamen met hun eigen mening, zag de medische professie niet veel waarde in de AI-aanbevelingen. De supercomputer vertelde hen gewoon wat ze al wisten, en deze aanbevelingen veranderden de feitelijke behandeling niet. Dit kan artsen gemoedsrust en vertrouwen in hun eigen beslissingen hebben gegeven. Maar IBM moet nog bewijzen dat Watson de overlevingskansen van kanker daadwerkelijk verhoogt.

Promotie video:

Image
Image

Aan de andere kant, als Watson aanbevelingen deed die in strijd waren met de mening van deskundigen, concludeerden artsen dat Watson incompetent was. En de machine kon niet verklaren waarom de behandeling zou werken, omdat de algoritmen voor machine learning te complex waren voor mensen om te begrijpen. Dienovereenkomstig leidde dit tot nog meer wantrouwen, en veel artsen negeerden de AI-aanbevelingen eenvoudigweg, vertrouwend op hun eigen ervaring.

Als gevolg hiervan heeft de Chief Medical Partner van IBM Watson, MD Anderson Cancer Center, onlangs aangekondigd dat het het programma stopzette. Het Deense ziekenhuis zei ook dat het het programma stopzette nadat het ontdekte dat oncologen het twee of drie keer oneens waren met Watson.

Het probleem met de oncologie van Watson was dat de doktoren hem gewoon niet vertrouwden. Het vertrouwen van mensen hangt vaak af van ons begrip van hoe andere mensen denken en van onze eigen ervaring, waardoor vertrouwen in hun mening wordt opgebouwd. Dit zorgt voor een psychologisch gevoel van veiligheid. AI daarentegen is relatief nieuw en onbegrijpelijk voor mensen. Het neemt beslissingen op basis van een geavanceerd analysesysteem om mogelijke verborgen patronen en zwakke signalen uit grote hoeveelheden gegevens te identificeren.

Zelfs als het in technische termen kan worden uitgelegd, is het AI-besluitvormingsproces voor de meeste mensen meestal te complex om te begrijpen. Interactie met iets dat we niet begrijpen, kan angst veroorzaken en een gevoel van controleverlies veroorzaken. Veel mensen snappen simpelweg niet hoe en met wat AI werkt, want het gebeurt ergens achter het scherm, op de achtergrond.

Om dezelfde reden zijn ze zich meer bewust van gevallen waarin AI verkeerd is: denk aan het Google-algoritme dat mensen van kleur classificeert als gorilla's; de Microsoft-chatbot die in minder dan een dag een nazi werd; Tesla-voertuig in stuurautomaatmodus met dodelijk ongeval tot gevolg. Deze ongelukkige voorbeelden hebben onevenredige media-aandacht gekregen, wat de agenda onderstreept dat we niet op technologie kunnen vertrouwen. Machine learning is niet 100% betrouwbaar, deels omdat mensen het ontwerpen.

Een breuk in de samenleving?

De gevoelens die kunstmatige intelligentie oproept, gaan diep in de aard van de mens. Wetenschappers voerden onlangs een experiment uit waarbij ze mensen ondervroegen die films keken over kunstmatige intelligentie (fantasie) over automatisering in het dagelijks leven. Het bleek dat, ongeacht of de AI op een positieve of negatieve manier werd afgebeeld, het simpelweg kijken naar een filmische weergave van onze technologische toekomst de houding van de deelnemers polariseert. Optimisten worden nog optimistischer en sceptici sluiten nog meer.

Dit suggereert dat mensen een voorkeur hebben voor AI op basis van hun eigen redenering, een diepgewortelde neiging van confirmatiebias: de neiging om informatie te zoeken of te interpreteren op een manier die reeds bestaande concepten bevestigt. Naarmate AI steeds meer in de media voorkomt, kan het diepe verdeeldheid in de samenleving veroorzaken, een kloof tussen degenen die AI gebruiken en degenen die het afwijzen. Een overheersende groep mensen kan een groot voordeel of een handicap krijgen.

Drie manieren om uit de AI-vertrouwenscrisis te komen

Gelukkig hebben we enkele gedachten over hoe om te gaan met vertrouwen in AI. Alleen ervaring met AI kan de houding van mensen ten opzichte van deze technologie drastisch verbeteren. Er zijn ook aanwijzingen dat hoe vaker u bepaalde technologieën gebruikt (zoals internet), hoe meer u ze vertrouwt.

Een andere oplossing zou kunnen zijn om de zwarte doos met algoritmen voor machine learning te openen en ze transparanter te laten werken. Bedrijven als Google, Airbnb en Twitter publiceren al transparantieverslagen over overheidsverzoeken en openbaarmakingen. Dit soort praktijken in AI-systemen zal mensen helpen het nodige inzicht te krijgen in hoe algoritmen beslissingen nemen.

Onderzoek toont aan dat het betrekken van mensen bij AI-besluitvorming ook het vertrouwen zal vergroten en AI in staat zal stellen te leren van menselijke ervaringen. Uit de studie bleek dat mensen die de kans kregen om het algoritme enigszins aan te passen, meer tevreden waren met de resultaten van zijn werk, hoogstwaarschijnlijk vanwege een gevoel van superioriteit en het vermogen om toekomstige resultaten te beïnvloeden.

We hoeven de ingewikkelde innerlijke werking van AI-systemen niet te begrijpen, maar als we mensen zelfs maar een beetje informatie en controle geven over hoe deze systemen worden geïmplementeerd, zullen ze meer vertrouwen hebben en meer verlangen om AI in hun dagelijks leven te omarmen.

Ilya Khel

Aanbevolen: