Is Kunstmatige Intelligentie Altijd Objectief En Wil Een Persoon Een Plezier Doen - Alternatieve Mening

Inhoudsopgave:

Is Kunstmatige Intelligentie Altijd Objectief En Wil Een Persoon Een Plezier Doen - Alternatieve Mening
Is Kunstmatige Intelligentie Altijd Objectief En Wil Een Persoon Een Plezier Doen - Alternatieve Mening

Video: Is Kunstmatige Intelligentie Altijd Objectief En Wil Een Persoon Een Plezier Doen - Alternatieve Mening

Video: Is Kunstmatige Intelligentie Altijd Objectief En Wil Een Persoon Een Plezier Doen - Alternatieve Mening
Video: Kunnen we kunstmatige intelligentie nog doorgronden? 2024, Mei
Anonim

Hoe computers vreemde beslissingen nemen

Kunstmatige intelligentie ontwikkelt zich zo snel dat velen angst beginnen te voelen: of het binnenkort in staat zal zijn om emoties te ervaren en zijn eigen beslissingen te nemen. Of het nu gaat om een bot, een autonoom voertuig of een beslisser in het bedrijfsleven en de wetenschap: kunstmatige intelligentie dringt door op alle gebieden van ons leven en de samenleving. Machinebrein wordt als logisch, emotieloos en onpartijdig beschouwd, maar de praktijk leert dat ze niet altijd alles met een open geest beslissen.

Image
Image

Kunstmatige intelligentie is onmisbaar wanneer het belangrijk is om patronen in grote hoeveelheden data te herkennen en op basis daarvan beslissingen te nemen. Maar in de toekomst kunnen kunstmatige-intelligentiesystemen ook worden gebruikt op gebieden waar ons welzijn en zelfs ons leven rechtstreeks afhangen van conclusies - in de geneeskunde, bij de selectie van banen, bij de uitgifte van leningen en bij justitie.

Hoe objectief en moreel correct neemt kunstmatige intelligentie een beslissing? Kunnen we het machinebrein echt vertrouwen om zulke potentieel belangrijke beslissingen te nemen?

Kunstmatige intelligentie wordt op alle gebieden gebruikt

Zelfs nu nog worden adaptieve algoritmen op veel gebieden van ons dagelijks leven gebruikt. Er zijn digitale assistenten voor het begrijpen van spraakopdrachten en vragen. Op internet helpen webbots websites te onderhouden en te controleren, zodat ze moeilijk van mensen te onderscheiden zijn. Zelfs wanneer nepnieuws en beeldmanipulaties worden gedetecteerd, zijn kunstmatige-intelligentiesystemen betrokken.

Promotie video:

Image
Image

AI-systemen doen ook hun werk in de industrie, het bedrijfsleven en zelfs de overheid. Ze optimaliseren en controleren productieprocessen, regelen de logistiek van containerhavens en grote magazijnen of voeren een boekhouding. Verzekeringsmaatschappijen en banken beschikken al over de eerste intelligente programma's om ingediende aanvragen te controleren of betalingsbeslissingen te nemen. Bij Ikea, Deutsche Telekom en vele andere bedrijven, UNICEF of bibliotheken, zijn virtuele assistenten betrokken bij de klantenservice.

Grote hoeveelheid gegevens verwerkt voor training

Dit alles is mogelijk dankzij het vermogen van AI-systemen om snel enorme hoeveelheden gegevens te analyseren, patronen en correlaties te identificeren. Het algoritme leert bijvoorbeeld van talloze foto's van huisdieren met bijpassende namen. Na een trainingsperiode kan het systeem volledig nieuwe foto's van de gewenste soort selecteren. Het herkent de verschillen zelf.

Image
Image

Veel andere AI-systemen gebruiken tekst als basis om te leren. Ze beoordelen de context waarin een woord staat en bestuderen de semantische betekenis ervan, evenals relaties met vergelijkbare woorden of synoniemen. Deze semantische relaties vertalen programma's in wiskundige uitdrukkingen en leren zo zelfs complexe semantische contexten.

Alleen dankzij dit vermogen kan kunstmatige intelligentie bijvoorbeeld medische gegevens en medische dossiers evalueren en daaruit kenmerken van klinische beelden afleiden. Op basis van deze resultaten worden AI-systemen al gebruikt als diagnostische hulpmiddelen, ze kunnen verschillende soorten kanker, tekenen van de ziekte van Alzheimer, suïcidale aandoeningen en gevaarlijke suikerniveaus bij diabetes herkennen.

Maar hoe aantrekkelijk het ook klinkt, steeds meer AI heeft een groot nadeel. Hoe meer kunstmatige intelligentie praktisch alle sferen van onze samenleving doordringt, hoe groter de mogelijke gevolgen van haar beslissingen. De financiële of professionele toekomst van een persoon, of zelfs zijn leven, hangt af van zijn oordeel.

AI-oplossingen die levens kunnen kosten

Als een AI in de geneeskunde bijvoorbeeld een verkeerde diagnose stelt zonder te worden ondervraagd, kan de patiënt de verkeerde behandeling ondergaan of zelfs overlijden. Het leger maakt gebruik van een autonoom wapensysteem dat de verkeerde beslissingen neemt. De AI kan bijvoorbeeld een vluchtende vriend niet onderscheiden van een vijand, de onschuldigen sterven.

Image
Image

AI-algoritmen worden al gebruikt bij rechtbanken in de Verenigde Staten. Ze voorspellen de kans op recidive voor daders in de rechtbank. Hun beoordeling heeft vaak invloed op de beslissing van de rechtbank en bijgevolg op de straf van de veroordeelde.

Als AI beslist over leningen

Evenzo kan een beslissing op het gebied van financiën en verzekeringen van invloed zijn op het al dan niet krijgen van een lening. Deze systemen worden meestal getraind met databases.

Image
Image

En hier zoekt de AI naar patronen: welke mensen betalen hun lening meestal terug en welke niet? Hij ontwikkelt zijn beoordelingsprocedures en neemt de juiste beslissingen. Dit betekent in het bijzonder dat mensen met een verkeerde woon- of beroepskeuze ondanks deze omstandigheden geen leningen zullen ontvangen, hoeveel ze ook willen betalen.

Met een dergelijke verdeling van verantwoordelijkheden met computers, zal een persoon alleen een assistent zijn bij de uitvoering van beslissingen van cyberbreinen. En dit gebeurt al.

Wie is er verantwoordelijk voor fouten?

Een ander probleem bij de ontwikkeling van AI: hoe complexer de principes van besluitvorming, hoe moeilijker het is voor mensen om ze te begrijpen. Het roept ook de vraag op wie verantwoordelijk is voor fouten.

Gevallen van ongevallen bij het besturen van auto's op de automatische piloot komen vaker voor: wie is verantwoordelijk voor het feit dat sommige situaties niet in het geheugen worden opgeslagen of dat AI de verkeerde conclusies trekt. Of trekt hij misschien zijn eigen conclusies? Er zijn al zulke voorbeelden.

Het spelen van bots hebben tijdens het spel hun eigen regels ontwikkeld

Voor deze studie lieten de onderzoekers 100 slimme bots met elkaar communiceren in een concessiespel. Elk van hen moet beslissen of ze iets doneren aan iemand van hun team of aan een deelnemer aan het spel van buitenaf.

Image
Image

Verrassend genoeg zijn bots in de loop van de tijd steeds meer uitgesloten van externe groepen en doneren ze alleen aan hun teamleden.

Image
Image

De reden hiervoor: slimme bots pasten hun spelstrategie aan en kopieerden het gedrag van de kameraden die het meeste geld inzamelden en het meest succesvol waren. Zo kwamen er groepen bots tevoorschijn die zich op dezelfde manier gedroegen en consequent niet-gerelateerde game-deelnemers uitsloten. Voortdurend iets creëren dat sneller berekent, analyseert en beslissingen neemt, zal de mensheid op een dag de controle verliezen over zijn creatie, waarvan het de acties niet kan bijhouden.

Volgens wetenschappers ligt dit voor de hand: kunstmatige intelligentie heeft geen kunstmatige gegevens nodig om vooringenomen te zijn, het is voldoende om andere machines eromheen te hebben. Omdat zelfs dit een groepsgeest kan creëren die bekend is uit menselijke gemeenschappen. Daarom moeten mensen met AI de beslissing aan zichzelf overlaten.

Vasilik Svetlana

Aanbevolen: