Bouwen Aan Een Morele Machine: Wie Wordt Verantwoordelijk Voor De Ethiek Van Zelfrijdende Auto's? - Alternatieve Mening

Inhoudsopgave:

Bouwen Aan Een Morele Machine: Wie Wordt Verantwoordelijk Voor De Ethiek Van Zelfrijdende Auto's? - Alternatieve Mening
Bouwen Aan Een Morele Machine: Wie Wordt Verantwoordelijk Voor De Ethiek Van Zelfrijdende Auto's? - Alternatieve Mening

Video: Bouwen Aan Een Morele Machine: Wie Wordt Verantwoordelijk Voor De Ethiek Van Zelfrijdende Auto's? - Alternatieve Mening

Video: Bouwen Aan Een Morele Machine: Wie Wordt Verantwoordelijk Voor De Ethiek Van Zelfrijdende Auto's? - Alternatieve Mening
Video: Rijders elektrische auto's boos 2024, April
Anonim

U rijdt over een snelweg wanneer een man een drukke weg oploopt. Auto's rijden om je heen en je hebt een fractie van een seconde om een beslissing te nemen: probeer een persoon te vermijden en het risico op een ongeval te creëren? Doorrijden in de hoop dat hij tijd heeft? Remmen? Hoe beoordeelt u de kans dat een kind op de achterbank wordt vastgebonden? In veel opzichten is dit een klassiek 'moreel dilemma', een trolleyprobleem. Ze heeft een miljoen verschillende opties waarmee je menselijke vooroordelen kunt identificeren, maar de essentie is hetzelfde.

U bevindt zich in een situatie waarin leven en dood op het spel staan, er is geen eenvoudige keuze, en uw beslissing zal in feite bepalen wie er leeft en wie sterft.

Het trolleydilemma en kunstmatige intelligentie

MIT's nieuwe paper, vorige week gepubliceerd in het tijdschrift Nature, probeert een werkende oplossing te vinden voor het trolleyprobleem door miljoenen vrijwilligers te werven. Het experiment begon in 2014 en was een succes, met meer dan 40 miljoen reacties uit 233 landen, waarmee het een van de grootste morele onderzoeken ooit is.

Een persoon kan dergelijke beslissingen onbewust nemen. Het is moeilijk om alle ethische systemen en morele voorwaarden tegen elkaar af te wegen als uw auto over de weg racet. Maar in onze wereld worden beslissingen steeds vaker door algoritmen genomen en kunnen computers gemakkelijk sneller reageren dan wij.

Hypothetische situaties met zelfrijdende auto's zijn niet de enige morele beslissingen die algoritmen moeten nemen. Medische algoritmen zullen kiezen wie behandeling krijgt met beperkte middelen. Geautomatiseerde drones zullen kiezen hoeveel "collateral damage" aanvaardbaar is in een individueel militair gevecht.

Promotie video:

Niet alle morele principes zijn gelijk

De "oplossingen" voor het trolleyprobleem zijn net zo gevarieerd als de problemen zelf. Hoe zullen machines morele beslissingen nemen als de grondslagen van moraliteit en ethiek niet universeel worden aanvaard en mogelijk geen oplossingen hebben? Wie kan bepalen of een algoritme goed of fout doet?

De crowdsourcing-benadering van Moral Machine-wetenschappers is vrij pragmatisch. Wil het publiek zelfrijdende auto's accepteren, dan moet het uiteindelijk de morele basis achter hun beslissingen accepteren. Het zal niet goed zijn als ethici of advocaten met een oplossing komen die ofwel onaanvaardbaar ofwel onaanvaardbaar is voor gewone chauffeurs.

De resultaten leiden tot de merkwaardige conclusie dat morele prioriteiten (en dus de algoritmische beslissingen die mensen kunnen nemen) afhangen van waar ter wereld je bent.

Allereerst erkennen wetenschappers dat het onmogelijk is om de frequentie of aard van deze situaties in het echte leven te kennen. Mensen die heel vaak bij een ongeval betrokken zijn geweest, kunnen niet zeggen wat er precies is gebeurd, en de reeks mogelijke situaties maakt een eenvoudige classificatie onmogelijk. Om het probleem op te sporen, moet het daarom worden opgesplitst in vereenvoudigde scenario's, op zoek naar universele morele regels en principes.

Wanneer u een enquête invult, krijgt u dertien vragen te zien waarvoor u eenvoudig ja of nee moet kiezen, waarbij u de antwoorden probeert te beperken tot negen factoren.

Moet de auto een andere rijstrook inslaan of blijven rijden? Moet je jonge mensen redden, geen ouderen? Vrouwen of mannen? Dieren of mensen? Moet je proberen zoveel mogelijk levens te redden, of is één kind twee ouderen 'waard'? Passagiers in een auto redden, geen voetgangers? Degenen die de regels niet volgen, of degenen die de regels niet volgen? Moet je mensen redden die fysiek sterker zijn? Hoe zit het met mensen met een hogere sociale status, zoals artsen of zakenmensen?

In deze harde hypothetische wereld moet iemand sterven, en je zult elk van deze vragen beantwoorden - met wisselend enthousiasme. Het nemen van deze beslissingen brengt echter ook diepgewortelde culturele normen en vooroordelen aan het licht.

De verwerking van de enorme dataset die door wetenschappers is onderzocht, levert zowel universele regels als merkwaardige uitzonderingen op. De drie meest dominante factoren, gemiddeld over de hele bevolking, waren dat iedereen liever meer levens redde dan minder, mensen liever dan dieren, en eerder jong dan oud.

Regionale verschillen

U kunt het met deze punten eens zijn, maar hoe dieper u erover nadenkt, hoe verontrustender de morele conclusies zullen zijn. Meer respondenten kozen ervoor om de crimineel te redden boven de kat, maar over het algemeen gaven ze er de voorkeur aan de hond te redden boven de crimineel. Wereldwijd wordt oud zijn hoger gewaardeerd dan dakloos, maar daklozen werden minder gered dan dikke mensen.

En deze regels waren niet universeel: respondenten uit Frankrijk, het Verenigd Koninkrijk en de Verenigde Staten gaven de voorkeur aan jongeren, terwijl respondenten uit China en Taiwan eerder bereid waren ouderen te redden. Respondenten uit Japan gaven de voorkeur aan voetgangers boven passagiers, terwijl ze in China de voorkeur geven aan passagiers boven voetgangers.

De onderzoekers ontdekten dat ze de antwoorden per land in drie categorieën konden groeperen: 'West', voornamelijk Noord-Amerika en Europa, waar moraliteit grotendeels gebaseerd is op de christelijke doctrine; "Oost" - Japan, Taiwan, het Midden-Oosten, waar het confucianisme en de islam de boventoon voeren; "Zuidelijke" landen, waaronder Midden- en Zuid-Amerika, samen met een sterke Franse culturele invloed. Er is een sterkere voorkeur voor het offeren van vrouwen in het zuidelijke segment dan waar dan ook. In het oostelijke segment is er een grotere neiging om jongeren te redden.

Filteren op verschillende respondentattributen geeft eindeloos veel interessante opties. Het is onwaarschijnlijk dat 'zeer religieuze' respondenten de voorkeur geven aan het redden van een dier, maar zowel religieuze als niet-religieuze respondenten geven ongeveer dezelfde voorkeur uit voor het redden van mensen met een hoge sociale status (hoewel kan worden gezegd dat dit in strijd is met sommige religieuze doctrines). Mannen en vrouwen redden liever vrouwen, maar mannen zijn daar minder toe geneigd.

Onbeantwoorde vragen

Niemand beweert dat dit onderzoek al deze gewichtige morele problemen op de een of andere manier 'oplost'. De auteurs van het onderzoek merken op dat crowdsourcing van online gegevens wel degelijk vooringenomenheid inhoudt. Maar zelfs met een grote steekproefomvang was het aantal vragen beperkt. Wat als de risico's veranderen afhankelijk van de beslissing die u neemt? Wat als het algoritme kan berekenen dat u, gezien de snelheid waarmee u zich voortbewoog, slechts 50 procent kans had om voetgangers te doden?

Edmond Awad, een van de auteurs van het onderzoek, was voorzichtig met het overinterpreteren van de resultaten. De discussie zou volgens hem moeten uitmonden in risicoanalyse - wie loopt meer of minder risico - in plaats van te beslissen wie er sterft en wie niet.

Maar het belangrijkste resultaat van het onderzoek was de discussie die oplaaide op zijn bodem. Nu algoritmen steeds belangrijkere beslissingen beginnen te nemen die het leven van mensen beïnvloeden, is het absoluut noodzakelijk dat we een voortdurende discussie hebben over de ethiek van AI. Het ontwerpen van een "kunstmatig geweten" moet de mening van iedereen omvatten. Hoewel de antwoorden niet altijd gemakkelijk te vinden zijn, is het het beste om te proberen een moreel kader voor algoritmen te vormen door algoritmen niet toe te staan de wereld zelf vorm te geven zonder menselijke controle.

Aanbevolen: