Morele Machine: Ingenieurs Gaven Kunstmatige Intelligentie Moraliteit En Ethiek - Alternatieve Mening

Inhoudsopgave:

Morele Machine: Ingenieurs Gaven Kunstmatige Intelligentie Moraliteit En Ethiek - Alternatieve Mening
Morele Machine: Ingenieurs Gaven Kunstmatige Intelligentie Moraliteit En Ethiek - Alternatieve Mening

Video: Morele Machine: Ingenieurs Gaven Kunstmatige Intelligentie Moraliteit En Ethiek - Alternatieve Mening

Video: Morele Machine: Ingenieurs Gaven Kunstmatige Intelligentie Moraliteit En Ethiek - Alternatieve Mening
Video: Robotica en kunstmatige intelligentie: Filosofische spiegels en ethische uitdagingen 2024, Mei
Anonim

Hoe sterker AI ons dagelijks leven binnendringt, hoe vaker het wordt geconfronteerd met complexe morele en ethische dilemma's, die voor een levend persoon soms niet zo gemakkelijk op te lossen zijn. Wetenschappers van het MIT probeerden dit probleem op te lossen en gaven de machine het vermogen om in termen van moraliteit te denken, gebaseerd op de mening van de meeste levende mensen.

Sommige experts zijn van mening dat de beste manier om kunstmatige intelligentie te trainen om met moreel moeilijke situaties om te gaan, het gebruik van "crowd experience" is. Anderen beweren dat deze benadering niet zonder vooroordelen zal zijn, en dat verschillende algoritmen tot verschillende conclusies kunnen komen op basis van dezelfde dataset. Hoe kunnen machines zich in een dergelijke situatie bevinden, die uiteraard moeilijke morele en ethische beslissingen moeten nemen wanneer ze met echte mensen werken?

Intellect en moraliteit

Naarmate kunstmatige intelligentie (AI) -systemen evolueren, proberen experts steeds meer het probleem op te lossen hoe het systeem het beste een ethische en morele basis kan krijgen voor het nemen van bepaalde acties. Het meest populaire idee is dat AI conclusies trekt door menselijke beslissingen te bestuderen. Om deze aanname te testen, hebben onderzoekers van het Massachusetts Institute of Technology de Moral Machine gemaakt. Bezoekers van de website werd gevraagd om keuzes te maken over hoe een zelfrijdende auto zou moeten handelen als ze voor een nogal moeilijke keuze stonden. Dit is bijvoorbeeld een bekend dilemma over een mogelijk ongeval, dat slechts twee opties heeft voor de ontwikkeling van gebeurtenissen: de auto kan drie volwassenen raken om het leven van twee kinderen te redden, of het tegenovergestelde. Welke optie moet je kiezen? En is het bijvoorbeeld mogelijkhet leven van een bejaarde opofferen om een zwangere vrouw te redden?

Als gevolg hiervan heeft het algoritme een enorme database samengesteld op basis van de testresultaten, en Ariel Procaccia van de afdeling Computerwetenschappen aan de Carnegie Mellon University besloot ze te gebruiken om machine-intelligentie te verbeteren. In een nieuwe studie laadden hij en een van de makers van het project, Iyad Rahwan, de volledige basis van het Moral Machine-project in de AI en vroegen het systeem om te voorspellen hoe de auto op de automatische piloot zou reageren op vergelijkbare, maar nog steeds enigszins verschillende scenario's. Procaccia wilde aantonen hoe een op stemmen gebaseerd systeem een oplossing kan zijn voor 'ethische' kunstmatige intelligentie. ” De auteur van het werk geeft zelf toe dat een dergelijk systeem natuurlijk nog te vroeg is om in de praktijk te worden toegepast, maar het bewijst uitstekend het concept dat het is mogelijk.

Cross moraliteit

Promotie video:

Het idee zelf om te kiezen tussen twee moreel negatieve uitkomsten is niet nieuw. Ethiek gebruikt er een aparte term voor: het principe van dubbele werking. Maar dit is het gebied van bio-ethiek, maar niemand heeft eerder een dergelijk systeem op een auto toegepast, en daarom wekte het onderzoek bijzondere interesse bij experts over de hele wereld. Elon Musk, covoorzitter van OpenAI, is van mening dat het creëren van "ethische" AI een kwestie is van het ontwikkelen van duidelijke richtlijnen of beleid om de programmaontwikkeling te begeleiden. Politici luisteren langzamerhand naar hem: Duitsland heeft bijvoorbeeld 's werelds eerste ethische principes voor zelfrijdende auto's opgesteld. Zelfs Google's Alphabet AI DeepMind heeft nu een afdeling ethiek en openbare moraal.

Andere experts, waaronder een team van onderzoekers van Duke University, zijn van mening dat de beste manier om vooruit te komen is om een "algemeen raamwerk" te creëren dat beschrijft hoe AI in een bepaalde situatie ethische beslissingen neemt. Ze geloven dat de eenmaking van collectieve morele opvattingen, zoals in dezelfde morele machine, kunstmatige intelligentie in de toekomst zelfs moreler zal maken dan de moderne menselijke samenleving.

Kritiek op de "morele machine"

Hoe het ook zij, op dit moment is het principe van de "mening van de meerderheid" verre van betrouwbaar. De ene groep respondenten kan bijvoorbeeld vooroordelen hebben die niet voor alle anderen gelden. Het resultaat zal zijn dat AI's die exact dezelfde dataset krijgen, tot verschillende conclusies kunnen komen op basis van verschillende steekproeven van die informatie.

Voor professor James Grimmelmann, die gespecialiseerd is in de dynamiek tussen software, rijkdom en macht, lijkt het idee van publieke moraal gebrekkig. "Het is niet in staat om AI-ethiek te onderwijzen, maar geeft het alleen een schijn van ethische normen die inherent zijn aan een bepaald deel van de bevolking", zegt hij. En Procaccia zelf geeft, zoals hierboven vermeld, toe dat hun onderzoek niets meer is dan een succesvolle proof of concept. Hij is er echter van overtuigd dat een dergelijke aanpak succes zou kunnen brengen in de hele campagne om in de toekomst een zeer morele AI te creëren. "Democratie heeft ongetwijfeld een aantal tekortkomingen, maar als een verenigd systeem werkt het - zelfs als sommige mensen nog steeds beslissingen nemen waar de meerderheid het niet mee eens is."

Vasily Makarov