Waarom Is Kunstmatige Intelligentie Bij Het Beoordelen Van Criminelen Gevaarlijk? - Alternatieve Mening

Inhoudsopgave:

Waarom Is Kunstmatige Intelligentie Bij Het Beoordelen Van Criminelen Gevaarlijk? - Alternatieve Mening
Waarom Is Kunstmatige Intelligentie Bij Het Beoordelen Van Criminelen Gevaarlijk? - Alternatieve Mening

Video: Waarom Is Kunstmatige Intelligentie Bij Het Beoordelen Van Criminelen Gevaarlijk? - Alternatieve Mening

Video: Waarom Is Kunstmatige Intelligentie Bij Het Beoordelen Van Criminelen Gevaarlijk? - Alternatieve Mening
Video: 'Europa onderschat nog steeds het gevaar van China en de CCP.' Een gesprek met Henk Schulte Nordholt 2024, Mei
Anonim

Kunstmatige intelligentie helpt op de een of andere manier al om uw toekomst te bepalen. Als u iets op een zoekmachine zoekt, gebruik dan een dienst als Netflix, of een bank beoordeelt uw geschiktheid voor een hypotheek. Maar wat gebeurt er als kunstmatige intelligentie voor de rechtbank moet bepalen of u schuldig bent of niet? Vreemd genoeg gebeurt dit in sommige landen al. Onlangs werd aan de Amerikaanse hoge justitie John Roberts gevraagd of hij zich een dag kon voorstellen waarop "slimme machines, bestuurd door kunstmatige intelligentie, zullen helpen bij het vinden van bewijs of zelfs bij het nemen van gerechtelijke beslissingen". Hij antwoordde: "Deze dag is al gekomen, en hij helpt de gerechtelijke autoriteiten aanzienlijk in de procedure."

Misschien verwees Roberts naar de recente zaak van Eric Loomis, die tot zes jaar gevangenisstraf werd veroordeeld op aanbeveling van geheime propriëtaire software van een particulier bedrijf. Loomis, die al een crimineel verleden had en werd veroordeeld voor het ontsnappen aan de politie in een gestolen auto, beweert nu dat zijn recht op procedure is geschonden omdat noch hij, noch zijn vertegenwoordigers het aanbevelingsalgoritme konden herzien of aanvechten.

Het rapport is opgesteld door de Compas-software, die door Notrpointe aan schepen wordt verkocht. Het programma belichaamt een nieuwe trend in AI-onderzoek: rechters helpen bij het nemen van 'betere' (of op zijn minst meer datagestuurde) beslissingen in de rechtbank.

Hoewel de specifieke details van de Loomis-zaak gesloten blijven, bevat deze zeker grafieken en cijfers die het leven, het gedrag en de kans op een terugval bepalen. Deze omvatten leeftijd, ras, geslachtsidentiteit, gewoonten, browsergeschiedenis en enkele afmetingen van de schedel. Niemand weet het precies.

Het is bekend dat de officier van justitie in de zaak de rechter vertelde dat Loomis aantoonde "een hoog risico op recidive, geweld, gerechtelijke procedures". Dit is standaard als het gaat om straffen. De rechter was het daarmee eens en vertelde Loomis dat "Compas hem identificeerde als een persoon met een hoog risico voor de samenleving."

Het Hooggerechtshof van Wisconsin veroordeelde Loomis en voegde eraan toe dat het Compas-rapport waardevolle informatie aan zijn beslissing toevoegde, maar merkte op dat hij zonder hem hetzelfde vonnis uitsprak. U kunt dit natuurlijk niet zeker controleren. Welke cognitieve vooroordelen kunnen er zijn als een almachtig 'slim' systeem als Compas betrokken is bij het adviseren van rechters over wat ze moeten doen?

Onbekend gebruik

Promotie video:

Laten we eerlijk zijn, er is niets "illegaals" aan wat de rechtbank in Wisconsin deed - dit is slechts een voorbeeld. Andere rechtbanken kunnen en zullen hetzelfde doen.

Helaas weten we niet in hoeverre AI en andere algoritmen worden gebruikt bij het straffen. Aangenomen wordt dat sommige rechtbanken systemen zoals Compas "testen" in gesloten processen, maar geen aanspraak kunnen maken op een partnerschap. Er is ook een perceptie dat verschillende AI-startups dergelijke slimme systemen ontwikkelen.

Image
Image

Het gebruik van AI in wetgeving begint of eindigt echter niet met een straf, het begint met een onderzoek. Het VK heeft al het VALCRI-systeem ontwikkeld, dat tijdrovend analytisch werk in een paar seconden doet - door tonnen gegevens zoals teksten, laboratoriumrapporten en politiedocumenten sluipen om dingen te isoleren die mogelijk verder onderzoek vereisen.

De Britse politie van West Midlands zal VALCRI de komende drie jaar testen met behulp van anonieme gegevens met meer dan 6,5 miljoen records. Een gelijkaardige test wordt uitgevoerd door de Antwerpse politie in België. In het verleden waren AI- en deep learning-projecten met enorme datasets echter problematisch.

Voordelen voor enkelen

Technologie heeft rechtszalen veel nuttige hulpmiddelen opgeleverd, van kopieermachines tot DNA-extractie van vingerafdrukken tot geavanceerde bewakingstechnieken. Maar dit betekent niet dat elke technologie een verbetering is.

Hoewel het gebruik van AI bij onderzoeken en veroordelingen mogelijk tijd en geld kan besparen, levert het acute problemen op. Een Compas-rapport van ProPublica maakte duidelijk dat het programma zwarten ten onrechte als recidiverend beschouwt dan blanken. Zelfs de meest geavanceerde AI-systemen kunnen de raciale en gendervooroordelen erven van degenen die ze creëren.

Bovendien, wat heeft het voor zin om de besluitvorming (althans gedeeltelijk) over kwesties die uniek zijn voor mensen te verschuiven naar een algoritme? Er is een zekere moeilijkheid in de Verenigde Staten wanneer jury's hun collega's uitproberen. Wettelijke normen zijn nooit de maatstaf geweest, dus worden deze juryrechtspraak beschouwd als de meest democratische en effectieve veroordelingen. We maken fouten, maar in de loop van de tijd verzamelen we kennis over hoe we ze niet moeten maken door het systeem te verfijnen.

Compas en soortgelijke systemen vertegenwoordigen een zwarte doos in het rechtssysteem. Zoiets zou er niet moeten zijn. Rechtsstelsels zijn afhankelijk van de continuïteit, transparantie van informatie en het vermogen om te beoordelen. De samenleving wil geen systeem dat de race aanmoedigt om AI-startups te bouwen die snelle, goedkope en exclusieve oplossingen maken. Een haastig gemaakte AI zal verschrikkelijk zijn.

Een bijgewerkte open source-versie van Compas zou een verbetering zijn. Maar eerst zullen de normen van het rechtssysteem moeten worden verhoogd voordat we de verantwoordelijkheid beginnen te verleggen naar algoritmen.

ILYA KHEL

Aanbevolen: