AI Kan Ons Leven Voor Altijd Veranderen - Maar We Bevinden Ons Momenteel Op Een Duister Pad - Alternatieve Mening

AI Kan Ons Leven Voor Altijd Veranderen - Maar We Bevinden Ons Momenteel Op Een Duister Pad - Alternatieve Mening
AI Kan Ons Leven Voor Altijd Veranderen - Maar We Bevinden Ons Momenteel Op Een Duister Pad - Alternatieve Mening

Video: AI Kan Ons Leven Voor Altijd Veranderen - Maar We Bevinden Ons Momenteel Op Een Duister Pad - Alternatieve Mening

Video: AI Kan Ons Leven Voor Altijd Veranderen - Maar We Bevinden Ons Momenteel Op Een Duister Pad - Alternatieve Mening
Video: Ik vond deze BEZETEN OUDE POP voor mijn deur..! *Mijn huis SPOOKT!* 2024, Mei
Anonim

Kunstmatige intelligentie (AI) verandert de wereld al op zichtbare manieren. Data drijft ons wereldwijde digitale ecosysteem aan, en AI-technologieën leggen patronen in data bloot.

Smartphones, slimme huizen en slimme steden beïnvloeden de manier waarop we leven en omgaan, en kunstmatige-intelligentiesystemen worden steeds meer betrokken bij aanwervingsbeslissingen, medische diagnostiek en arbitrage. Of dit scenario utopisch of dystopisch is, is aan ons.

De mogelijke risico's van AI worden vaak opgesomd. Killer robots en enorme werkloosheid zijn veel voorkomende problemen, terwijl sommige mensen zelfs bang zijn voor uitsterven. Meer optimistische projecties beweren dat AI tegen 2030 $ 15 biljoen aan de wereldeconomie zal toevoegen en ons uiteindelijk naar een soort sociaal nirvana zal leiden.

We moeten zeker rekening houden met de impact die dergelijke technologieën hebben op onze samenlevingen. Een belangrijk probleem is dat AI-systemen bestaande sociale vooroordelen versterken - met een verwoestend effect.

Verschillende beruchte voorbeelden van dit fenomeen hebben brede aandacht gekregen: moderne geautomatiseerde automatische vertaalsystemen en beeldherkenningssystemen.

Deze problemen ontstaan doordat dergelijke systemen wiskundige modellen (zoals neurale netwerken) gebruiken om patronen in grote trainingsdatasets te definiëren. Als deze gegevens op verschillende manieren ernstig worden verstoord, zullen inherente fouten onvermijdelijk worden bestudeerd en gereproduceerd door getrainde systemen.

Vooringenomen autonome technologieën zijn problematisch omdat ze groepen zoals vrouwen, etnische minderheden of ouderen kunnen isoleren, waardoor bestaande sociale onevenwichtigheden worden verergerd.

Als AI-systemen bijvoorbeeld worden getraind op basis van arrestatiegegevens van de politie, dan zullen alle bewuste of onbewuste vooroordelen die tot uiting komen in bestaande arrestatieschema's worden gedupliceerd door het AI-systeem dat op basis van deze gegevens is getraind.

Promotie video:

Verschillende gerenommeerde organisaties onderkennen de ernstige implicaties hiervan en hebben onlangs aanbevolen dat alle kunstmatige intelligentiesystemen worden getraind op objectieve gegevens. Ethische richtlijnen die eerder in 2019 door de Europese Commissie werden gepubliceerd, suggereerden de volgende aanbeveling:

Wanneer gegevens worden verzameld, kunnen deze sociaal geconstrueerde fouten of onnauwkeurigheden bevatten. Dit moet worden aangepakt voordat de AI op een dataset wordt getraind.

Dit klinkt allemaal redelijk genoeg. Helaas is het soms gewoon niet mogelijk om de onpartijdigheid van bepaalde datasets voorafgaand aan de training te garanderen. Een concreet voorbeeld zou dit moeten verduidelijken.

Alle moderne automatische vertaalsystemen (zoals Google Translate) leren van zinsparen.

Het Anglo-Franse systeem gebruikt gegevens die Engelse zinnen ("zij is lang") koppelt aan gelijkwaardige Franse zinnen ("elle est grande").

Er kunnen 500 miljoen van dergelijke paren in een bepaalde trainingsdataset voorkomen, en dus slechts een miljard individuele zinnen. Alle gendervooroordelen moeten uit dit soort dataset worden verwijderd als we willen voorkomen dat resultaten zoals de volgende in het systeem worden gegenereerd:

De Franse vertaling is gemaakt met Google Translate op 11 oktober 2019 en is onjuist: ‘Ils’ is een mannelijk meervoud in het Frans en wordt hier weergegeven, ook al geeft de context duidelijk aan dat er naar wordt verwezen op vrouwen.

Dit is een klassiek voorbeeld van een geautomatiseerd systeem dat de voorkeur geeft aan de standaard mannelijke standaard vanwege vertekening in de trainingsgegevens.

In totaal is 70 procent van de generieke voornaamwoorden in de vertaaldatasets mannelijk en 30 procent vrouwelijk. Dit komt door het feit dat teksten die voor dergelijke doeleinden worden gebruikt, vaker verwijzen naar mannen dan naar vrouwen.

Om herhaling van de bestaande fouten van het vertaalsysteem te voorkomen, zou het nodig zijn om specifieke zinnenparen uit de gegevens te verwijderen, zodat de mannelijke en vrouwelijke voornaamwoorden in een verhouding van 50/50 aan zowel de Engelse als de Franse kant samenkomen. Dit voorkomt dat mannelijke voornaamwoorden een hogere waarschijnlijkheid krijgen.

En zelfs als de resulterende subset van de gegevens volledig genderevenwichtig is, zal deze nog steeds op verschillende manieren scheef staan (bijv. Etnisch of leeftijd). In werkelijkheid zou het moeilijk zijn om al deze fouten volledig te elimineren.

Als één persoon slechts vijf seconden besteedt aan het lezen van elk van de een miljard zinnen in AI-trainingsgegevens, duurt het 159 jaar om ze allemaal te testen - en dat veronderstelt de bereidheid om de hele dag en nacht te werken, zonder lunchpauzes.

Alternatief?

Daarom is het onrealistisch om te eisen dat alle trainingsdatasets onbevooroordeeld zijn voordat AI-systemen worden gebouwd. Dergelijke vereisten op hoog niveau gaan er meestal van uit dat "AI" een homogene cluster van wiskundige modellen en algoritmische benaderingen aanduidt.

In feite vereisen verschillende AI-taken totaal verschillende soorten systemen. En het volledig onderschatten van deze diversiteit maskeert de echte problemen die samenhangen met bijvoorbeeld sterk vervormde gegevens. Dit is jammer, want het betekent dat andere oplossingen voor het gegevensvooroordeelprobleem worden verwaarloosd.

Vooroordelen in een getraind machinaal vertaalsysteem kunnen bijvoorbeeld aanzienlijk worden verminderd als het systeem wordt aangepast nadat het is getraind op een grote, onvermijdelijk bevooroordeelde dataset.

Dit kan worden gedaan met een veel kleinere, minder onleesbare dataset. Daarom kunnen de meeste gegevens sterk vertekend zijn, maar een getraind systeem is niet nodig. Helaas worden deze methoden zelden besproken door degenen die richtlijnen en wettelijke kaders voor AI-onderzoek ontwikkelen.

Als AI-systemen bestaande sociale onevenwichtigheden eenvoudigweg verergeren, zullen ze eerder positieve sociale verandering ontmoedigen dan bevorderen. Als de AI-technologieën die we dagelijks steeds vaker gebruiken veel minder bevooroordeeld waren dan wij, zouden ze ons kunnen helpen onze eigen sluimerende vooroordelen te herkennen en ermee te confronteren.

Dit is natuurlijk waar we naar moeten streven. Daarom moeten AI-ontwerpers veel zorgvuldiger nadenken over de sociale implicaties van de systemen die ze creëren, terwijl degenen die over AI schrijven beter moeten begrijpen hoe AI-systemen daadwerkelijk worden ontworpen en gebouwd.

Want als we echt een technologische idylle of een apocalyps naderen, verdient de eerste de voorkeur.

Victoria Vetrova

Aanbevolen: