Gevaarlijke Mensheid: Waarom Hebben We Intelligente Kunstmatige Intelligentie Nodig? - Alternatieve Mening

Inhoudsopgave:

Gevaarlijke Mensheid: Waarom Hebben We Intelligente Kunstmatige Intelligentie Nodig? - Alternatieve Mening
Gevaarlijke Mensheid: Waarom Hebben We Intelligente Kunstmatige Intelligentie Nodig? - Alternatieve Mening

Video: Gevaarlijke Mensheid: Waarom Hebben We Intelligente Kunstmatige Intelligentie Nodig? - Alternatieve Mening

Video: Gevaarlijke Mensheid: Waarom Hebben We Intelligente Kunstmatige Intelligentie Nodig? - Alternatieve Mening
Video: 'Europa onderschat nog steeds het gevaar van China en de CCP.' Een gesprek met Henk Schulte Nordholt 2024, Mei
Anonim

Toen Norbert Wiener, de vader van de cybernetica, in 1950 zijn boek The Human Uses of Human Beings schreef, waren vacuümbuizen nog steeds de belangrijkste elektronische bouwstenen en waren er in feite maar een paar computers aan het werk. Hij voorzag de toekomst die we nu zien echter met een ongekende precisie, waarbij hij slechts kleine details vergist.

Vóór elke andere filosoof van kunstmatige intelligentie, realiseerde hij zich dat AI niet alleen mensen zal imiteren - en vervangen - bij veel soorten intellectuele activiteiten, maar ook mensen zal veranderen in het proces. "We zijn gewoon draaikolken in een rivier van altijd stromend water", schreef hij. "We zijn niet iets dat alleen maar leeft, we zijn modellen die zichzelf in stand houden."

Als er zich bijvoorbeeld veel aantrekkelijke kansen voordoen, zijn we bereid om de kleine kosten van het runnen van een bedrijf te betalen en te accepteren om toegang te krijgen tot nieuwe kansen. En al snel worden we afhankelijk van nieuwe tools, we verliezen het vermogen om zonder hen te bestaan. Opties worden vereist.

Dit is een heel oude evolutiegeschiedenis, en veel van de hoofdstukken ervan zijn ons goed bekend. De meeste zoogdieren kunnen hun eigen vitamine C aanmaken, maar fruitetende primaten hebben dit ingebouwde vermogen verloren. De zichzelf herhalende patronen die we mensen noemen, zijn nu afhankelijk van kleding, bewerkt voedsel, vitamines, spuiten, creditcards, smartphones en internet. En morgen, zo niet vandaag, van kunstmatige intelligentie.

Wiener voorzag verschillende problemen met deze stand van zaken die Alan Turing en andere vroege AI-optimisten grotendeels over het hoofd hadden gezien. De echte dreiging, zei hij, was:

… is dat dergelijke machines, hoewel ze op zichzelf hulpeloos zijn, door mensen kunnen worden gebruikt of mensen kunnen blokkeren om hun controle over de rest van het ras te vergroten, of dat politieke leiders kunnen proberen de controle over hun bevolking over te nemen met behulp van politieke methoden in plaats van de machines zelf, zo bekrompen en onverschillig voor de mens, alsof ze mechanisch zijn uitgevonden.

Deze gevaren zijn nu duidelijk zeer relevant.

In de media stellen innovaties in digitale audio en video ons bijvoorbeeld in staat om een kleine prijs te betalen (in de ogen van audiofielen en bioscoopbezoekers) om afstand te nemen van analoge formaten, en in ruil daarvoor een extreem eenvoudige - te simpele - manier te krijgen om opnames af te spelen zonder bijna beperkingen.

Promotie video:

Image
Image

Maar er zijn enorme verborgen kosten. Orwells bediening van de waarheid is een echte kans geworden. AI's technieken voor het creëren van vrijwel niet te onderscheiden nep "records" maken de tools die we voor onderzoeken hebben gebruikt de afgelopen 150 jaar overbodig.

We moeten gewoon het korte tijdperk van fotografisch bewijs achter ons laten en terugkeren naar die oude wereld waar het menselijk geheugen en vertrouwen de gouden standaard waren. Of we kunnen nieuwe verdedigings- en aanvalsmethoden ontwikkelen in de strijd om de waarheid. Een van de meest opwindende recente voorbeelden is het feit dat het veel goedkoper is om een reputatie te vernietigen dan om dezelfde reputatie te verdienen en te beschermen. Wiener zag dit fenomeen heel breed: "Op de lange termijn zal er geen verschil zijn tussen jezelf bewapenen en de vijand bewapenen." Het tijdperk van informatie is ook een tijdperk van desinformatie geworden.

Wat kunnen we doen? De sleutel is dezelfde observatie van Wiener dat 'deze machines' 'zelf hulpeloos' zijn. We creëren tools, geen collega's, en de echte dreiging is dat we het verschil niet zien.

Kunstmatige intelligentie in zijn huidige vorm is parasitair op de menselijke intelligentie. Hij neemt heel zonder pardon bezit van alles wat menselijke scheppers hebben gemaakt en tekent patronen - inclusief onze meest geheime gewoonten. Deze machines hebben nog geen doelen of strategieën, zijn niet in staat tot zelfkritiek en innovatie, ze bestuderen alleen onze databases, zonder hun eigen gedachten en doelen.

Ze zijn, zoals Wiener zegt, hulpeloos, niet in de zin dat ze geketend of geïmmobiliseerd zijn, nee, ze zijn helemaal geen agenten - ze hebben niet het vermogen om 'vanuit oorzaken te handelen', zoals Kant het zou omschrijven.

Op de lange termijn is "sterke AI" of algemene kunstmatige intelligentie in principe mogelijk, maar niet wenselijk. De nog beperktere AI die tegenwoordig in de praktijk mogelijk is, zal niet slecht zijn. Maar het vormt een bedreiging, deels omdat het kan worden aangezien voor een krachtige AI.

Hoe sterk is kunstmatige intelligentie tegenwoordig?

De kloof tussen de systemen van vandaag en de sci-fi-systemen die tot de verbeelding spreken, is nog steeds enorm, hoewel veel mensen, zowel amateurs als professionals, de neiging hebben om dit te onderschatten. Laten we eens kijken naar IBM's Watson, die in deze tijd misschien wel respectabel is.

Deze supercomputer is het resultaat van een extreem grootschalig R & D-proces (onderzoek en ontwikkeling) waarbij veel mensen zijn betrokken en die gedurende vele eeuwen intelligentie hebben ontworpen, en het verbruikt duizenden keren meer energie dan het menselijk brein. Zijn overwinning in Jeopardy! was een ware triomf die mogelijk werd gemaakt door de formulebeperkingen van de regels van Jeopardy!, maar zelfs die regels moesten worden herzien voordat hij kon deelnemen. Ik moest een beetje veelzijdigheid opgeven en menselijkheid toevoegen om de show te maken.

Watson is een slecht bedrijf, ondanks misleidende advertenties van IBM die AI-gespreksvaardigheid beloven op beide niveaus, en Watson in een geloofwaardige veelzijdige agent veranderen zou hetzelfde zijn als een rekenmachine in Watson veranderen. Watson is misschien een goed computercasus voor zo'n agent, maar eerder een cerebellum of amygdala dan een geest - op zijn best een subsysteem voor speciale doeleinden dat als ondersteuning dient, maar lang niet een systeem voor het plannen en formuleren van doelen op basis van de opgedane gesprekservaring.

Waarom zouden we een denkende en creatieve agent van Watson willen creëren? Misschien lokte het briljante idee van Turing - de beroemde Turing-test - ons in een val: we raakten geobsedeerd door het creëren van tenminste de illusie van een echte persoon die voor een scherm zat en de 'onheilspellende vallei' omzeilde.

Het gevaar is dat sinds Turing zijn taak presenteerde - die in de eerste plaats een taak was om de juryleden te misleiden - de makers van AI hebben geprobeerd dit te bereiken met grappige mensachtige poppen, "tekenfilm" -versies die de niet-ingewijden zullen charmeren en ontwapenen. ELIZA van Joseph Weisenbaum, de allereerste chatbot, was een goed voorbeeld van het creëren van een dergelijke illusie, maar met een uiterst eenvoudig algoritme dat mensen ervan kon overtuigen dat ze oprechte en oprechte gesprekken voerden met andere mensen.

Hij maakte zich zorgen over het gemak waarmee mensen dit willen geloven. En als we één ding hebben uit de jaarlijkse Lebner Prize Limited Turing Test, dan is het dat zelfs de slimste mensen die niet thuis zijn in computerprogrammering gemakkelijk vallen voor deze eenvoudige trucs.

De houding van mensen bij AI ten opzichte van dergelijke technieken varieert van veroordelend tot lonend, en de consensus is dat deze trucs niet erg diep zijn, maar nuttig kunnen zijn. Een verandering in houding die zeer welkom zou zijn, zou een oprechte erkenning zijn dat met poppen geverfde androïden valse advertenties zijn die moeten worden veroordeeld, niet aangemoedigd.

Hoe kan dit worden bereikt? Zodra we begrijpen dat mensen beslissingen over leven en dood beginnen te nemen door het 'advies' van AI-systemen op te volgen, waarvan de interne werking bijna onbegrijpelijk is, zullen we een goede reden zien voor degenen die mensen aansporen om dergelijke systemen te vertrouwen, om te gaan vertrouwen op de normen van moraliteit en wet.

Systemen voor kunstmatige intelligentie zijn zeer krachtige hulpmiddelen. Zo krachtig dat zelfs experts een goede reden hebben om niet op hun eigen oordeel te vertrouwen als er ‘oordelen’ worden vertegenwoordigd door deze tools. Maar als deze gebruikers van de tools financieel of anderszins baat zullen hebben bij de popularisering van deze tools, moeten ze ervoor zorgen dat ze weten hoe ze dat moeten doen met volledige verantwoordelijkheid, maximale controle en verantwoording.

Het licentiëren en goedkeuren van de exploitanten van dergelijke systemen - net zoals wij apothekers, kraanmachinisten en andere professionals licentiëren wier fouten en verkeerde inschattingen ernstige gevolgen kunnen hebben - verplichten de makers van AI-systemen misschien, met de steun van verzekeringsmaatschappijen en andere organisaties, om ver te gaan op zoek gaan naar de zwakheden en tekortkomingen van hun producten, en ook degenen trainen die ermee gaan werken.

Men kan zich een soort omgekeerde Turing-test voorstellen waarbij de rechter het onderwerp van de beoordeling zal zijn; totdat hij zwakte, overschrijding van grenzen, hiaten in het systeem vindt, zal hij geen vergunning ontvangen. Zo'n keurmeester heeft een serieuze opleiding nodig om een certificering te behalen. De drang om aan een object een menselijk denkvermogen toe te schrijven, zoals we gewoonlijk doen bij het ontmoeten van een intelligent agent, is heel, heel sterk.

In feite is het vermogen om de drang om iets gehumaniseerd te zien, te weerstaan een raar iets. Veel mensen vinden het dubieus om zo'n talent te koesteren, omdat zelfs de meest pragmatische gebruikers van het systeem af en toe 'vriendelijk' zijn over hun tools.

Ongeacht hoe zorgvuldig AI-ontwerpers ervoor kiezen om valse 'menselijke' boventonen in hun producten te elimineren, we mogen de bloei verwachten van labels, tijdelijke oplossingen en aanvaardbare verstoringen van het feitelijke 'begrip' van beide systemen en hun operators. Op dezelfde manier waarop drugs met een lange lijst met bijwerkingen op tv worden geadverteerd, of alcohol wordt geadverteerd met een overvloed aan kleine lettertjes met alle waarschuwingen die door de wet worden vereist, zo zullen ontwikkelaars van kunstmatige intelligentie de wet naleven, maar verfijnd worden in waarschuwingen.

Waarom hebben we kunstmatige intelligentie nodig?

We hebben geen kunstmatige bewuste agenten nodig. Er zijn tal van natuurlijke bewuste agenten die voldoende zijn om elke taak voor professionals en bevoorrechte individuen uit te voeren. We hebben slimme tools nodig. Tools hebben geen rechten en mogen geen gevoelens hebben die kunnen worden gekwetst of misbruikt.

Een reden om geen kunstmatige bewuste agenten te maken, is dat hoewel ze autonoom kunnen worden (en in principe net zo autonoom, zelfverbeterend of zelfscheppend kunnen zijn als ieder ander), ze niet - zonder speciale toestemming - mogen delen met onze natuurlijke bewuste agenten, onze kwetsbaarheid of onze sterfelijkheid.

Daniel Dennett, hoogleraar filosofie aan Tufts University, daagde ooit studenten uit in een workshop over kunstmatige middelen en autonomie: geef me de specificaties van een robot die een contract met jou kan ondertekenen - niet een surrogaat van een ander, maar van zichzelf. Het is niet een kwestie van het begrijpen van de redenen of het manipuleren van de pen op papier, maar eerder het eigendom en welverdiende eigendom van de juridische status en morele verantwoordelijkheid. Jonge kinderen kunnen dergelijke contracten niet ondertekenen, evenals gehandicapten, wier wettelijke status hen verplicht onder voogdij te staan en verantwoordelijkheid oplegt aan voogden.

Het probleem met robots die zo'n verheven status willen bereiken, is dat ze, net als Superman, te kwetsbaar zijn om dergelijke claims te maken. Als ze weigeren, wat gebeurt er dan? Wat wordt de straf voor het verbreken van een belofte? Worden ze opgesloten in een kooi of uit elkaar gehaald? Een gevangenis voor kunstmatige intelligentie zal niet ongemakkelijk zijn, tenzij we eerst de dorst naar vrijheid opdrijven die niet door de AI zelf kan worden genegeerd of uitgeschakeld. Het demonteren van de AI zal de informatie die op de schijf en in de software is opgeslagen niet doden.

Het gemak van het digitaal opnemen en verzenden van gegevens - een doorbraak waardoor software en gegevens in feite onsterfelijkheid konden bereiken - maakt robots onkwetsbaar. Als het niet vanzelfsprekend lijkt, bedenk dan hoe de moraliteit van mensen zou veranderen als we elke week een back-up van mensen zouden kunnen maken. Op zondag na een back-up op vrijdag van een brug springen zonder rubberen band kan een overhaaste beslissing zijn, dan kun je de beelden van je vroegtijdige dood later bekijken.

Daarom creëren we geen bewuste - zouden graag willen creëren - mensachtige agenten, maar eerder een volledig nieuw type schepsel, sommige orakels, onbewust, zonder angst voor de dood, zonder afleiding door liefde en haat, zonder persoonlijkheid: spiegels van waarheid die vrijwel zeker zullen worden geïnfecteerd leugens.

Het menselijk gebruik van mensen zal spoedig - nogmaals - voor altijd veranderen, maar als we de verantwoordelijkheid nemen voor ons evolutietraject, kunnen we onnodige gevaren vermijden.

Ilya Khel