Kunstmatige Intelligentie Is Lang Niet Zo Slim Als Jij En Elon Musk Denken Dat Het - Alternatieve Mening

Inhoudsopgave:

Kunstmatige Intelligentie Is Lang Niet Zo Slim Als Jij En Elon Musk Denken Dat Het - Alternatieve Mening
Kunstmatige Intelligentie Is Lang Niet Zo Slim Als Jij En Elon Musk Denken Dat Het - Alternatieve Mening

Video: Kunstmatige Intelligentie Is Lang Niet Zo Slim Als Jij En Elon Musk Denken Dat Het - Alternatieve Mening

Video: Kunstmatige Intelligentie Is Lang Niet Zo Slim Als Jij En Elon Musk Denken Dat Het - Alternatieve Mening
Video: Dating AI Robots, with Elon Musk & Boston Dynamics. 2024, Mei
Anonim

In maart 2016 wist het AlphaGo-computeralgoritme van DeepMind Lee Sedol te verslaan, toen 's werelds beste puzzelspeler. Dit evenement werd een van die bepalende momenten in de geschiedenis van de technologie-industrie, die ooit de overwinning was van de IBM Deep Blue-computer op de wereldkampioen schaken Garry Kasparov, en de overwinning van de Watson-supercomputer van dezelfde IBM in de Jeopardy-quiz voor polymaten in 2011.

Maar ondanks deze overwinningen, hoe indrukwekkend ze ook zijn, gaat het meer om het trainen van algoritmen en het gebruik van onbewerkte rekenkracht dan om echte kunstmatige intelligentie. Voormalig MIT-robotica-professor Rodney Brooks, die mede-oprichter was van iRobot en later Rethink Robotics, zegt dat het leren van een algoritme om een complexe strategische puzzel te spelen geen intelligentie is. In ieder geval niet zoals we het ons voorstellen voor een persoon.

De expert legt uit dat hoe sterk AlphaGo ook mag blijken te zijn in het voltooien van de hem toegewezen taak, hij in feite tot niets anders in staat is. Bovendien is hij van plan om alleen Go te spelen op een standaardveld van 19 x 19. In een interview met TechCrunch vertelde Brooks hoe hij onlangs de kans kreeg om te chatten met het DeepMind-team en een interessant detail te ontdekken. Op de vraag wat er zou gebeuren als de organisatoren de grootte van het go-bord zouden veranderen en het zou vergroten tot 29 x 29 vakjes, gaf het AlphaGo-team hem toe dat zelfs een kleine verandering van het speelveld ertoe zou leiden dat "we klaar zijn".

“Ik denk dat mensen zien hoe goed een algoritme één ding doet, en ze lijken meteen te denken dat het anderen net zo effectief kan doen. Maar het punt is: hij kan het niet, 'merkte Brooks op.

Bruto intelligentie

In mei van dit jaar merkte Kasparov in een interview met Davin Coldway bij TechCrunch Disrupt op dat het ontwikkelen van een computer die op mondiaal niveau kan schaken één ding is, maar een dergelijke computer pure kunstmatige intelligentie noemen, omdat dat niet zo is, is iets heel anders. Het is gewoon een machine die al zijn rekenkracht gebruikt om een probleem op te lossen dat hij het beste kan.

“Bij schaken winnen machines dankzij de kracht van diepgaande berekeningen. Ze kunnen volledig onoverwinnelijk worden met een enorme database, zeer snelle hardware en meer logische algoritmen. Ze hebben echter geen begrip. Ze herkennen geen strategische patronen. De machines hebben geen doel, 'zei Kasparov.

Promotie video:

Gil Pratt, CEO van het Toyota Institute, Toyota's afdeling van AI en AI in robots voor thuis en zelfrijdende auto's, sprak ook met TechCrunch tijdens de Robotics Session. Naar zijn mening kan de angst die we horen van een breed scala aan mensen, waaronder Elon Musk, die kunstmatige intelligentie onlangs "een existentiële bedreiging voor de mensheid" noemde, te wijten zijn aan niets anders dan de dystopische beschrijvingen van de wereld die sciencefiction ons biedt.

“Onze huidige deep learning-systemen zijn slechts zo goed in het uitvoeren van hun toegewezen taken als we ze hebben ontworpen. Maar in werkelijkheid zijn ze behoorlijk gespecialiseerd en kleinschalig. Daarom vind ik het belangrijk om in de context van dit onderwerp elke keer te vermelden hoe goed ze zijn en hoe ondoeltreffend ze eigenlijk zijn. En ook hoe ver we zijn verwijderd van het punt waarop deze systemen de dreiging kunnen gaan vormen waar Elon Musk en anderen het over hebben”, aldus Pratt.

Brooks merkte op zijn beurt tijdens de TechCrunch Robotics Session op dat mensen in het algemeen de neiging hebben om te geloven dat als een algoritme de "X" -taak aankan, het blijkbaar net zo slim is als een persoon.

'Ik denk dat de reden waarom mensen, waaronder Elon Musk, deze fout maken, deze is. Als we zien dat iemand een zeer goede job doet met de taak die hem is toegewezen, begrijpen we dat hij een hoge competentie heeft op dit gebied. Het lijkt mij dat mensen hetzelfde model proberen toe te passen op machine learning. En dat is waar de grootste fout zit ', zegt Brooks.

Facebook-CEO Mark Zuckerberg hield afgelopen zondag een live-uitzending, waarin hij ook kritiek uitte op de opmerkingen van Elon Musk en ze "nogal onverantwoordelijk" noemde. Volgens Zuckerberg zal AI ons leven aanzienlijk kunnen verbeteren. Musk besloot op zijn beurt niet te zwijgen en antwoordde aan Zuckerberg dat hij "beperkt begrip" had van AI. Het onderwerp is nog niet afgesloten en Musk beloofde even later om meer in detail te reageren op de aanvallen van collega's in de IT-industrie.

Musk is overigens niet de enige die gelooft dat AI een potentiële bedreiging kan vormen. Natuurkundige Stephen Hawking en filosoof Nick Bostrom uiten ook hun bezorgdheid over het potentieel van kunstmatige intelligentie om door te dringen tot de manier van leven van de mensheid. Maar hoogstwaarschijnlijk hebben ze het over meer algemene kunstmatige intelligentie. Over wat wordt bestudeerd in laboratoria zoals Facebook AI Research, DeepMind en Maluuba, in plaats van de meer zeer gespecialiseerde AI, waarvan we het eerste begin vandaag kunnen zien.

Brooks merkt ook op dat veel van de critici van AI niet eens op dit gebied werken, en suggereerde dat deze mensen gewoon niet begrijpen hoe moeilijk het kan zijn om een oplossing te vinden voor elk individueel probleem op dit gebied.

“In feite zijn er niet veel mensen die AI als een existentiële bedreiging beschouwen. Stephen Hawking, de Britse astrofysicus en astronoom Martin Rees … en een paar anderen. De ironie is dat de meeste van hen één ding gemeen hebben: ze werken niet eens op het gebied van kunstmatige intelligentie,”zei Brooks.

"Voor degenen onder ons die met AI werken, is het vrij duidelijk hoe moeilijk het kan zijn om iets aan het werk te krijgen op het niveau van het eindproduct."

AI verkeerde voorstelling van zaken

Een deel van het probleem komt ook voort uit het feit dat we dit allemaal "kunstmatige intelligentie" noemen. De waarheid is dat deze "intelligentie" helemaal niet lijkt op menselijke intelligentie, die in naslagwerken en woordenschat gewoonlijk wordt beschreven als "het vermogen om te leren, te begrijpen en zich aan te passen aan nieuwe situaties".

Pascal Kaufman, CEO van Starmind, een startup die andere bedrijven helpt collectieve menselijke intelligentie te gebruiken om oplossingen voor bedrijfsproblemen te vinden, heeft de afgelopen 15 jaar neurowetenschappen gestudeerd. Het menselijk brein en de computer, merkt Kaufman op, werken heel anders, en het zou een duidelijke vergissing zijn om ze te vergelijken.

"De analogie - het brein werkt als een computer - is erg gevaarlijk en staat AI-vooruitgang in de weg", zegt Kaufman.

De expert is ook van mening dat we geen vooruitgang zullen boeken in het begrijpen van menselijke intelligentie als we het in technologische termen bekijken.

“Het is een misvatting dat algoritmen werken als het menselijk brein. Mensen houden gewoon van algoritmen, en daarom denken ze dat de hersenen kunnen worden beschreven met hun hulp. Ik denk dat dit fundamenteel verkeerd is”, voegt Kaufman toe.

Als er iets mis gaat

Er zijn veel voorbeelden waarbij AI-algoritmen lang niet zo slim zijn als we er vroeger aan dachten. En een van misschien wel de meest beruchte is het AI-algoritme Tay, gemaakt door Microsoft's AI-systeemontwikkelingsteam en vorig jaar uit de hand gelopen. Het kostte minder dan een dag om van de bot een echte racist te maken. Experts zeggen dat dit met elk AI-systeem kan gebeuren wanneer het met slechte rolmodellen wordt geconfronteerd. In het geval van Tay raakte ze onder de invloed van racistische en andere aanstootgevende woordenschatvormen. En aangezien het was geprogrammeerd om te ‘leren’ en ‘spiegelgedrag’, raakte het al snel buiten de controle van de onderzoekers.

Uit wijdverspreid onderzoek van Cornell en Wyoming is gebleken dat het heel gemakkelijk is om algoritmen voor de gek te houden die zijn getraind om digitale afbeeldingen te identificeren. Ze ontdekten dat een afbeelding die er voor mensen uitzag als 'door elkaar gegooide onzin', door het algoritme werd geïdentificeerd als een afbeelding van een alledaags voorwerp zoals een 'schoolbus'.

Volgens een artikel gepubliceerd in de MIT Tech Review waarin dit project wordt beschreven, is het niet helemaal duidelijk waarom het algoritme kan worden misleid zoals onderzoekers deden. Wat werd ontdekt, is dat mensen hebben geleerd te herkennen wat er voor hen staat - ofwel een zelfvoorzienend beeld, ofwel een soort onbegrijpelijk beeld. Algoritmen die op hun beurt pixels analyseren, zijn gemakkelijker te manipuleren en te misleiden.

Wat zelfrijdende auto's betreft, blijkt alles veel gecompliceerder te zijn. Er zijn enkele dingen die een persoon begrijpt wanneer hij zich voorbereidt om met bepaalde situaties om te gaan. Het zal erg moeilijk zijn om een machine dit te leren. Een groot artikel dat in januari van dit jaar door Rodney Brooks in een van de autoblogs is gepubliceerd, noemt verschillende voorbeelden van dergelijke situaties, waaronder een artikel waarin een zelfrijdende auto wordt beschreven die een stopbord nadert naast een voetgangersoversteekplaats in de stad. aan het begin waarvan een volwassene en een kind staan en communiceren.

Het algoritme zal hoogstwaarschijnlijk worden afgestemd om te wachten tot voetgangers de weg oversteken. Maar wat als deze voetgangers niet eens dachten om de weg over te steken, omdat ze staan te wachten op bijvoorbeeld een schoolbus? Een menselijke bestuurder zou in dit geval voetgangers kunnen toeteren, die in reactie daarop naar hem kunnen zwaaien en hem kunnen laten weten dat hij kan passeren. Een onbemand voertuig kan in een dergelijke situatie gewoon vast komen te zitten en eindeloos wachten tot mensen de weg oversteken, omdat het algoritme geen begrip heeft van dergelijke unieke menselijke signalen, schrijft Brooks.

Elk van deze voorbeelden laat zien hoe ver we nog moeten gaan in de ontwikkeling van kunstmatige intelligentie-algoritmen. Hoe goed gegeneraliseerde AI-ontwikkelaars kunnen slagen, is nog maar de vraag. Er zijn dingen waar een persoon gemakkelijk mee om kan gaan, maar het zal een echte marteling zijn om het algoritme te leren. Waarom? Omdat wij mensen niet beperkt zijn in ons leren tot een reeks specifieke taken.

Nikolay Khizhnyak

Aanbevolen: