De Wetenschapper Zei Dat 70 Jaar Op Het Gebied Van AI-onderzoek Praktisch Verspild Zijn - Alternatieve Mening

Inhoudsopgave:

De Wetenschapper Zei Dat 70 Jaar Op Het Gebied Van AI-onderzoek Praktisch Verspild Zijn - Alternatieve Mening
De Wetenschapper Zei Dat 70 Jaar Op Het Gebied Van AI-onderzoek Praktisch Verspild Zijn - Alternatieve Mening

Video: De Wetenschapper Zei Dat 70 Jaar Op Het Gebied Van AI-onderzoek Praktisch Verspild Zijn - Alternatieve Mening

Video: De Wetenschapper Zei Dat 70 Jaar Op Het Gebied Van AI-onderzoek Praktisch Verspild Zijn - Alternatieve Mening
Video: De logica van AI 2024, Mei
Anonim

De grootste les die we kunnen trekken uit 70 jaar AI-onderzoek is dat algemene methoden die berekeningen gebruiken uiteindelijk het meest efficiënt zijn - en met een ruime marge. De ultieme reden hiervoor is de wet van Moore. Of beter gezegd, de veralgemening ervan: de voortdurende, exponentiële verlaging van de kosten van computerprocessors. Deze "bittere les" werd gedeeld door Richard Sutton, een Canadese computerwetenschapper. Verder - vanaf de eerste persoon.

Image
Image

Waarom ligt het onderzoek naar kunstmatige intelligentie al 70 jaar stil?

Het meeste AI-onderzoek is uitgevoerd alsof de berekeningen die beschikbaar zijn voor de agent persistent waren (en in dit geval zou het gebruik van menselijke kennis een van de weinige manieren zijn om de prestaties te verbeteren). Maar na verloop van tijd - veel meer dan een typisch onderzoeksproject nodig heeft - komt er onvermijdelijk veel meer berekeningen beschikbaar. Op zoek naar verbeteringen die op korte termijn kunnen helpen, proberen wetenschappers de menselijke kennis op dit gebied te maximaliseren, maar het enige dat er op de lange termijn toe doet, is het toenemende gebruik van computers. Deze twee aspecten mogen niet met elkaar in strijd zijn, maar in de praktijk wel. De tijd die aan een van hen wordt besteed, is niet gelijk aan de tijd die aan de andere wordt besteed. Er zijn psychologische verplichtingen om in een of andere benadering te investeren. En de benadering van menselijke kennis heeft de neiging methoden zodanig te compliceren dat ze minder geschikt worden om te profiteren van algemene methoden die berekeningen gebruiken.

Er zijn veel voorbeelden van AI-onderzoekers die deze bittere les te laat hebben begrepen. Het zal leerzaam zijn om enkele van de meest prominente voorbeelden te beschouwen.

Bij computerschaken waren de methoden die wereldkampioen Kasparov in 1997 versloeg, gebaseerd op massaal, diepgaand zoeken. Destijds werden ze met ontzetting bekeken door de meeste computerschaakonderzoekers die methoden gebruikten die waren gebaseerd op menselijk begrip van de specifieke structuur van schaken. Toen een eenvoudigere, op zoekopdrachten gebaseerde benadering met gespecialiseerde hardware en software veel effectiever bleek te zijn, gaven onderzoekers die voortbouwen op het menselijke begrip van schaken geen nederlaag toe. Ze zeiden: “Deze keer mag de brute-force-aanpak hebben gewonnen, maar het zal geen algemene strategie worden en zeker mensen schaken niet op die manier. Deze wetenschappers wilden dat op mensen gebaseerde methoden zouden winnen, en waren erg teleurgesteld toen ze dat niet deden.

Promotie video:

Een soortgelijk beeld van de voortgang van het onderzoek werd gezien bij computer go, alleen met een vertraging van nog eens 20 jaar. Aanvankelijk werden er grote inspanningen geleverd om te voorkomen dat zoeken met menselijke kennis of gameplay, maar al deze inspanningen waren niet nodig of zelfs erger toen de zoekopdracht effectief en op grote schaal werd toegepast. Het was ook belangrijk om leren te gebruiken in het proces van onafhankelijk spelen om de waardefunctie te leren (zoals het geval was in veel andere spellen en zelfs bij schaken, speelde alleen leren geen grote rol in het programma van 1997, dat voor het eerst de wereldkampioen versloeg). Leren spelen met zichzelf, leren als geheel, is als een zoektocht waarmee je enorme reeksen berekeningen kunt toepassen. Zoeken en leren zijn twee van de belangrijkste soorten technieken die bij AI-onderzoek enorme hoeveelheden berekeningen vergen. Ga op de computerNet als bij computerschaken waren de eerste inspanningen van onderzoekers gericht op het gebruik van menselijk begrip (zodat er minder gezocht werd), en veel meer succes werd pas veel later bereikt door het gebruik van zoeken en leren.

Op het gebied van spraakherkenning werd in de jaren zeventig een door DARPA gesponsorde wedstrijd gehouden. De deelnemers presenteerden verschillende methoden die gebruik maakten van menselijke kennis - kennis van woorden of fonemen, het menselijk spraakkanaal, enzovoort. Aan de andere kant van de barricades waren er nieuwere methoden, statistisch van aard en meer berekeningen, gebaseerd op Hidden Markov Models (HMM). Nogmaals, statistische methoden wonnen het van op kennis gebaseerde methoden. Dit leidde tot grote veranderingen in alle natuurlijke taalverwerking die in de loop van de decennia geleidelijk werden geïntroduceerd, totdat uiteindelijk statistieken en berekeningen het veld begonnen te domineren. De recente opkomst van deep learning in spraakherkenning is de allernieuwste stap in deze consistente richting. Diep leren is nog minder afhankelijk van menselijke kennis en gebruikt nog meer berekeningen, samen met training op enorme reeksen samples, en produceert verbazingwekkende spraakherkenningssystemen.

Richard Sutton, Canadese computerwetenschapper
Richard Sutton, Canadese computerwetenschapper

Richard Sutton, Canadese computerwetenschapper.

Net als in games hebben wetenschappers altijd geprobeerd systemen te creëren die werken zoals ze zich in hun hoofd hadden voorgesteld - ze probeerden deze kennis in hun systemen te stoppen - maar het kwam allemaal buitengewoon onproductief uit, wetenschappers verspilden gewoon tijd terwijl ze - vanwege de wet van Moore - steeds meer massale berekeningen kwamen beschikbaar en vonden uitstekende toepassingen.

Een soortgelijk beeld was op het gebied van computervisie. De eerste methoden werden gezien als een zoektocht naar bepaalde contouren, gegeneraliseerde cilinders of het gebruik van de mogelijkheden van SIFT (schaalinvariante transformatie van kenmerken). Maar vandaag werd dit alles in de oven gegooid. Moderne diepgaande neurale netwerken gebruiken alleen het concept van convolutie en bepaalde invarianten en presteren veel beter.

Dit is een geweldige les.

Waar we ook kijken, we maken overal dezelfde fouten. Om dit te zien en er effectief mee om te gaan, moet je begrijpen waarom deze fouten zo aantrekkelijk zijn. We moeten de bittere les leren dat het bouwen van hoe we denken op basis van hoe we denken op de lange termijn niet zal werken. Een bittere les gebaseerd op historische observaties toont aan dat: 1) AI-onderzoekers vaak hebben geprobeerd kennis in hun agenten in te bouwen; 2) het hielp altijd op korte termijn en bracht de wetenschappers tevreden; 3) maar op de lange termijn kwam alles tot stilstand en stond verdere vooruitgang in de weg; 4) disruptieve vooruitgang kwam onvermijdelijk met de tegenovergestelde benadering, gebaseerd op schaalberekening door zoeken en leren. Succes had een bittere smaak en werd vaak niet volledig opgenomen.omdat het het succes van computers is, niet het succes van mensgerichte benaderingen.

Een ding dat we uit deze bittere les kunnen leren, is de enorme kracht van methoden voor algemeen gebruik, methoden die blijven groeien met de groei van de berekening, zelfs als de beschikbare berekening erg groot wordt. Twee methoden die op deze manier willekeurig lijken te schalen, zijn zoeken en leren.

Het tweede dat uit deze bittere les geleerd moet worden, is dat de feitelijke inhoud van de geest buitengewoon en onnodig complex is; we moeten stoppen met het zoeken naar eenvoudige manieren om de inhoud van de geest te begrijpen, vergelijkbaar met eenvoudige manieren om ruimte, objecten, meerdere agenten of symmetrieën te begrijpen. Ze maken allemaal deel uit van een willekeurig complexe externe wereld. We moeten niet proberen erop voort te bouwen, omdat hun complexiteit oneindig is; we moeten voortbouwen op metamethoden die deze willekeurige complexiteit kunnen vinden en vangen. Deze methoden kunnen goede benaderingen vinden, maar het zoeken ernaar moet door onze methoden worden uitgevoerd, niet door ons. We hebben AI-agenten nodig die op dezelfde manier kunnen ontdekken als wij, en niet kunnen bevatten wat we hebben ontdekt. Voortbouwen op onze ontdekkingen maakt het proces van ontdekken en zoeken alleen maar ingewikkelder.

Ilya Khel

Aanbevolen: