Wetenschapper: Er Zijn Geen Fundamentele Beperkingen Voor Het Creëren Van Een Intelligente Machine - Alternatieve Mening

Inhoudsopgave:

Wetenschapper: Er Zijn Geen Fundamentele Beperkingen Voor Het Creëren Van Een Intelligente Machine - Alternatieve Mening
Wetenschapper: Er Zijn Geen Fundamentele Beperkingen Voor Het Creëren Van Een Intelligente Machine - Alternatieve Mening

Video: Wetenschapper: Er Zijn Geen Fundamentele Beperkingen Voor Het Creëren Van Een Intelligente Machine - Alternatieve Mening

Video: Wetenschapper: Er Zijn Geen Fundamentele Beperkingen Voor Het Creëren Van Een Intelligente Machine - Alternatieve Mening
Video: Abel Herzberglezing 2019 door Robbert Dijkgraaf 2024, September
Anonim

Mikhail Burtsev, hoofd van het laboratorium voor neurale systemen en diep leren aan het Moscow Institute of Physics and Technology, vertelt of het mogelijk is om een volwaardige computeranaloog van de menselijke geest te maken, en legt uit waarom wetenschappers het ontwikkelen en hoe het kan worden beschermd tegen aanvallen van trol.

Eind juli lanceerden wetenschappers van MIPT een internationale wedstrijd voor "gesproken" kunstmatige intelligentiesystemen die in staat zijn om een levend persoon te imiteren, en nodigden iedereen uit die met hen wilde communiceren en de resulterende dialogen wilde evalueren. Met behulp van vrijwilligers hopen wetenschappers in de komende drie jaar een stemassistent te creëren die bijna net zo goed met een persoon kan communiceren als met een levende gesprekspartner.

De wedstrijd werd mede georganiseerd door wetenschappers van de universiteiten van Montreal, McGill en Carnegie Mellon. U kunt deelnemen aan het testen van dialoogsystemen door de link te volgen.

In feite zijn deze ideeën vandaag niet uitgevonden - moderne stemassistenten van Google, Apple, Amazon en andere IT-bedrijven zijn geworteld in het diepe verleden, aan het begin van het computertijdperk. De eerste dergelijke praatmachine, ELIZA genaamd, werd in 1966 gemaakt en was in feite een grap, een parodie op een psychotherapeut die nutteloos advies gaf aan een patiënt.

In de daaropvolgende jaren en decennia creëerden programmeurs steeds complexere en "live" systemen voor communicatie met een computer. De meest geavanceerde van deze systemen kunnen de gemoedstoestand van de eigenaar herkennen, zijn oude verlangens en voorkeuren onthouden en een aantal van de routine- en huishoudelijke taken voor hem oplossen, eten of goederen bestellen in de winkel of de rol van telefoniste in callcenters spelen.

Mikhail, er zijn bijna 50 jaar verstreken sinds de oprichting van ELIZA. Wat is er in deze periode in het algemeen veranderd en kan men in principe verwachten dat wetenschappers in de toekomst een dergelijk systeem kunnen creëren dat mensen niet kunnen onderscheiden van een levende gesprekspartner?

- Ik denk dat het in de nabije toekomst mogelijk zal zijn om een gesproken intelligentietechnologie te creëren waarmee de machine het niveau van menselijke dialoog kan benaderen. We werken aan deze taak binnen het iPavlov-project, dat deel uitmaakt van het National Technology Initiative.

De gebruiker moet net zo comfortabel zijn om te communiceren met een automatisch dialoogsysteem als met een levend persoon. Dit zal het mogelijk maken om informatiesystemen te creëren die in staat zijn om beter te begrijpen wat iemand van hem wil en op hem te reageren in natuurlijke taal.

Promotie video:

Conversational intelligence kan worden gebruikt om veel spraak- en tekstinterfaces te automatiseren, inclusief boodschappers zoals Telegram. Zoals uit statistieken blijkt, worden boodschappers tegenwoordig actiever gebruikt dan sociale netwerken, en een zeer grote hoeveelheid informatie gaat via tekstcommunicatiekanalen.

Ze zijn bijvoorbeeld handig in gebruik tijdens het transport en door de toevoeging van een dialoogassistent - een chatbot - kunnen gebruikers niet alleen met elkaar communiceren, maar ook de nodige informatie ontvangen, aankopen doen en vele andere dingen doen. Dit zal ertoe leiden dat instant messengers en stemassistenten geleidelijk de gebruikelijke webpagina's en applicaties zullen vervangen en ook de rol zullen spelen van online consultants en callcenterspecialisten.

Kan Rusland, gezien de aanwezigheid van Apple, Google en Amazon op deze markt, hier concurreren? Is er enige specificiteit in de Russische taal die potentiële concurrenten van Russische bedrijven en wetenschappers zou kunnen hinderen?

- Natuurlijk is de Russische taal complexer en sommige van de methoden die tegenwoordig worden gebruikt bij de ontwikkeling van dialoogsystemen en stemassistenten in de wereld, kunnen niet worden toegepast zonder verfijning en ingrijpende wijzigingen waardoor ze met rijkere grammatica kunnen werken.

Aan de andere kant, de basisalgoritmen die worden gebruikt in het werk van Siri, Cortana, Google en andere digitale assistenten, verbergt niemand - ze zijn voor ons in ieder geval beschikbaar op het niveau van onderzoek en concepten. Onderzoeksartikelen en programmacode zijn vaak openbaar beschikbaar - in principe kan deze worden aangepast aan het Russisch.

Mikhail Burtsev, hoofd van het laboratorium voor neurale systemen en diep leren, MIPT
Mikhail Burtsev, hoofd van het laboratorium voor neurale systemen en diep leren, MIPT

Mikhail Burtsev, hoofd van het laboratorium voor neurale systemen en diep leren, MIPT

Bovendien zijn er niet veel pogingen om dit op "industrieel" niveau te implementeren. Het enige grote project wordt gerund door Yandex, dat een assistent ontwikkelt voor het Alice-project.

In ons project proberen we tools te creëren die de creatie van dergelijke "industriële" dialoogsystemen, ontworpen voor verschillende doeleinden, zouden vereenvoudigen en versnellen. Maar het ontwikkelen van een universele stemassistent die elk probleem kan oplossen, is een buitengewoon moeilijke taak, zelfs voor grote bedrijven.

Aan de andere kant is het veel gemakkelijker om een klein bedrijf te automatiseren dat een gespecialiseerd dialoogsysteem zal gebruiken. We hopen dat de tools die we zullen creëren, ondernemers en programmeurs zullen helpen om dergelijke problemen snel genoeg op te lossen, zonder diepgaande kennis te hebben en zonder hiervoor superinspanningen te doen.

Veel wetenschappers, zoals Roger Penrose of Stuart Hameroff, geloven dat de menselijke geest van kwantum-aard is en dat het in principe onmogelijk is om zijn machine-analoog te bouwen. Ben je het met hen eens of niet?

- Naar mijn mening, als je kijkt naar wat we vandaag weten over de structuur van de hersenen en de aard van het menselijk bewustzijn, dan hebben we tot dusver geen fundamentele obstakels om zijn werk met een computer te reproduceren.

Penrose en Hameroff hebben een reeks hypothesen die volgens hen verklaren waarom dit niet kan. Tot dusverre hebben neurofysiologen geen experimenteel bewijs gevonden dat deze hypothesen correct zijn, en onze huidige kennis is voor het tegenovergestelde.

Een ander ding is dat het tijdsbestek voor wanneer zo'n machine zal worden gemaakt, niet volledig gedefinieerd blijft. Het lijkt mij dat dit over minstens 50 of zelfs 100 jaar kan gebeuren.

Zijn hiervoor fundamenteel nieuwe technologieën en computers nodig die qua werkingsprincipes dichter bij neuronen staan dan bij digitale logica?

- Als we geloven dat menselijke intelligentie is gebaseerd op een of andere vorm van berekening, dan kan elk universeel computersysteem dat equivalent is aan een Turing-machine, in theorie het werk van het menselijk brein nabootsen.

Een ander ding is dat deze machine erg langzaam kan draaien, waardoor hij praktisch onbruikbaar wordt. Tegenwoordig is het moeilijk te raden welke technologieën voor het bouwen van computers we hier nodig zullen hebben.

Welke andere taken kunnen digitale assistenten oplossen, naast de dingen die ze vandaag doen? Kunnen ze worden gebruikt om teksten in dode talen of coderingen zoals het Voynich-manuscript te ontcijferen?

- Op dit moment heeft, voor zover ik weet, niemand geprobeerd neurale netwerken te gebruiken om de geheimen van dode talen te achterhalen en teksten te ontcijferen, maar het lijkt mij dat iemand dit in de nabije toekomst zal proberen te doen. Wij zijn op onze beurt nog niet in dergelijke zaken geïnteresseerd.

"Helper" is eigenlijk een heel breed concept dat veel heel verschillende dingen kan omvatten. Als we bijvoorbeeld dezelfde ELIZA nemen, een virtuele "psychotherapeut", rijst de vraag: is zij assistente of niet?

Dialoogsystemen kunnen niet alleen worden gebruikt om praktische problemen op te lossen, maar ook om mensen te entertainen of hun stemming te behouden. De vraag hier is in feite wat we bedoelen met het concept van een persoonlijke assistent en hoe breed of smal het is. In de meest brede zin kunnen dergelijke systemen alle problemen met communicatie oplossen, zij het met wisselend succes.

Conversationele interfaces kunnen, naast directe communicatie met mensen, ook worden gebruikt om machines te leren snel een gemeenschappelijke taal te vinden en informatie over te dragen van het ene systeem naar het andere.

Dit omzeilt het probleem van het tot stand brengen van koppelingen en het overdragen van gegevens tussen bestaande en gecreëerde services, aangezien ze elkaars API-specificaties niet hoeven te kennen om met elkaar te communiceren. Ze zullen gegevens kunnen uitwisselen met behulp van natuurlijke talen of hun eigen kunstmatige taal die door machines of mensen voor dergelijke doeleinden zal worden uitgevonden.

Ruwweg gesproken zullen zelfs systemen die elkaar "onbekend" zijn, kunnen overeenkomen dat ze een gemeenschappelijke communicatietaal gebruiken, en geen vaste regels voor de uitwisseling van informatie. Is er iets niet duidelijk voor hen, dan kunnen ze elkaar naar onbekende dingen vragen, waardoor de hele infrastructuur voor het aanbieden van diensten en diensten op internet ongelooflijk flexibel wordt en snel nieuwe diensten kan worden geïntegreerd zonder de hulp van mensen.

In dit verband rijst de vraag - wie zou verantwoordelijk moeten zijn voor de aanbevelingen van de "psychotherapeut" ELIZA, computerartsen en andere stemassistenten, wiens advies grote invloed kan hebben op het welzijn en de gezondheid van een persoon?

- Dit is een zeer moeilijke vraag, aangezien er vandaag geen duidelijke criteria zijn die ons zouden helpen begrijpen hoe we in dergelijke gevallen moeten handelen. Veel internetservices en -services die aanbevelingen doen aan gebruikers, beginnen pas te werken nadat de gebruiker akkoord is gegaan met de servicevoorwaarden en de gevolgen die kunnen voortvloeien uit het werken ermee.

Het lijkt mij dat het werk van chatbots en stemassistenten - althans in de vroege stadia van hun bestaan - op een vergelijkbare manier zou kunnen worden gereguleerd. Als een bot bijvoorbeeld simpelweg informatie zoekt en analyseert, en zich op vrijwel dezelfde manier gedraagt als een zoekmachine, dan kunnen dezelfde regels erop worden toegepast. In het geval dat hij medisch of juridisch advies geeft, moet de vorm van verantwoordelijkheid anders zijn.

Dergelijke systemen moeten de gebruiker bijvoorbeeld duidelijk informeren over de gevolgen van de keuze tussen kunstmatige intelligentie en een gewone arts. Een persoon zal een keuze hebben - de dokter vertrouwen, die bijvoorbeeld in 10% van de gevallen ongelijk zal hebben, of te wedden op een machine die in 3% van de gevallen het verkeerde antwoord geeft. In het eerste geval is de arts verantwoordelijk voor de fout en in het tweede geval de gebruiker zelf.

Vorig jaar lanceerde Microsoft de Tay. AI-chatbot, die hij een dag later letterlijk moest uitschakelen omdat netizens van een tienermeisje een echte racist maakten. Is het mogelijk om dergelijke dialoogsystemen te beschermen tegen trollen en grappenmakers?

- Het lijkt mij dat je jezelf kunt verdedigen, maar of het de moeite waard is, hangt af van het doel van het systeem. Het is duidelijk dat als het systeem geen specifieke opmerkingen zou maken - onbeschoft of extremistisch, we de antwoorden kunnen filteren. Dit filteren kan plaatsvinden tijdens het trainen van het systeem of al tijdens het genereren van reacties.

Overigens werd een gelijkaardige taak van het beoordelen van de kwaliteit van de dialoog opgelost door teams in het kader van de wetenschappelijke school-hackathon DeepHack Turing, die enkele weken geleden plaatsvond bij MIPT. De deelnemers ontwikkelden algoritmen die aan de hand van de signalen in de dialoog konden voorspellen wat voor soort beoordeling iemand aan het dialoogsysteem zou geven.

De volgende stap in de ontwikkeling van deze benadering is het creëren van een programma dat de aanvaardbaarheid van zinnen of de betrouwbaarheid van bronnen die worden gebruikt bij het genereren van antwoorden op gebruikersvragen, evalueert. Het lijkt mij dat het zou helpen om dit probleem op te lossen.

Aanbevolen: