Wetenschappers Begrijpen Niet Meer Hoe Kunstmatige Intelligentie Werkt - Alternatieve Mening

Wetenschappers Begrijpen Niet Meer Hoe Kunstmatige Intelligentie Werkt - Alternatieve Mening
Wetenschappers Begrijpen Niet Meer Hoe Kunstmatige Intelligentie Werkt - Alternatieve Mening

Video: Wetenschappers Begrijpen Niet Meer Hoe Kunstmatige Intelligentie Werkt - Alternatieve Mening

Video: Wetenschappers Begrijpen Niet Meer Hoe Kunstmatige Intelligentie Werkt - Alternatieve Mening
Video: Kunnen we kunstmatige intelligentie nog doorgronden? 2024, Mei
Anonim

Wetenschappers en programmeurs begrijpen niet meer hoe kunstmatige intelligentie beslissingen neemt. Dit probleem werd door verschillende specialisten aangekondigd op de belangrijkste AI-conferentie - Neural Information Processing Systems - in Long Beach (Californië).

Deskundigen die door Quartz zijn geïnterviewd, zeggen dat ze moeten handelen voordat het systeem te complex wordt.

"We willen AI-beslissingen niet als vanzelfsprekend beschouwen zonder de logica ervan te begrijpen", zegt Jason Yosinski van Uber. "Wil de samenleving machine learning-modellen accepteren, dan moeten we weten hoe AI tot bepaalde conclusies komt."

Het probleem dat veel experts de "zwarte doos" noemen, is echt ernstig. Eerdere ervaring heeft aangetoond dat AI de neiging heeft om vooringenomen beslissingen te nemen en analogieën te trekken waar dat niet zou moeten. Aangezien neurale netwerken tegenwoordig geleidelijk de wetshandhaving, de gezondheidszorg, wetenschappelijk onderzoek en de algoritmen infiltreren die bepalen wat u op uw Facebook-nieuwsfeed ziet, kunnen AI-fouten erg duur zijn.

Als voorbeeld noemt Kiri Wagstaff, een AI-expert bij het Jet Propolusion Lab (NASA), een missie naar Mars. De apparaten bevinden zich 200 miljoen mijl van de aarde en kosten honderden miljoenen dollars, dus fouten in het werk van AI zijn gewoon onaanvaardbaar.

“Mensen moeten weten wat AI doet en waarom. Hoe kunnen ze er anders op vertrouwen dat hij dure apparatuur controleert?”, Zegt Wagstaff.

Op dit moment werkt de wetenschapper aan een algoritme dat afbeeldingen sorteert die zijn gemaakt door verschillende NASA-ruimtevaartuigen. Omdat het aantal afbeeldingen in de miljoenen ligt, kunt u met de computer de meest interessante afbeeldingen sorteren en markeren zonder veel tijd aan dit proces te besteden. Het probleem ligt echter in het feit dat vaak alleen de AI weet waarom bepaalde afbeeldingen die hij selecteert, ongebruikelijk zijn.

Dus, concludeert Wagstaff, als er een fout in dit algoritme zit, kan het op een dag zeer belangrijke informatie missen.

Promotie video:

“Eigenlijk geeft de computer je een beeld en zegt: 'Kijk, dit is interessant.' Maar je kunt niet altijd begrijpen waarom het interessant is: vanwege de kleur, vorm van objecten of hun locatie in de ruimte - dit weet je waarschijnlijk niet ”, zegt de wetenschapper.

Hannah Wallach, senior onderzoeker bij Microsoft, is het eens met de conclusies van haar collega's.

“Naarmate machine learning wijdverspreider wordt en de inzet stijgt, kunnen we deze systemen niet langer als zwarte dozen zien. We moeten begrijpen wat er in hen gebeurt en wat ze doen,”zei de onderzoeker.

Wetenschappers proberen gelukkig methoden te vinden om de logica van kunstmatige intelligentie te begrijpen. Daarom presenteerde Google-onderzoeker Mitra Raghu een rapport dat het proces beschrijft van het volgen van de acties van individuele "neuronen" van een neuraal netwerk. Door miljoenen operaties te analyseren, was ze in staat om erachter te komen welke van de kunstmatige "neuronen" zich richtten op misvattingen, en ze uit te schakelen. Dit bewijst dat het vertalen van het werk van neurale netwerken in een vorm die toegankelijk is voor menselijk begrip niet zo'n onmogelijke taak is.

Een andere mogelijkheid om het probleem op te lossen, is door regelmatig de vaardigheden te testen die zijn ontwikkeld door kunstmatige intelligentie.

"Het is net als leraren die kinderen vragen om in hun eigen woorden na te vertellen wat ze begrepen uit de uitleg van de leraar", zegt Wagstaff.

Dat gezegd hebbende, het belang van het begrijpen van de binnenkant van het algoritme is niet alleen om te voorkomen dat een hypothetische rover van een Mars-rots valt; Als je beseft wat de storing is, kun je bestaande systemen nog beter maken.

"Als je systeem niet werkt en je weet niet waarom, dan is het erg moeilijk om er iets aan te doen", zegt Yosinski. "Als je weet wat er is gebeurd, kan de situatie altijd worden gecorrigeerd."

Gebruikte materialen van de site hightech.fm

Aanbevolen: