In een blogpost vertelde DeepMind, een dochteronderneming van Google, over een experiment met het testen van kunstmatige-intelligentiemodellen op generalisatie en abstracte denkvaardigheden. Deskundigen hebben een generator ontwikkeld die vragen stelt op basis van het concept van progressie, kleureigenschappen, vormen of maten en hun relaties. Vergelijkbare taken zijn te vinden in IQ-tests voor mensen.
IQ-testnauwkeurigheid
De meeste modellen beantwoordden de vragen met een nauwkeurigheid van 75%. Daarbij vonden de onderzoekers een sterke correlatie tussen taakuitvoering en het vermogen om onderliggende abstracties te identificeren. Ze slaagden erin de efficiëntie te verhogen door algoritmen te trainen om hun antwoorden uit te leggen, om te laten zien welke relaties en eigenschappen in een bepaald probleem moeten worden overwogen.
Sommige modellen slagen er echter niet in om de bestudeerde relaties over te dragen naar nieuwe eigenschappen, bijvoorbeeld als ze getraind is om logische sequenties te identificeren in relatie tot de kleur van objecten, en de taak vereist om een afhankelijkheid vast te stellen op basis van hun vorm.
Het team ontdekte dat als het neurale netwerk zijn kennis van relaties correct extrapoleerde naar een nieuwe combinatie van waarden, de nauwkeurigheid van de taken toenam tot 87%. Bij onjuiste extrapolatie daalde het tot 32%.
De gedetailleerde voortgang van het onderzoek en de resultaten zijn door de ontwikkelaars in het artikel gepubliceerd.
Promotie video:
In februari 2018 trainden Facebook AI Research-ontwikkelaars ook kunstmatige intelligentie om de acties ervan uit te leggen. Over het algemeen stelt deze techniek u in staat om de logica van het oplossen van een probleem te volgen en problemen te identificeren waardoor u er niet mee om kunt gaan.