Nieuwe Technologie Van IBM Heeft Het Mogelijk Gemaakt Om AI-training 4 Keer Te Versnellen - - Alternatieve Mening

Nieuwe Technologie Van IBM Heeft Het Mogelijk Gemaakt Om AI-training 4 Keer Te Versnellen - - Alternatieve Mening
Nieuwe Technologie Van IBM Heeft Het Mogelijk Gemaakt Om AI-training 4 Keer Te Versnellen - - Alternatieve Mening

Video: Nieuwe Technologie Van IBM Heeft Het Mogelijk Gemaakt Om AI-training 4 Keer Te Versnellen - - Alternatieve Mening

Video: Nieuwe Technologie Van IBM Heeft Het Mogelijk Gemaakt Om AI-training 4 Keer Te Versnellen - - Alternatieve Mening
Video: 50 Ultimate Excel Советы и хитрости для 2020 2024, Mei
Anonim

De computationele efficiëntie van kunstmatige intelligentie is als een tweesnijdend zwaard. Enerzijds moet het vrij snel leren, maar hoe meer het neurale netwerk "versnelt", hoe meer het energie verbruikt. Dit betekent dat het simpelweg onrendabel kan worden. IBM kan echter een uitweg bieden, die nieuwe methoden heeft gedemonstreerd om AI te onderwijzen, waardoor het meerdere keren sneller kan leren met hetzelfde niveau van hulpbronnen- en energiekosten.

Om deze resultaten te bereiken, moest IBM afzien van computationele methoden met 32-bits en 16-bits technieken, en een 8-bits techniek ontwikkelen, evenals een nieuwe chip om ermee te werken.

Alle IBM-ontwikkelingen werden gepresenteerd op NeurIPS 2018 in Montreal. De ingenieurs van het bedrijf hadden het over twee ontwikkelingen. De eerste heet "deep machine learning van neurale netwerken met behulp van 8-bits drijvende-kommagetallen." Daarin beschrijven ze hoe ze erin slaagden om de rekenkundige precisie voor applicaties op zo'n manier te verminderen van 32-bit naar 16-bit en het op een 8-bit-model te houden. Experts beweren dat hun techniek de trainingstijd van diepe neurale netwerken 2-4 keer versnelt in vergelijking met 16-bits systemen. De tweede ontwikkeling is "8-bits vermenigvuldiging in geheugen met geprojecteerd faseovergangsgeheugen." Hier onthullen experts een methode die de lage betrouwbaarheid van analoge AI-chips compenseert door ze 33 keer minder stroom te laten verbruiken dan vergelijkbare digitale AI-systemen.

Vladimir Kuznetsov