A Fujitsu frissen bemutatott áttörő jelentőségű mélytanulási fejlesztése rendkívül hatékony, új memóriaelosztási mechanizmust alkalmaz a mély neurális hálózatoknál (Deep Neural Network, DNN).
A beszéd- és objektumfelismerést és kategorizálást végző AI-alkalmazásoknál széles körben használt neurális hálózatok működése rengeteg számítási erőforrást igényel, így komoly követelményeket támaszt a meglévő számítási infrastruktúrával szemben. A Fujitsu Laboratories of Europe új mélytanulási megoldása, a modellpárhuzamosítás képes arra, hogy automatizált, átlátható és könnyen kezelhető módon elossza a DNN memóriaigényét. Így további beruházások nélkül is jelentősen bővíthető a meglévő infrastruktúra nagyszabású AI-alkalmazásokhoz használható kapacitása.
„Az utóbbi években számos olyan új technológiai fejlesztés jelent meg, amely hardveres gyorsítással biztosítja az AI-alkalmazások mély neurális hálózatainak (DNN) kiépítéséhez szükséges óriási számítási kapacitást. A DNN számítási költségeinek folyamatos növekedése komoly kihívás, különösen, amikor a modellméret eléri azt a pontot, ahol már nem fér el egyetlen gyorsító memóriájában. Szélesebb és mélyebb neurális hálózatokra és finomabb kategorizálásra van szükség az AI új kihívásainak kezeléséhez. A megoldásaink erre a problémára közvetlenül reagálva, több gép között osztják el a DNN memóriaigényét. Technológiánkkal így kiterjeszthető a neurális hálózatok mérete, ami pontosabb és nagyobb DNN-modellek kidolgozását teszi lehetővé” – nyilatkozta Dr. Tsuneo Nakata, a Fujitsu Laboratories of Europe vezérigazgatója az új mélytanulási technológia előnyeiről.
A memória elosztásához az új technológia ekvivalens hálózatokra bontja az önkényesen felépülő neurális hálózatok egyes rétegeit, és a rétegek egy részét vagy egészét több kisebb alréteggel helyettesíti. Az alrétegek úgy vannak kialakítva, hogy funkcionálisan ekvivalensek legyenek az eredeti rétegekkel, de számítási szempontból sokkal hatékonyabban lehessen végrehajtani őket. Mivel az eredeti és az új rétegek is ugyanabból a profilból származnak, az átalakított és elosztott új DNN tanulási folyamata megegyezik az eredeti DNN-ével, így nem okoz többletköltséget.
A Fujitsu Laboratories of Europe behatóan tesztelte az új technológiát. Az új mechanizmust alkalmazta például a globális K+F közösség által széles körben használt Caffee nyílt forráskódú mélytanulási keretrendszerre. A megoldás több mint 90 százalékkal javította a memóriaeloszlást azzal, hogy az AlexNet teljes körűen csatlakoztatott rétegeit több NVIDIA GPU-vá alakította át. Hardverfüggetlen technológia lévén a megoldás képes arra, hogy egyszerre hasznosítsa a hagyományos processzorok és a jelenlegi illetve jövőbeni új hardvergyorsítók – pl. NVIDIA GPU-k, Intel Xeno Phi, FPGA-k, ASIC-ok és bármely egyéb, kifejezetten a mélytanulás számítási hatékonyságának növelésére fejlesztett alternatív hardverlapka – számítási teljesítményét.
Ábra: A modellpárhuzamosítás segítségével automatikus, átlátható és könnyen kezelhető módon csökken és oszlik el a DNN memóriaigénye
Az új megoldás alkalmazási területei lehetnek pl.: egészségügyi elemzések (pl. a cukorbetegség okozta ideghártyabántalom észlelése); műholdképek kategorizálása és elemzése; IoT-eszközök kiterjedt grafikonadatai; pénzügyi tranzakciók; közösségi hálózati szolgáltatások; természetes nyelv feldolgozása (amelynél nagyméretű mélytanulási modellekre van szükség az emberi nyelv teljes komplexitásának modellezéséhez és megismeréséhez); stb.