Az új mesterséges intelligencia alapú nyelvi modell tudása 1 billió lexikai elemre épül

forrás: Prím Online, 2023. június 18. 14:10

Nyilvánosan is bemutatkozott és széles körben elérhetővé vált a világ első számú nyílt forráskódú nagy nyelvi modellje (LLM). A 40 milliárd paraméteres kapacitással rendelkező és az Amazon Web Services felhőalapú gépi tanulási platformja, az Amazon SageMaker-en egy billió lexikális elemre (token) betanított Falcon 40B. Az Abu Dhabi-i Technológiai Innovációs Intézet fejlesztést immár világszerte használhatják a kutatók, az üzleti élet szereplői. 

A nagy teljesítményű és pontosságú nyelvi modell nyílt forráskihelyezése révén a felhasználók hozzáférhetnek a Falcon 40B súlyaihoz, azaz a viselkedését és teljesítményét meghatározó paraméterekhez. Ezzel szeretnék elősegíteni a modell átláthatóságát, elszámoltathatóságát, valamint támogatni az egészségügytől kezdve az űrkutatáson, pénzügyeken át a biotechnológiáig mindenféle szektorban, a nyelvi modellekre vonatkozó kutatásokat, fejlesztéseket.

 

A felhasználók az Amazon SageMaker-en keresztül érhetik el a Falcon 40B-t és alkalmazhatják a képességeit többek között fordításra és tartalomkészítésére, az őket érdeklő tudományos, műszaki és sok más témákat érintő kérdéseik megválaszolására, elemzések összeállítására, vagy akár képek azonosítására. A Falcon LLM-ek ugyanakkor hozzáférhetőek az Amazon SageMaker JumpStartban is, a SageMaker gépi tanulás (ML) központjában, amely beépített algoritmusokat, előkészített megoldási sablonokat kínál, hogy a felhasználók gyorsan elkezdhessék az ML alkalmazását. A Falcon LLM-eket bárki telepítheti és használhatja a SageMaker Studio-ban vagy programozottan a SageMaker Python SDK-n keresztül. 

 

A Falcon 40B-ről további részletek a FalconLLM.tii.ae oldalon ismerhetőek meg.

 

Az innovációk bevezetésével az AWS továbbra is kulcsszerepet kíván játszani a gépi tanulás demokratizálásában, hogy az bárki számára elérhetővé váljék, beleértve a vállalat több mint 100 000 különböző méretű ügyfelét, számos iparágban.