Felelősségteljes mesterséges intelligencia fejlesztés – jó úton járunk?
Az utóbbi időszakban különösen nagy figyelmet kapott a különféle mesterséges intelligencia modellek nagyközönség számára való elindítása. A generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatok megnövekedtek, különösen a szerzői jogi kérdések területén, de az ilyen eszközöket alkalmazó vállalatoknak olyan kockázatokra is komoly figyelmet kell fordítaniuk, mint a rendszer-kimenetek helyessége és megmagyarázhatósága, vagy a negatív előítéletek kiszűrése.
A ChatGPT (társalgási nyelvi-rendszer) és a DALL-E (szöveget képpé alakító alkalmazás) elindításával a generatív mesterséges intelligencia (MI) különösen nagy figyelmet kap, és egyre népszerűbb. A generatív MI gépi tanulást használ új tartalmak, pl. szövegek, képek, programkódok, költemények vagy grafikák, előállításához. A legtöbb munkavállaló attól tart, hogy a DALL-E átalakíthatja a hirdetések, a filmkészítés, valamint a játékok világát, a ChatGPT pedig munkahelyeket válthat ki tartalom- és szöveggyártás, oktatás, szoftverfejlesztés és újságírás bizonyos területein.
„Ezek az aggodalmak nem alaptalanok, de nem is ennyire fekete-fehér a történet: a munkahelyek biztosan átalakulóban vannak, azonban továbbra is versenyben marad az, aki megtanulja az MI eszközöket jól és az előnyére használni, együtt élni velük, jól alkalmazni azokat munkájában, saját területén – aki az új eszközökkel együtt tud dolgozni, nem nélkülözhetetlen, hanem keresett szakember lesz.” – mondta Dr. Barta Gergő, a Deloitte Vezető MI szakértője.
Vannak vállalatok, melyek a szerzői jogok megsértésével kapcsolatos aggályok és felelősségek miatt nem engedélyezik az MI által létrehozott tartalmak felhasználását. Számos, stock-fotót gyűjtő platform pedig a művészek és fotósok kérésére MI által létrehozott képek használatát tiltotta be. A ChatGPT alkalmazásának terjedésével megnőtt az oktatásban a plágium kockázata, ezért bizonyos városok állami iskoláiban tilos a nyelvi modell használata.
Bizonytalanság az MI-ben: mennyire lehetünk benne biztosak, hogy helyes a kimenet?
Mit nevezünk kimenetnek? Amikor egy feltett kérdésre választ adunk, gyakran kezdjük mondatunkat azzal, hogy „Nem vagyok biztos benne, de…”, vagy „Ez csak egy sejtés, de…” – attól függően, hogy mennyire vagyunk biztosak válaszunk helyességében. Ezzel szemben a ChatGPT gyakran szabadkozás nélkül kimenetet produkál. A ChatGPT korlátait sorolva az Open AI így fogalmaz: „A ChatGPT néha hihetően hangzó, ugyanakkor helytelen válaszokat ad.” Egy kódolással foglalkozó Q&A platform éppen ezért tiltotta be a ChatGPT használatát: „A ChatGPT által generált válaszok közzététele kifejezetten káros az oldalra nézve… mivel ezen válaszok jónak tűnhetnek, mégis nagy arányban tévesek”. Több olyan esetről is tudunk, amikor a ChatGPT nevetséges hibát vétett a matematika és a logika területein, előfordult, hogy az algebrai jelöléseket használta rosszul, illetve olyan területeken, amilyen pl. a sakk is, ahol a számítógépek köztudottan képesek felülmúlni az emberi teljesítményt, a ChatGPT irracionális lépéseket hajtott végre, tökéletes pókerarccal.
A chatbot hamis önbizalmán keresztül megnő a téves információ terjesztésének, a félretájékoztatásnak a kockázata. A ChatGPT információs oldala kifejti, hogy ez kihívást jelent, mivel „jelenleg a biztonságos információforrás nem áll rendelkezésre” és „ha a modellt nagyobb óvatosságra tanítják, elutasíthatja azoknak a kérdések megválaszolását, amelyekre egyébként helyesen tudna válaszolni”.
„Ugyan tesztelési célokból érdemes lehet inkább helytelenül megválaszolni egy kérdést, mint a választ megtagadni, valós helyzetben történő alkalmazás esetén a rossz válasz nagyobb károkkal és költségekkel járhat, mint a semmilyen válasz. Az elővigyázatosság szükséges mértéke téma- és feladatkörönként eltérő lehet. Annak érdekében, hogy a felhasználók megbízhassanak a generált szöveg tartalmában, a létrehozott szöveg nem lehet egyformán magabiztos minden témában. Az olyan nagy nyelvi modelleknek – Large Language Models, LLM – , amilyen a ChatGPT is, jelenlegi formájukban fontolóra kellene venniük, hogy tisztázó kérdéseket tegyenek fel, ismerjék fel a tudásbázisuk korlátait, kis mértékű bizonyossággal adják meg a válaszokat és adott esetben egy egyszerű „nem tudom a választ” szöveggel térjenek vissza.” – mondta Barta Gergő.
Megmagyarázhatóság: honnan származik a generált információ?
A fő kihívás a ChatGPT kimenetelének azonosításában az, hogy nem rendelkezik egy egyértelmű információforrással. Ellentétben más MI alapú személyi asszisztensekkel, amilyen a Siri vagy az Alexa, melyek internetes keresőmotorok segítségével keresik a választ, a ChatGPT-t úgy tanították, hogy a mondatokat a következő, statisztikailag valószínű nyelvi egységre vonatkozó találgatások sorozatával alkossa meg. Emiatt nevezik az LLM-eket néha „sztochasztikus papagájoknak” is.
A tudományos kutatások során minden információ megbízhatóságát annak forrása alapján határozzák meg. Egyes nyelvi modellek, több különböző forrást szintetizálnak annak érdekében, hogy megadjanak egyetlen választ. Ezek a rendszerek különböző megbízhatósági szinteket rendelhetnek a különböző forrásokhoz azok reputációja alapján. Például, ha az információ megkérdőjelezhető forrásból származik módosíthatják válaszukat oly módon, hogy a felmerült kételyt kifejezzék, vagy több lehetséges választ is bemutathatnak, ha a különböző források nem értenek egyet egy bizonyos témában. Érdemes lehet megfontolni ezeknek a típusú modelleknek a használatát egy-egy speciálisabb téma során.
„A megmagyarázhatóság kritériuma nélkülözhetetlen lesz, hiszen abban az esetben, ha az eredmény megkérdőjelezhető, az lehetővé teszi az információ befogadója számára, hogy felmérje a kontextust, és betekintést nyerjen a további feltételezésekbe, vagy az alkalmazott logikába.” – mondta Puskás Attila, a Deloitte Kockázatkezelési Tanácsadás Vezető Tanácsadója.
Ennek hiánya többek között a képgenerátorokat is érinti. A szintetikus, szöveget képpé alakító programok az interneten elérhető képekből tanulnak. Egy vizuális médiával foglalkozó cég beperelte az egyik MI eszköz létrehozóit, amiért megfelelő engedély nélkül használták fel képeiket. Művészek egy csoportja korábban a szerzői jogok megsértéseként értékelt, ezért bojkottált egy MI által generált képeket tartalmazó alkalmazást, mivel az MI egy valós művész stílusát utánzó képeket generált. Bár a jogi kihívások összetettek, az MI által generált műalkotások inspirációforrásának azonosítása – tehát annak a forrásnak, ahonnan az MI nagyrészben másolta a meglévő műalkotást, lehetővé teszi a pénzügyi kompenzációt és elszámolást.
Előítélet: mi történik, ha „rossz” forrásból tanul a rendszer?
Ha a modellt nagy volumenű, szöveget és képeket tartalmazó adathalmazon tanítják, akkor a modell természetesen megismétli a forrásban található torzításokat. Ez gyakorlatban azt jelenti, ha a felhasznált tanító adathalmaz pl. egy arcfelismerő rendszer esetében felül-reprezentált egy adott etnikai csoport tekintetében, akkor megvan a kockázata annak, hogy más csoportokat nem fog sikeresen felismerni, tehát elfogult lesz a tanító adatban szignifikánsan megjelenő mintákkal szemben – ez pedig igazságtalan kimenetet eredményezhet.
Bár a ChatGPT tartalommoderálási korlátokat alkalmaz a szexuális, gyűlöletkeltő, erőszakos vagy káros tartalmak generálásának megelőzése érdekében, ezeket a beépített szűrőket könnyű megkerülni az utasítások átfogalmazásával. A Galactica, a ChatGPT elődje pl. 3 nap után állt le, mert hamis és rasszista tartalmakat generált. Sok munkát kell még elvégezni ahhoz, hogy a tanításra használt adatokban a torzításokat azonosítani és csökkenteni lehessen – nemcsak a generatív MI esetében, hanem az MI összességében. Egyes tudósok a tanításhoz használt adatok gondos összegyűjtése mellett érveltek a hatalmas mennyiségű és könnyen elérhető internetes források használata helyett.
Összességében a generatív MI népszerűségének növekedése következtében jelentkező potenciális kockázatokat és etikai megfontolásokat teljes mértékben figyelembe kell vennie az ilyen modellt implementálni kívánó vállalkozásnak. Ezeknek a technológiáknak új, izgalmas alkalmazási lehetőségei vannak, fontos azonban ezeket a lépéseket összhangba hozni és arányosan mérlegelni a felmerült kockázatokkal, elszámoltathatósággal és az esetleges visszaélésekkel, mert így lehet korlátozni az előre nem látható negatív hatásokat.
„Átgondolt kockázatkezelésre és irányításra van szükség ahhoz, hogy biztonságosan és magabiztosan lehessen használni a generatív MI innovációit. A generatív MI kockázatait az olyan klasszikus vállalati kockázati tényezőkkel, amilyen a működési, adatvédelmi, jogi, vagy technológiai kockázat is, együtt kell azonosítani és értékelni, annak biztosítása érdekében, hogy a maradványkockázatok ne jelentsenek fenyegetést se a vállalati működésre, se a társadalomra vagy a környezetre.” – mondta Barta Gergő.
Kapcsolódó cikkek
- Erre használják a magyarok a ChatGPT-t
- Félünk az AI-tól, pedig magunktól kellene
- ChatGPT és rossz kistestvére a ChaosGPT
- Így látja a mesterséges intelligencia a magyar népbetegséget
- A mesterséges intelligencia szabad múltja és korlátozott jövője
- Húsvéti locsolókölni a mesterséges intelligencia közreműködésével
- Itt a kriptoról is mindent tudó ChatGPT és AI-képgenerátor
- AI megoldás segítheti a vállalatokat dekarbonizációs céljaik megvalósításában
- Ki nyeri meg a Google és Microsoft párviadalát?
- Kit illet a szellemi alkotás tulajdonjoga, ha a MI hozza létre a művet?
E-világ ROVAT TOVÁBBI HÍREI
A digitális bankolás jövője: személyre szabott ügyfélélmény és új generációs technológiák
A Deloitte legfrissebb, Digital Banking Maturity 2024 kutatásának eredményeiből kiderül, hogy a COVID-19 járvány idején elindult digitalizációs folyamatok nemhogy nem lassultak, hanem új lendületet kaptak a bankszektorban az elmúlt évek során, alkalmazkodva az ügyfelek folyamatosan bővülő igényeihez. A fejlesztések fókuszában a funkciók mennyisége helyett, egyre inkább a személyre szabottság, az ügyfélélmény fokozása és a költséghatékonyság kapott hangsúlyt. Emellett a korábban elhanyagolt területek, például a digitális jelzálog is előtérbe kerültek.
OMV: 2025 végéig országszerte elérhető lesz az ultragyors töltőhálózat
Országszerte 15 helyszínen már igénybe vehetőek az OMV új gyorstöltői. A társaság még idén megduplázza ultragyors töltéssel üzemelő töltőállomásai számát, 2025 végéig pedig közel 50 helyszínen összesen 80 villámtöltő pont működik majd az országban. A töltők legalább 100 kW teljesítmény leadására képesek, ami később több helyszínen akár a 200 kW-ot is elérheti, a hálózati kapacitás függvényében. Az OMV saját applikációt is fejlesztett a töltőkhöz, amiben most különleges akciókkal várja az autósokat.
Nemzetközi szintre lép a karbonlábnyom-csökkentő magyar startup
Balogh Petya és az általa fémjelzett STRT Holding Nyrt., valamint két másik befektető látott fantáziát a digitális marketing tevékenységek, így a weboldalak és e-mail kampányok karbonlábnyomának csökkentésére specializálódott Carbon.Crane-ben. A világszinten naponta küldött 350 milliárd e-mail* és a 200 millió aktívan üzemelő weboldal** – a háttérben dolgozó szerverparkok miatt – egyre nagyobb, ráadásul egyre növekvő részét teszi ki a globális karbonkibocsátásnak, erre dolgozott ki egyedi megoldásokat a 100%-ban magyar tulajdonú és hazai alapítású startup. Az egyedi és innovatív szolgáltatásokat nemzetközi szinten is értékeli a szakma, amit legutóbb a MediaSpace Global Changemakers' Awards 2024 díjával ismert el.
Izgalmas versenyek a T-esport Bajnokságon
Százezer euró – ennyi volt az összdíjazása a Deutsche Telekom hétvégén lezárult e-sport bajnokságának, a T-esport Bajnokságnak. Az online eseményeken és a Budapesten, a Telekom PlayIT Show keretében megrendezett döntőben a legjobb Counter-Strike 2, League of Legends, Brawl Stars és EA Sports FC 24 játékosok mérték össze a tudásukat, köztük két magyar versenyző is.
Újabb kutatás cáfolja az AI-félelmeket
A Unisys friss kutatása szerint mind az alkalmazottak, mind a munkáltatók pozitívnak ítélik meg a mesterséges intelligencia (AI) munkahelyi hatását. A Magyarországon több mint 700 szakembert foglalkoztató vállalat négy országban elvégzett felmérése azt mutatja, hogy az AI alkalmazása növelheti a dolgozói elégedettséget, és segítheti a gyorsabb karrierépítést, míg a vállalatvezetők szerint versenyképességüket veszélyezteti, ha nem építik be a technológiát a működésükbe.