Felelősségteljes mesterséges intelligencia fejlesztés – jó úton járunk?

forrás: Prím Online, 2023. április 24. 11:18

Az utóbbi időszakban különösen nagy figyelmet kapott a különféle mesterséges intelligencia modellek nagyközönség számára való elindítása. A generatív mesterséges intelligencia használatával kapcsolatos potenciális kockázatok megnövekedtek, különösen a szerzői jogi kérdések területén, de az ilyen eszközöket alkalmazó vállalatoknak olyan kockázatokra is komoly figyelmet kell fordítaniuk, mint a rendszer-kimenetek helyessége és megmagyarázhatósága, vagy a negatív előítéletek kiszűrése. 

A ChatGPT (társalgási nyelvi-rendszer) és a DALL-E (szöveget képpé alakító alkalmazás) elindításával a generatív mesterséges intelligencia (MI) különösen nagy figyelmet kap, és egyre népszerűbb. A generatív MI gépi tanulást használ új tartalmak, pl. szövegek, képek, programkódok, költemények vagy grafikák, előállításához. A legtöbb munkavállaló attól tart, hogy a DALL-E átalakíthatja a hirdetések, a filmkészítés, valamint a játékok világát, a ChatGPT pedig munkahelyeket válthat ki tartalom- és szöveggyártás, oktatás, szoftverfejlesztés és újságírás bizonyos területein. 

 

Dr. Barta Gergő

„Ezek az aggodalmak nem alaptalanok, de nem is ennyire fekete-fehér a történet: a munkahelyek biztosan átalakulóban vannak, azonban továbbra is versenyben marad az, aki megtanulja az MI eszközöket jól és az előnyére használni, együtt élni velük, jól alkalmazni azokat munkájában, saját területén – aki az új eszközökkel együtt tud dolgozni, nem nélkülözhetetlen, hanem keresett szakember lesz.” – mondta Dr. Barta Gergő, a Deloitte Vezető MI szakértője.

 

Vannak vállalatok, melyek a szerzői jogok megsértésével kapcsolatos aggályok és felelősségek miatt nem engedélyezik az MI által létrehozott tartalmak felhasználását. Számos, stock-fotót gyűjtő platform pedig a művészek és fotósok kérésére MI által létrehozott képek használatát tiltotta be. A ChatGPT alkalmazásának terjedésével megnőtt az oktatásban a plágium kockázata, ezért bizonyos városok állami iskoláiban tilos a nyelvi modell használata.

 

Bizonytalanság az MI-ben: mennyire lehetünk benne biztosak, hogy helyes a kimenet?

 

Mit nevezünk kimenetnek? Amikor egy feltett kérdésre választ adunk, gyakran kezdjük mondatunkat azzal, hogy „Nem vagyok biztos benne, de…”, vagy „Ez csak egy sejtés, de…” – attól függően, hogy mennyire vagyunk biztosak válaszunk helyességében. Ezzel szemben a ChatGPT gyakran szabadkozás nélkül kimenetet produkál. A ChatGPT korlátait sorolva az Open AI így fogalmaz: „A ChatGPT néha hihetően hangzó, ugyanakkor helytelen válaszokat ad.” Egy kódolással foglalkozó Q&A platform éppen ezért tiltotta be a ChatGPT használatát: „A ChatGPT által generált válaszok közzététele kifejezetten káros az oldalra nézve… mivel ezen válaszok jónak tűnhetnek, mégis nagy arányban tévesek”. Több olyan esetről is tudunk, amikor a ChatGPT nevetséges hibát vétett a matematika és a logika területein, előfordult, hogy az algebrai jelöléseket használta rosszul, illetve olyan területeken, amilyen pl. a sakk is, ahol a számítógépek köztudottan képesek felülmúlni az emberi teljesítményt, a ChatGPT irracionális lépéseket hajtott végre, tökéletes pókerarccal.

 

A chatbot hamis önbizalmán keresztül megnő a téves információ terjesztésének, a félretájékoztatásnak a kockázata. A ChatGPT információs oldala kifejti, hogy ez kihívást jelent, mivel „jelenleg a biztonságos információforrás nem áll rendelkezésre” és „ha a modellt nagyobb óvatosságra tanítják, elutasíthatja azoknak a kérdések megválaszolását, amelyekre egyébként helyesen tudna válaszolni”. 

 

„Ugyan tesztelési célokból érdemes lehet inkább helytelenül megválaszolni egy kérdést, mint a választ megtagadni, valós helyzetben történő alkalmazás esetén a rossz válasz nagyobb károkkal és költségekkel járhat, mint a semmilyen válasz. Az elővigyázatosság szükséges mértéke téma- és feladatkörönként eltérő lehet. Annak érdekében, hogy a felhasználók megbízhassanak a generált szöveg tartalmában, a létrehozott szöveg nem lehet egyformán magabiztos minden témában. Az olyan nagy nyelvi modelleknek – Large Language Models, LLM – , amilyen a ChatGPT is, jelenlegi formájukban fontolóra kellene venniük, hogy tisztázó kérdéseket tegyenek fel, ismerjék fel a tudásbázisuk korlátait, kis mértékű bizonyossággal adják meg a válaszokat és adott esetben egy egyszerű „nem tudom a választ” szöveggel térjenek vissza.” – mondta Barta Gergő.

 

pexels.com

 

Megmagyarázhatóság: honnan származik a generált információ?

 

A fő kihívás a ChatGPT kimenetelének azonosításában az, hogy nem rendelkezik egy egyértelmű információforrással. Ellentétben más MI alapú személyi asszisztensekkel, amilyen a Siri vagy az Alexa, melyek internetes keresőmotorok segítségével keresik a választ, a ChatGPT-t úgy tanították, hogy a mondatokat a következő, statisztikailag valószínű nyelvi egységre vonatkozó találgatások sorozatával alkossa meg. Emiatt nevezik az LLM-eket néha „sztochasztikus papagájoknak” is.

 

A tudományos kutatások során minden információ megbízhatóságát annak forrása alapján határozzák meg. Egyes nyelvi modellek, több különböző forrást szintetizálnak annak érdekében, hogy megadjanak egyetlen választ. Ezek a rendszerek különböző megbízhatósági szinteket rendelhetnek a különböző forrásokhoz azok reputációja alapján. Például, ha az információ megkérdőjelezhető forrásból származik módosíthatják válaszukat oly módon, hogy a felmerült kételyt kifejezzék, vagy több lehetséges választ is bemutathatnak, ha a különböző források nem értenek egyet egy bizonyos témában. Érdemes lehet megfontolni ezeknek a típusú modelleknek a használatát egy-egy speciálisabb téma során.

 

Puskás Attila

„A megmagyarázhatóság kritériuma nélkülözhetetlen lesz, hiszen abban az esetben, ha az eredmény megkérdőjelezhető, az lehetővé teszi az információ befogadója számára, hogy felmérje a kontextust, és betekintést nyerjen a további feltételezésekbe, vagy az alkalmazott logikába.” – mondta Puskás Attila, a Deloitte Kockázatkezelési Tanácsadás Vezető Tanácsadója.

 

Ennek hiánya többek között a képgenerátorokat is érinti. A szintetikus, szöveget képpé alakító programok az interneten elérhető képekből tanulnak. Egy vizuális médiával foglalkozó cég beperelte az egyik MI eszköz létrehozóit, amiért megfelelő engedély nélkül használták fel képeiket. Művészek egy csoportja korábban a szerzői jogok megsértéseként értékelt, ezért bojkottált egy MI által generált képeket tartalmazó alkalmazást, mivel az MI egy valós művész stílusát utánzó képeket generált. Bár a jogi kihívások összetettek, az MI által generált műalkotások inspirációforrásának azonosítása – tehát annak a forrásnak, ahonnan az MI nagyrészben másolta a meglévő műalkotást, lehetővé teszi a pénzügyi kompenzációt és elszámolást.

 

Előítélet: mi történik, ha „rossz” forrásból tanul a rendszer?

 

Ha a modellt nagy volumenű, szöveget és képeket tartalmazó adathalmazon tanítják, akkor a modell természetesen megismétli a forrásban található torzításokat. Ez gyakorlatban azt jelenti, ha a felhasznált tanító adathalmaz pl. egy arcfelismerő rendszer esetében felül-reprezentált egy adott etnikai csoport tekintetében, akkor megvan a kockázata annak, hogy más csoportokat nem fog sikeresen felismerni, tehát elfogult lesz a tanító adatban szignifikánsan megjelenő mintákkal szemben – ez pedig igazságtalan kimenetet eredményezhet.

 

Bár a ChatGPT tartalommoderálási korlátokat alkalmaz a szexuális, gyűlöletkeltő, erőszakos vagy káros tartalmak generálásának megelőzése érdekében, ezeket a beépített szűrőket könnyű megkerülni az utasítások átfogalmazásával. A Galactica, a ChatGPT elődje pl. 3 nap után állt le, mert hamis és rasszista tartalmakat generált. Sok munkát kell még elvégezni ahhoz, hogy a tanításra használt adatokban a torzításokat azonosítani és csökkenteni lehessen – nemcsak a generatív MI esetében, hanem az MI összességében. Egyes tudósok a tanításhoz használt adatok gondos összegyűjtése mellett érveltek a hatalmas mennyiségű és könnyen elérhető internetes források használata helyett.

 

Összességében a generatív MI népszerűségének növekedése következtében jelentkező potenciális kockázatokat és etikai megfontolásokat teljes mértékben figyelembe kell vennie az ilyen modellt implementálni kívánó vállalkozásnak. Ezeknek a technológiáknak új, izgalmas alkalmazási lehetőségei vannak, fontos azonban ezeket a lépéseket összhangba hozni és arányosan mérlegelni a felmerült kockázatokkal, elszámoltathatósággal és az esetleges visszaélésekkel, mert így lehet korlátozni az előre nem látható negatív hatásokat.

 

„Átgondolt kockázatkezelésre és irányításra van szükség ahhoz, hogy biztonságosan és magabiztosan lehessen használni a generatív MI innovációit. A generatív MI kockázatait az olyan klasszikus vállalati kockázati tényezőkkel, amilyen a működési, adatvédelmi, jogi, vagy technológiai kockázat is, együtt kell azonosítani és értékelni, annak biztosítása érdekében, hogy a maradványkockázatok ne jelentsenek fenyegetést se a vállalati működésre, se a társadalomra vagy a környezetre.” – mondta Barta Gergő.

E-világ ROVAT TOVÁBBI HÍREI

Huawei Mate XT: Ilyen okostelefon még nem volt!

A Huawei számos új terméket mutatott be malajziai innovatív bemutatóján, ahol a HUAWEI Mate XT, a világ első háromba hajtható okostelefonja is debütált, amely kategóriájában a legvékonyabb és legnagyobb kijelzővel rendelkezik. A gyártó három új okoseszközt is bemutatott, köztük első fül köré akasztható fülhallgatóját, a HUAWEI FreeArc-ot, a HUAWEI MatePad Pro 13.2” tabletet és a HUAWEI Band 10 okoskarkötőt.

2025. február 18. 16:40

Magyar egyetem a világ élvonalában

Idén egy magyar egyetem is bekerült a Quacquarelli Symonds (QS) nemzetközi felsőoktatási minősítő szervezet 2025-ös rangsoraiba, mely a nemzetközi kereskedelmi oktatást értékeli. A Budapesti Corvinus Egyetem executive MBA-képzése, amely közép- és felsővezetőknek szól, a világ 20. helyén debütált, és a régió vezető intézményeként szerepel a listán. A Corvinus ezen kívül a terület egyik legkiemelkedőbb mesterképző intézményeként is elismerésben részesült.

2025. február 18. 15:03

A lámpák lekapcsolása már nem elég az energia-megtakarításhoz

A Schneider Electric nemzetközi kutatása szerint jelentős különbség van az ingatlantulajdonosok energiafelhasználással kapcsolatos elvárásai és a tényleges cselekedeteik között. A felmérés eredményei alapján a válaszadók több mint 80%-a fontosnak tartja az energiahatékonyságot, ugyanakkor sokak számára továbbra is a lámpák lekapcsolása jelenti a legfőbb energiamegtakarítási intézkedést.

2025. február 18. 13:11

Ezek 2025 legfontosabb IT trendjei

Az idei év technológiai fókuszterületei között az AI, az üzleti intelligencia és az automatizálás kerülnek a középpontba, míg a legnagyobb kihívásokat a költség- és humánerőforrás-korlátok jelenthetik – áll a Protechtor CIO Navigátor felmérésében, amely 70+ magyar vállalati IT-vezető véleményét tükrözi. Az innováció iránti szándék világos, hiszen a cégek 56%-a már rendelkezik előre kidolgozott digitalizációs stratégiával, ami jelentős előrelépés. Ugyanakkor a piacon komoly eltérések tapasztalhatóak: míg a vezetők többsége optimistán tekint a 2025-ös évre, és 50%-uk a bővülő IT-büdzséből várja a fejlődést, addig ugyanennyien aggódnak a változatlan vagy csökkenő pénzügyi források és a fokozódó technológiai verseny hatásai miatt.

2025. február 18. 10:00

A Samsung Wallet mostantól Volvo és Polestar járművekkel is kompatibilis

A Samsung bejelentette, hogy bizonyos Volvo és Polestar járművek mostantól kompatibilisek a Samsung Wallet alkalmazásban elérhető digitális autókulcs funkcióval. Ennek köszönhetően még több sofőr nyithatja, zárhatja vagy indíthatja autóját könnyedén a Galaxy okostelefonján keresztül.

2025. február 17. 19:58

Kövess minket a Facebookon!

Cikkgyűjtő

További fontos híreink

Láss a Jövőbe: Innovációs pályázat a Z-generációnak

2025. február 18. 11:32

Az ESET nyerte az AV-Comparatives 2024-es Év Terméke díját

2025. február 13. 10:03

Tudatos és biztonságos online jelenlét a fiataloknak

2025. február 10. 14:59

Szoboszlai Dominik és a Liverpool: Hogyan követhetjük nyomon a mérkőzéseiket?

2025. február 7. 15:20