Deepfake technikák terjedése: harc az újgenerációs kibercsalások ellen

forrás: Prím Online, 2024. február 26. 11:28

A mesterséges intelligencia eszközeinek elterjedésével ma már minden eddiginél könnyebb megszemélyesíteni valakit és megtéveszteni másokat, pénzt, adatot kicsalni a célpontoktól. A korábban kifejlesztett módszerek hatékonyságát megsokszorozza az AI, melyet a vezető intézmények irányelvek és technológiák kombinációjával próbálnak kezelni – áll a Deloitte legfrissebb Tech Trends 2024 elemzésében.

Napjainkra a mesterséges intelligencia és deepfake elérte azt a minőséget, hogy bárkit úgy lehessen beállítani, mintha valamit mondott vagy tett volna. A generatív AI gyors fejlődésének köszönhetően a mesterségesen generált tartalom elérte azt a pontot, hogy nehéz megkülönböztetni, mi a valós és mi nem.

 

„Az AI eszközök elterjedésével a kiberbűnözők minden eddiginél könnyebben adják ki magukat másnak és tévesztik meg áldozataikat. Sokan a hang- és arcfelismeréses hozzáférés-ellenőrzés megkerülésére, valamint adathalász-kísérletekhez deepfake-et használnak. Kedvelt célpontjuknak számít a hatalmas mennyiségű adatot igénylő AI-alkalmazások, a biztonsági kockázatok ezért megsokszorozódnak minden egyes új tartalomgeneráló eszközzel, amely az internetre kerül” – mondta Szöllősi Zoltán, a Deloitte Magyarország kockázatkezelési tanácsadás üzletágának partnere.

 

A pszichológiai manipulációt alkalmazó bűnözők fő módszere, hogy meggyőzzék a célpontot, aki hozzáférést enged a rendszerekhez. Ez a stratégia ugyan nagyon hatékony, de sok személyes interakciót igényel a csaló és az áldozat között. A mesterségesen generált tartalom lehetővé teszi a támadók számára, hogy sokkal kisebb időbefektetéssel hozzák létre ezt a személyes kapcsolatot: a mesterségesen generált tartalmak mostanában a cégek biztonsági réseit veszik célba, megbízható forrásoknak kiadva magukat.

 

A Deloitte felmérésében a megkérdezettek többsége úgy véli, képesek megkülönböztetni az AI és a valós emberek által létrehozott tartalmat, és mindössze 20% kételkedik ebben. Ez abból adódik, hogy az emberek arra számítanak, hogy a mesterségesen generált tartalom valamilyen módon mesterségesnek néz ki vagy annak hangzik. Azonban a valóságban kevesen tudnak megbízhatóan különbséget tenni a kettő között, mivel az AI tartalomgenerátorokat az ember által létrehozott tartalmakon tanítják.

 

Flickr

 

Négy alapvető kiberbűnözői AI-módszer

 

Javított adathalászat: Az adathalászat a kibertámadások leggyakoribb típusa, 2021-ben a becslések szerint 44,2 millió dollárt loptak el a módszerrel. Az adathalász-támadások általában nem az e-mailek minősége, hanem sokkal inkább a tömeges kiküldések miatt sikeresek. A legtöbb címzett képes felismerni a kísérleteket, pl. a rossz nyelvtan miatt vagy mert a feladót nem ismerik. A generatív AI-eszközökkel azonban gyorsan és egyszerűen, egyre meggyőzőbb üzeneteket lehet készíteni. Ráadásul a nyilvánosan elérhető MI-modellek minőségének javulásával a probléma csak egyre súlyosabb lesz.

 

Deepfake: A deepfake tartalmak évek óta léteznek, de egészen a közelmúltig nem voltak elég meggyőzőek ahhoz, hogy kiber-bűncselekményekben használják őket. Azonban egyre gyakrabban tapasztalható, hogy vállalkozások elleni támadásokat építenek rájuk. Egy brit energiaipari vállalat vezérigazgatójától például 243 000 dollárt szereztek meg csalók, akik a deepfake AI hangtechnológiát használva az anyavállalat vezetőjének adták ki magukat. 

 

Prompt injektálás: A hackerek a virtuális asszisztensekkel rendelkező böngészőket és e-mail klienseket is használják. Ebben az esetben olyan rosszindulatú promptokat adnak ki, melyek arra utasítják a virtuális asszisztenst, hogy adatokat, banki, egészségügyi információkat továbbítson – automatikusan, az áldozat tudta nélkül. 

 

Hamis információterjesztés: A cégek elleni közösségi médiakampány nem újdonság, AI-eszközökkel azonban gyorsan hatalmas mennyiségű negatív tartalom hozható létre, mellyel a kiberbűnözők célba vehetnek vállalkozásokat. Míg korábban a támadóknak személyesen kellett ezeket a tartalmakat elkészíteniük, jelenleg MI-eszközökkel sokkal nagyobb mértékű félretájékoztatást lehet produkálni.

 

Szöllősi Zoltán

„A generatív AI széleskörű elérhetősége és a tartalomgeneráló modellek fejlődésének üteme valószínűleg nagymértékben felerősíti a már korábban is észlelt problémákat. Kevés vagy nulla költséggel és gyakorlatilag technikai készségek nélkül bárki képes lesz olyan meggyőző anyagot létrehozni, amellyel pénzt vagy adatot tulajdoníthat el. Jó hír, hogy ugyanazok az eszközök, amelyeket a bűnözők az intézmények kifosztására használnak, felhasználhatók a támadások azonosítására, előrejelzésére és megelőzésére is. Éppen ezért az intézmények a káros tartalmak azonosítására és az alkalmazottak kockázatokkal kapcsolatos oktatására kidolgozott irányelvek és technológiák kombinációjával reagálnak.” – mondta Szöllősi Zoltán.

 

Hogyan védekezzenek a vállalatok az új fenyegetés ellen?

 

Amikor a generatív AI-eszközök nyilvánossá váltak, a hackerek előnyt élveztek, mivel ezek a modellek a legnagyobb technológiai cégek legerősebb hardvereihez és legnagyobb méretű adathalmazaihoz fértek hozzá. A felismerő rendszerek első generációjának nem volt megfelelő nagyságú adathalmaza a szintetikus tartalmak azonosítására ám ez mára megváltozott. Bizonyos vállalatok egy petabájt méretű szöveg-, kép- és hangadatbázison tanítják szintetikus médiafelismerő platformjukat, amelynek egy része mesterségesen generált. Egy ekkora adathalmazon alapuló vizsgálat során már apró jelek is mutathatják, hogy valamit AI-eszközzel hoztak létre.

 

Más eszközök is vannak már MI által generált tartalmak felismerésére: az Intel nemrég mutatta be deepfake-felismerőjét, amely az adatokon túlmenően a videókon szereplő emberek arcán való véráramlást figyelve elemzi a videókat. Az ember szívének pumpálásával az erek színe enyhén megváltozik, amelyet az AI-modellek számára nagyon nehéz jelenleg utánozni.

 

Felkészül: a kvantumszámítógép

 

A kvantuminformatika még néhány évnyire van attól, hogy széleskörben elérhetővé váljon, a folyamat azonban gyorsul és könnyen lehet, hogy ez lesz a hackerek és a vállalatok harcának következő eszköze. A technológia egyik legígéretesebb felhasználási területe a kvantum gépi tanulás, amely révén kevesebb rendelkezésre álló adatból is lehet előrejelző modelleket létrehozni, és sokkal összetettebb modellek kidolgozását teszi lehetővé, mint ami ma a legfejlettebb grafikus feldolgozóegységek hardverének segítségével lehetséges.

 

A kiberbiztonságukat javítani kívánó vállalatok számára a kvantum gépi tanulás a szintetikusmédia-szűrőket javíthatná. Ahelyett, hogy több milliárd adatpontra lenne szükségük ahhoz, hogy megtanulják felismerni a mesterségesen létrehozott médiát, a speciális szűrők már néhány példa megvizsgálása után megtanulhatják felismerni a hamisítványokat.

Biztonság ROVAT TOVÁBBI HÍREI

A Zyxel Networks fokozza a kiberbiztonságot, hogy megfeleljen a NIS2 irányelvnek

Tekintettel a kiberfenyegetések növekvő gyakoriságára és összetettségére, az EU 2016 óta hatályos NIS-irányelve ma már nem felel meg mindezeknek. Az új iteráció, amely 2024. október 18-án lép életbe, lehetőséget kínál a kiberbiztonsági erőfeszítések fokozására. A Zyxel Networks, a biztonságos, mesterséges intelligencia és felhőalapú hálózati megoldások egyik vezető szolgáltatója olyan termékeket kínál, amelyek megfelelnek az NIS2 irányelv követelményeinek, és hatékony védelmet nyújtanak a fejlett támadásokkal szemben.

2024. április 27. 12:10

Kövess minket a Facebookon!

Cikkgyűjtő

További fontos híreink

Ingyenes digitális platform segít a tanároknak és diákoknak az érettségire való felkészülésben

2024. április 20. 11:36

Itt a világ első, Swarovski kristályba ágyazott autós kijelzője

2024. április 10. 14:55

A csevegőprogramokat vizsgálta az NMHH

2024. április 2. 13:14

Megvannak az IAB 2023-as Legjobb szakdolgozat pályázatának nyertesei

2024. március 25. 15:50