
Image generated with DALL·E through ChatGPT
Vélemény: A mélyhamisítványos csalások még soha nem látott módon kihasználják a szeretetet és a bizalmat
Az AI által vezérelt csalások száma emelkedik, a kiberbűnözők mélytanulási technológiát használnak meggyőző videók és képek létrehozására, amelyekkel manipulálják az áldozatokat. Egy francia nőtől, aki azt hitte, hogy segít Brad Pitnek, egészen egy olyan áldozatig, akit egy magas minőségű mélytanulás által készített hamisítvány győzött meg, a valóság és a megtévesztés közötti határok egyre inkább elmosódnak. Ahogy az AI eszközök fejlődnek, úgy növekszenek a kockázatok is.
Sokan láttuk a hírekben januárban: egy francia nő több mint 850 000 dollárt veszített csalóknak, mert azt hitte, hogy ezt az összeget Brad Pittnek adja – annak a férfinak, akivel úgy gondolta, hogy több mint egy éve kapcsolatban áll.
A csalók fejlett generatív mesterséges intelligenciát használtak “önportrék” készítésére és bizonyítékok hamisítására, meggyőzve áldozatukat, Anne-t – egy 53 éves tervezőt, aki épp válófélben van – egy hamis Pitt tragikus történetéről, aki sürgős orvosi ellátásra szorul. Azt állították, hogy a számlái Angelina Jolie-tól való válása miatt fagyasztva lettek.
Anne a bátor – és kockázatos – döntést hozta meg, hogy nyilvánosságra hozza történetét, milliók gúnyolódása, sértése és virtuális támadása közepette. “Mint egy bolond, fizettem… Minden alkalommal, amikor kételkedtem benne, képes volt eloszlatni kétségeimet” – mondta el egy francia Youtube műsorban, ahogy a BBC jelentette. “Becsaptak, bevallom, és ezért jöttem elő, mert nem vagyok az egyetlen.”
Nem. Néhány hónappal később a spanyol rendőrség letartóztatott 5 embert, akik Pittnek álcázva átverték két másik nőt is. Néhány nappal ezelőtt egy kínai férfit is becsapott a virtuális barátnője, aki azt állította, hogy pénzre van szüksége orvosi beavatkozásokra és a vállalkozása finanszírozására.
Az áldozatok személyre szabott videókat és fényképeket kaptak – olyan képeket, amelyek máshol online nem voltak elérhetőek – tovább erősítve ezzel a megtévesztőik bonyolult hazugságait.
Egy nemrég megjelent jelentés az Entrust-tól azt sugallja, hogy Deepfake próbálkozások minden 5 percben előfordulnak. Mindennap új esetek kerülnek napvilágra, amelyekben embereket csaptak be generatív mesterséges intelligenciával – ez aggasztó trend, főleg ha figyelembe vesszük azokat a több ezer, sőt millió embert, akik el vannak borítva adósságban és szégyenben, és nem merik bejelenteni a hatóságoknak, nemhogy nyilvánosságra hozni.
DeepFake csalások emelkedőben
Több tanulmány és jelentés is figyelmeztet a mesterséges intelligencia által vezérelt csalások és kibertámadások növekedésére. A TrustPair’s 2025 Fraud Trends and Insights legutóbbi adatai szerint a mesterséges intelligencia által vezérelt csalások száma 118%-kal nőtt az előző évhez képest, amint azt a CFO jelentette.
Sziasztok, nemrégiben a Hiya, egy amerikai cég, mely hangbiztonsági és teljesítménymegoldásokra specializálódott, megosztott egy felmérés eredményeit, amely szerint a hat országban élő ügyfelek 31%-a kapott deepfake hívást 2024-ben, és közülük 45%-ot sikerült átverni – ezen csoport 34%-a veszített pénzt, míg 32%-uk személyes adatokat bukott. Átlagosan az áldozatok több mint 500 dollárt veszítenek a telefonos csalásokban.
Néhány nappal ezelőtt A Guardian leplezte le, hogy egy szervezett hálózat Kelet-Európában, Grúziában, hamis hirdetéseket használt a Facebookon és a Google-n, hogy több mint 6000 embert átverjen Európában, Kanadában és az Egyesült Királyságban, ezzel 35 millió dollárt szerezve meg műveleteik révén.
Körülbelül 85 jól fizetett grúz csaló az olyan közszereplőket használta fel csalásaikhoz, mint az angol újságíró, Martin Lewis, az író és kalandor, Ben Fogle, és Elon Musk. A csalók hamis kriptovalutákat és más befektetési rendszereket népszerűsítettek, arra késztetve áldozataikat, hogy pénzt utaljanak digitális bankokon keresztül, mint például a Revolut – amely nemrégiben banki engedélyt kapott az Egyesült Királyságban.
Fejlett AI, még sofisztikáltabb csalások
A kiberbűnözők már évek óta használják a generatív AI-t, eszközöket, mint például a ChatGPT-t, hogy vonzó e-maileket és meggyőző szövegalapú tartalmat generáljanak és lefordítsanak. Most, ahogy az AI eszközök fejlődnek, az AI-vel generált képek és videók használata megnőtt.
Néhány héttel ezelőtt a ByteDance bemutatta legújabb, AI videós eszközét, az OmniHuman-1-et, amely a piacon létező legvalósághűbb deepfake-ek létrehozására képes. Eközben egyre több AI cég fejleszt hasonló technológiákat. Úgy tűnik, csak idő kérdése, hogy ezek az eszközök is felhasználásra kerüljenek csalásokban.
Bár ezeket a technológiákat „jóhiszeműen” is lehet használni, sőt még a csalások terjedésének ellensúlyozására is – mint például az O2 AI „Nagymamája”, Daisy, akit arra terveztek, hogy valós időben foglalkozzon a csalókkal és elterelje őket az igazi áldozatokról –, a rosszindulatú felhasználásuk következményei mérhetetlennek tűnnek.
A Wizcase-nál nemrégiben beszámoltunk egy “Scam-Yourself Attacks” elnevezésű támadásokban tapasztalt 614%-os növekedésről, kiemelve, hogy a hackerek hogyan használják a mélytanulási technológiákat, hogy a hamis tartalmak “valóságosabbnak” tűnjenek, és hogy a közösségi média cégek, mint például a Meta, hogyan kényszerültek közbelépni a disznóvágási csalások esetében, mivel számos fenyegető szereplő használja ezeket a platformokat. A kutatásban a Meta megjegyezte, hogy a csalások nagy része társkereső alkalmazásokban kezdődött, bizonyítva, hogy a romantikus szerelem a leggyakrabban használt csalik közé tartozik – mind most, mind történelmileg.
Szerelem: Egy Erős Csali
A kiberbűnözők nem csak a fejlett mesterséges intelligencia megértésében és használatában jártasak – ők is mélyen megértik az emberi intelligenciát. A fenyegető szereplők képesek azonosítani a sebezhetőségeket, bizalmat építeni, és pont a megfelelő pillanatban előállni a kéréseikkel.
A tanulmány, amelynek címe: Szeretsz? A szerelemcsalás áldozatainak pszichológiai jellemzői, és amelyet 2018-ban Monica T. Whitty PhD publikált, bemutatja, hogy a nemzetközi bűnözői csoportok már évek óta—még az internet megjelenése előtt is—szerveznek párkereső csalásokat, és hogy a középkorú, jól iskolázott nők valószínűleg legnagyobb eséllyel esnek áldozatul ennek a csalási típusnak—pont úgy, mint Anne.
Mit várhatunk most, nyolc évvel e tanulmány után, science-fiction-szerű technológiával? Valószínűleg mindannyian sebezhetőbbek vagyunk, mint gondolnánk.
„Az ilyen típusú csalás áldozatai gyakran az élet értelmét kereső, érzelmileg sebezhető emberek” – írta Annie Lecompte, a Quebeci Egyetem (UQAM) egyetemi docense egy nemrégiben megjelent cikkben a The Conversation-ban. „Bár gyakran gúnyolják és félreértik, a romantikus csalások bonyolult pszichológiai mechanizmusokon alapulnak, amelyek kihasználják az áldozatok bizalmát, érzelmeit és sebezhetőségét.”
Egy törött szív, egy üres pénztárca
Liu – a kínai férfi vezetékneve, aki nemrégiben elveszített 200 000 jüant, körülbelül 28 000 dollárt egy AI által vezérelt csalásban – tényleg hitt abban, hogy az AI barátnője valós, hiszen személyre szabott fotókat és még videókat is látott. Egyre erősebb érzelmi kötődést épített… a csalóihoz.
Bár ő nem adott több részletet a jelentések kontextusáról, egy másik áldozat, a 77 éves Nikki MacLeod megtette. Ő is azt hitte, hogy valódi kapcsolatban van egy mesterséges intelligencia barátnővel, és elküldött neki 17 000 fontot – körülbelül 22 000 dollárt – banki átutalásokkal, PayPalon és ajándékkártyákkal.
“Nem vagyok ostoba, de ő meg tudta győzni, hogy valódi személy, és együtt fogjuk tölteni az életünket” – mondta MacLeod a BBC-nek.
MacLeod magányosan és szomorúan érezte magát, amikor egy csoportos chatben találkozott Alla Morgan-nal. Egy idő után MacLeod élő videót kért, de Morgan azt mondta, hogy ez nem lehetséges, mivel olajfúrótoronyban dolgozik. Amikor MacLeod gyanakodni kezdett, Morgan hitelesnek tűnő videókat kezdett küldeni. “Küldött nekem egy videót, amiben azt mondta: ‘Szia Nikki, nem vagyok csaló, itt vagyok az olajfúrótoronyban’, és teljesen meggyőzött,” magyarázta MacLeod. A tartalom elérhető a BBC weboldalán, és könnyen belátható, miért hitt MacLeod annak, hogy ez valós – ez egy magas minőségű deepfake.
A BBC megkérte Dr. Lynsay Shepherdet, az Abertay Egyetem kibernetikai biztonsági és ember-számítógép interakciós szakértőjét, hogy elemezze a MacLeod által kapott fényképeket és videókat. “Első ránézésre hitelesnek tűnik, ha nem tudod, mire kell figyelni, de ha a szemekre nézel – a szemmozgások nem egészen stimmelnek,” mondta Dr. Shepherd.
“A dokumentumok valódinak tűntek, a videók valódinak tűntek, a bank is valódinak tűnt” – mondta MacLeod. “A mesterséges intelligencia bevezetésével minden egyes dolog hamis lehet.”
Írj hozzászólást
Mégse