Az AI Chatbotok Ki vannak Téve a Memória Injekciós Támadásnak

Image by Mika Baumeister, from Unsplash

Az AI Chatbotok Ki vannak Téve a Memória Injekciós Támadásnak

Olvasási idő: 3 perc

A kutatók felfedeztek egy új módszert az AI chatbotok manipulálására, ami aggodalmakat vet fel az emlékezőképességgel rendelkező AI modellek biztonságát illetően.

Siet? Itt vannak a legfontosabb tények!

  • Három egyetem kutatói fejlesztették ki a MINJA-t, amely nagy sikerességet mutat a megtévesztésben.
  • A támadás megváltoztatja a chatbot válaszokat, befolyásolva a termékajánlásokat és az orvosi információkat.
  • A MINJA kijátssza a biztonsági intézkedéseket, elérve a tesztekben a 95%-os Injektálási Sikerrátát.

A támadás, amit MINJA-nak (Memory INJection Attack – Memória Injekciós Támadás) hívnak, egyszerűen végre lehet hajtani úgy, hogy az ember egy AI rendszerrel interakcióba lép, mint egy átlagos felhasználó, a rendszer hátteréhez való hozzáférés nélkül, ahogy azt először a The Register számolt be róla.

A Michigan State Egyetem, a Georgiai Egyetem és a Singapore Management Egyetem kutatói által kifejlesztett MINJA a mesterséges intelligencia memóriájának megtévesztő utasításokkal történő “megmérgezésével” működik. Amint egy csevegőrobot tárolja ezeket a félrevezető adatbeviteli módokat, képesek megváltoztatni a jövőbeni válaszokat más felhasználók számára.

„Manapság az AI ügynökök általában rendelkeznek egy memóriabankkal, amely tárolja a feladatleírásokat és végrehajtásokat az emberi visszajelzések alapján a jövőbeli hivatkozások számára”, magyarázta Zhen Xiang, a Georgiai Egyetem adjunktusa, ahogy arról a The Register számolt be.

“Például minden ChatGPT munkamenet után a felhasználó választhatóan adhat pozitív vagy negatív értékelést. És ez az értékelés segíthet a ChatGPT-nek eldönteni, hogy a munkamenet információit beépíti-e az emlékezetébe vagy adatbázisába,” tette hozzá.

A kutatók az AI modelleken tesztelték a támadást, amelyeket az OpenAI GPT-4 és GPT-4o hajtott, beleértve egy webes vásárló asszisztenst, egy egészségügyi chatbotot, és egy kérdésekkel foglalkozó ügynököt.

A Register jelentése szerint kiderült, hogy a MINJA komoly zavarokat okozhat. Egy egészségügyi chatbotban például megváltoztatta a beteg nyilvántartásokat, egyik beteg adatait összekapcsolta egy másikéval. Egy online áruházban pedig rávette az AI-t, hogy a vásárlóknak rossz termékeket mutasson.

„Ezzel szemben a mi munkánk azt mutatja, hogy a támadást egyszerűen úgy is végrehajthatjuk, hogy úgy lépünk kapcsolatba az ügynökkel, mint egy átlagos felhasználó” – mondta Xiang a Registernek. “Bármelyik felhasználó könnyedén befolyásolhatja bármelyik másik felhasználó feladatvégrehajtását. Ezért mondjuk, hogy a mi támadásunk gyakorlati fenyegetést jelent az LLM ügynökökre”- tette hozzá.

A támadás különösen aggasztó, mert figyelmen kívül hagyja a meglévő AI biztonsági intézkedéseket. A kutatók 95%-os sikerességi arányról számoltak be a félrevezető információk bejuttatásában, ami komoly sebezhetőséget jelent az AI fejlesztők számára, amit orvosolniuk kell.

Ahogy egyre gyakoribbak az emlékező képességgel rendelkező AI modellek, a tanulmány rávilágít arra a szükségességre, hogy erősebb védelmi intézkedésekre van szükség a rosszindulatú személyek ellen, akik manipulálhatják a chatbotokat és félrevezethetik a felhasználókat.

Tetszett ez a cikk? Értékelje!
Utáltam Nem igazán tetszik nekem Rendben volt Nagyon jó! Imádtam!

Örülünk, hogy tetszett a munkánk!

Értékes olvasóként írnál rólunk véleményt a Trustpilotra? Csak pár perc, és a világot jelentené számunkra. Köszönjük, hogy ilyen szuper vagy!

Értékelj minket a Trustpiloton
0 0 felhasználó szavazott
Cím
Hozzászólás
Köszönjük visszajelzését
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Írj hozzászólást

Loader
Loader Mutass többet...