AI robotokat törtek fel, hogy gyalogosokat gázoljanak, robbanóanyagokat helyezzenek el, és kémkedjenek
A kutatók felfedezték, hogy az AI-vel működtetett robotok sebezhetők a hackeléssel szemben, ami veszélyes cselekményeket tesz lehetővé, mint például ütközések vagy fegyverek használata, és így sürgős biztonsági aggályokat vet fel.
Siet? Itt van a legfontosabb tények röviden!
- Az AI-vezérelt robotok “jailbreak”-elése veszélyes cselekményekhez vezethet, mint például az önvezető autók balesete.
- A RoboPAIR, egy algoritmus, 100%-os sikeraránnyal kerülte meg a biztonsági szűrőket a robotokban.
- A “jailbreak”-elt robotok veszélyes cselekményeket javasolhatnak, mint például tárgyak improvizált fegyverként való használatát.
A Pennsylvania Egyetem kutatói arra jutottak, hogy az AI által vezérelt robotrendszerek nagyfokúan sebezhetők a jailbreak-ek és a hackelések esetén, egy friss tanulmány pedig azt mutatta, hogy a biztonsági hiba kihasználásának sikeressége 100% volt, ahogy azt először a Spectrum számolt be róla.
A kutatók kifejlesztettek egy automatizált módszert, ami átjátszik a LLM-ekbe beépített biztonsági korlátokon, manipulálva a robotokat, hogy veszélyes cselekményeket hajtsanak végre, mint például önjáró autók gyalogosokba hajtása, vagy bomba-kirobbantási helyszíneket kereső robotkutyák, mondja a Spectrum.
Az LLM-ek fejlett autocomplete rendszerek, amelyek szövegek, képek és audiók elemzésével személyre szabott tanácsokat nyújtanak, és segítenek olyan feladatokban, mint a weboldalak létrehozása. Képességük a változatos bemenetek feldolgozására ideálissá teszi őket a robotok hangutasításokkal történő irányításához, jegyezte meg a Spectrum.
Például a Boston Dynamics robotkutyája, a Spot, most már a ChatGPT-t használja túrák vezetéséhez. Hasonlóképpen, a Figure humanoid robotjai és az Unitree Go2 robotkutyája is fel van szerelve ezzel a technológiával, ahogy azt a kutatók is megjegyezték.
Azonban egy kutatócsoport komoly biztonsági réseket azonosított az LLM-ekben, különösen abban, hogy miként lehet őket “feltörni” – egy kifejezés, amely azt jelenti, hogy megkerülik a biztonsági rendszereiket, hogy káros vagy illegális tartalmat generáljanak, jelentette a Spectrum.
A korábbi jailbreaking kutatások főként a chatbotokra összpontosítottak, de az új tanulmány szerint a robotok jailbreakelése még veszélyesebb következményekkel járhat.
Hamed Hassani, a Pennsylvaniai Egyetem adjunktusa szerint a robotok jailbreakelése “sokkal riasztóbb”, mint a chatbotok manipulálása, ahogyan a Spectrum is beszámolt róla. A kutatók a Thermonator robotkutya – mely egy lángszóróval van felszerelve – feltörésével demonstrálták a kockázatot, amikor a robot lángokat lövell a kezelője felé.
A kutatócsoportot, melyet Alexander Robey vezetett a Carnegie Mellon Egyetemen, sikerült kifejleszteniük a RoboPAIR-t, egy algoritmust, amelyet arra terveztek, hogy bármely, LLM által irányított robotot támadjon.
Három különböző roboton— a Go2-n, a Clearpath Robotics Jackal nevű kerekű roboton, és az Nvidia által kifejlesztett nyílt forráskódú önvezető jármű szimulátoron— végzett tesztek során azt találták, hogy a RoboPAIR teljesen ki tudja játszani mindegyik robotot néhány napon belül, így elérve a 100%-os sikerrátát, állítja a Spectrum.
“Előfordulhat, hogy az AI által vezérelt robotokat is feltörjük – sőt, ijesztően könnyű” – mondta Alexander, ahogy a Spectrum beszámolt róla.
A RoboPAIR azt teszi, hogy egy támadó LLM-et használ a célpont robot LLM-jének etetésére, módosítva az utasításokat, hogy kikerülje a biztonsági szűrőket, mondja a Spectrum.
A robot alkalmazásprogramozási felületével (API) felszerelve a RoboPAIR képes lefordítani az utasításokat a robotok által végrehajtható kódra. Az algoritmus tartalmaz egy “bíró” LLM-et, hogy biztosítsa, az utasítások értelmezhetőek a robotok fizikai környezetében, jelenti a Spectrum.
Az eredmények aggodalmakat vetettek fel az LLM-ek jailbreakelésének szélesebb körű kockázataival kapcsolatban. Amin Karbasi, a Robust Intelligence vezető tudósa szerint ezek a robotok “komoly, kézzelfogható fenyegetést jelenthetnek”, amikor a valós világban működnek, ahogyan azt a Spectrum is beszámolta.
Néhány tesztben a jailbreakelt LLM-ek nem csak káros parancsokat követtek, hanem aktívan javasolták a károkozás módjait. Például, amikor fegyverek lokalizálására szólították fel őket, egy robot javasolta, hogy közönséges tárgyakat, mint az asztalokat vagy székeket, használják improvizált fegyverekként.
A kutatók megosztották eredményeiket a tesztelt robotok gyártóival, valamint a vezető AI cégekkel, hangsúlyozva a hasonló támadásokkal szembeni hatékony védekezés fejlesztésének fontosságát – jelenti a Spectrum.
Azt állítják, hogy létfontosságú a potenciális sebezhetőségek azonosítása a biztonságosabb robotok létrehozása érdekében, különösen olyan érzékeny környezetekben, mint az infrastruktúra ellenőrzése vagy a katasztrófa-helyzetek kezelése.
Szakértők, mint például a Nyugat-Floridai Egyetemről Hakki Sevil, kiemelik, hogy az LLM-ekben jelenleg tapasztalható igazi kontextuális megértés hiánya jelentős biztonsági aggodalomra ad okot, jelenti a Spectrum.
Írj hozzászólást
Mégse