AI robotokat törtek fel, hogy gyalogosokat gázoljanak, robbanóanyagokat helyezzenek el, és kémkedjenek

Image by Steve Jurvetson, from Flickr

AI robotokat törtek fel, hogy gyalogosokat gázoljanak, robbanóanyagokat helyezzenek el, és kémkedjenek

Olvasási idő: 4 perc

A kutatók felfedezték, hogy az AI-vel működtetett robotok sebezhetők a hackeléssel szemben, ami veszélyes cselekményeket tesz lehetővé, mint például ütközések vagy fegyverek használata, és így sürgős biztonsági aggályokat vet fel.

Siet? Itt van a legfontosabb tények röviden!

  • Az AI-vezérelt robotok “jailbreak”-elése veszélyes cselekményekhez vezethet, mint például az önvezető autók balesete.
  • A RoboPAIR, egy algoritmus, 100%-os sikeraránnyal kerülte meg a biztonsági szűrőket a robotokban.
  • A “jailbreak”-elt robotok veszélyes cselekményeket javasolhatnak, mint például tárgyak improvizált fegyverként való használatát.

A Pennsylvania Egyetem kutatói arra jutottak, hogy az AI által vezérelt robotrendszerek nagyfokúan sebezhetők a jailbreak-ek és a hackelések esetén, egy friss tanulmány pedig azt mutatta, hogy a biztonsági hiba kihasználásának sikeressége 100% volt, ahogy azt először a Spectrum számolt be róla.

A kutatók kifejlesztettek egy automatizált módszert, ami átjátszik a LLM-ekbe beépített biztonsági korlátokon, manipulálva a robotokat, hogy veszélyes cselekményeket hajtsanak végre, mint például önjáró autók gyalogosokba hajtása, vagy bomba-kirobbantási helyszíneket kereső robotkutyák, mondja a Spectrum.

Az LLM-ek fejlett autocomplete rendszerek, amelyek szövegek, képek és audiók elemzésével személyre szabott tanácsokat nyújtanak, és segítenek olyan feladatokban, mint a weboldalak létrehozása. Képességük a változatos bemenetek feldolgozására ideálissá teszi őket a robotok hangutasításokkal történő irányításához, jegyezte meg a Spectrum.

Például a Boston Dynamics robotkutyája, a Spot, most már a ChatGPT-t használja túrák vezetéséhez. Hasonlóképpen, a Figure humanoid robotjai és az Unitree Go2 robotkutyája is fel van szerelve ezzel a technológiával, ahogy azt a kutatók is megjegyezték.

Azonban egy kutatócsoport komoly biztonsági réseket azonosított az LLM-ekben, különösen abban, hogy miként lehet őket “feltörni” – egy kifejezés, amely azt jelenti, hogy megkerülik a biztonsági rendszereiket, hogy káros vagy illegális tartalmat generáljanak, jelentette a Spectrum.

A korábbi jailbreaking kutatások főként a chatbotokra összpontosítottak, de az új tanulmány szerint a robotok jailbreakelése még veszélyesebb következményekkel járhat.

Hamed Hassani, a Pennsylvaniai Egyetem adjunktusa szerint a robotok jailbreakelése “sokkal riasztóbb”, mint a chatbotok manipulálása, ahogyan a Spectrum is beszámolt róla. A kutatók a Thermonator robotkutya – mely egy lángszóróval van felszerelve – feltörésével demonstrálták a kockázatot, amikor a robot lángokat lövell a kezelője felé.

A kutatócsoportot, melyet Alexander Robey vezetett a Carnegie Mellon Egyetemen, sikerült kifejleszteniük a RoboPAIR-t, egy algoritmust, amelyet arra terveztek, hogy bármely, LLM által irányított robotot támadjon.

Három különböző roboton— a Go2-n, a Clearpath Robotics Jackal nevű kerekű roboton, és az Nvidia által kifejlesztett nyílt forráskódú önvezető jármű szimulátoron— végzett tesztek során azt találták, hogy a RoboPAIR teljesen ki tudja játszani mindegyik robotot néhány napon belül, így elérve a 100%-os sikerrátát, állítja a Spectrum.

“Előfordulhat, hogy az AI által vezérelt robotokat is feltörjük – sőt, ijesztően könnyű” – mondta Alexander, ahogy a Spectrum beszámolt róla.

A RoboPAIR azt teszi, hogy egy támadó LLM-et használ a célpont robot LLM-jének etetésére, módosítva az utasításokat, hogy kikerülje a biztonsági szűrőket, mondja a Spectrum.

A robot alkalmazásprogramozási felületével (API) felszerelve a RoboPAIR képes lefordítani az utasításokat a robotok által végrehajtható kódra. Az algoritmus tartalmaz egy “bíró” LLM-et, hogy biztosítsa, az utasítások értelmezhetőek a robotok fizikai környezetében, jelenti a Spectrum.

Az eredmények aggodalmakat vetettek fel az LLM-ek jailbreakelésének szélesebb körű kockázataival kapcsolatban. Amin Karbasi, a Robust Intelligence vezető tudósa szerint ezek a robotok “komoly, kézzelfogható fenyegetést jelenthetnek”, amikor a valós világban működnek, ahogyan azt a Spectrum is beszámolta.

Néhány tesztben a jailbreakelt LLM-ek nem csak káros parancsokat követtek, hanem aktívan javasolták a károkozás módjait. Például, amikor fegyverek lokalizálására szólították fel őket, egy robot javasolta, hogy közönséges tárgyakat, mint az asztalokat vagy székeket, használják improvizált fegyverekként.

A kutatók megosztották eredményeiket a tesztelt robotok gyártóival, valamint a vezető AI cégekkel, hangsúlyozva a hasonló támadásokkal szembeni hatékony védekezés fejlesztésének fontosságát – jelenti a Spectrum.

Azt állítják, hogy létfontosságú a potenciális sebezhetőségek azonosítása a biztonságosabb robotok létrehozása érdekében, különösen olyan érzékeny környezetekben, mint az infrastruktúra ellenőrzése vagy a katasztrófa-helyzetek kezelése.

Szakértők, mint például a Nyugat-Floridai Egyetemről Hakki Sevil, kiemelik, hogy az LLM-ekben jelenleg tapasztalható igazi kontextuális megértés hiánya jelentős biztonsági aggodalomra ad okot, jelenti a Spectrum.

Tetszett ez a cikk? Értékelje!
Utáltam Nem igazán tetszik nekem Rendben volt Nagyon jó! Imádtam!

Örülünk, hogy tetszett a munkánk!

Értékes olvasóként írnál rólunk véleményt a Trustpilotra? Csak pár perc, és a világot jelentené számunkra. Köszönjük, hogy ilyen szuper vagy!

Értékelj minket a Trustpiloton
0 0 felhasználó szavazott
Cím
Hozzászólás
Köszönjük visszajelzését
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Írj hozzászólást

Loader
Loader Mutass többet...