A Google mesterséges intelligencia modelljét vizsgálja az európai hatóságok
Az Adatvédelmi Bizottság (DPC) bejelentette ma, hogy vizsgálatot indít a Google-nál annak megállapítására, hogy a cég betartotta-e az EU adatvédelmi törvényeit az AI (mesterséges intelligencia) modelljének, a Pathways Language Model 2 (PaLM 2) fejlesztése során.
A PaLM2 egy nagy nyelvi modell, amelyet különböző AI szolgáltatásokban használnak, beleértve az email-összefoglalást is. A Google jelezte, hogy együttműködik a vizsgálattal, amint azt az AP is megjegyezte.
A vizsgálat azt fogja felmérni, hogy a Google-nek kellett-e volna Adatvédelmi Hatáselemzést (DPIA) végeznie az AI technológiák által az egyének jogaira és szabadságaira potenciálisan kifejtett hatások értékelése érdekében.
Ez a vizsgálat része a DPC szélesebb körű erőfeszítéseinek, amelyek célja az adatvédelmi szabályok betartásának biztosítása az AI szektorban Európa-szerte. Különös figyelmet fordítanak a határokon átnyúló adatfeldolgozásra, ami több EU országban történő adatkezelést jelent, vagy több nemzet egyéneire gyakorol hatást.
A generatív AI eszközök, amelyek meggyőző, ám hamis információt állítanak elő és hozzáférnek személyes adatokhoz, jelentős jogi kockázatokat jelentenek, ahogy a TechCrunch is megjegyzi. Az DPC felelős a Google Általános Adatvédelmi Rendelete (GDPR) szerinti megfelelőség biztosításáért.
Ezen célból az DPC bírságokat róhat ki, akár a Google anyavállalatának, az Alphabetnek a globális éves bevételének 4%-át is meghaladó összegben, ha szabálytalanságokat találnak, ahogy a TechCrunch is beszámolt róla.
A Google többféle generatív AI eszközt fejlesztett ki, beleértve a Gemini sorozatú nagy nyelvi modelleit (korábban Bard), amelyeket különféle alkalmazásokra használnak, többek között az AI chatbotok segítségével javítják a webes keresést, jegyzi meg a TechCrunch.
Ezeknek az eszközöknek a központjában a Google PaLM2-je áll, egy alapvető LLM, amelyet a tavalyi I/O fejlesztői konferencián indítottak el, mondta a TechCrunch.
A múlt hónapban Elon Musk X vállalata is szemügyre került az európai szabályozók részéről, amiért felhasználói adatokat használt AI képzésre. A DPC vizsgálatot indított, miután panaszok érkeztek, hogy az X a Grok AI technológiájába táplálja a felhasználói adatokat, anélkül, hogy megfelelő hozzájárulást szerezne. Bár az X beleegyezett az adatfeldolgozás korlátozásába, nem került bármilyen szankció alkalmazására.
Ez a vizsgálat része a DPC szélesebb körű erőfeszítéseinek, hogy szabályozza a személyes adatok AI fejlesztésben történő felhasználását az Európai Unióban. Az EU által nemrégiben elfogadott Mesterséges Intelligencia Törvény jelentős lépés a blokkon belüli AI technológiák szabályozási keretének kialakítása felé.
Írj hozzászólást
Mégse