A generatív AI aggodalmat kelt a tudományban, mivel a hamis adatok veszélyeztetik a hitelességet
Siet? Itt a lényeg röviden!
- A generatív AI lehetővé teszi a valósághű, mégis hamis tudományos adatok és képek gyors létrehozását.
- A kutatók küzdnek az AI által generált képek felismerésével, mivel nincsenek nyilvánvaló manipulációs jelek.
- Az AI által generált ábrák már a tudományos folyóiratokban is megtalálhatóak lehetnek.
Az AI által generált képek komoly aggodalomra adnak okot a kutatók és kiadók körében, mivel az új generatív AI eszközök ijesztően könnyűvé teszik a hamis tudományos adatok és képek létrehozását, ahogy azt a Nature sajtóközleménye is megjegyzi.
Ez a fejlesztés veszélyezteti az akadémiai irodalom hitelességét, a szakértők attól tartanak, hogy egy AI által vezérelt, hamis tanulmányokban gazdag hullámzás következhet be, amelyeket nehéz lehet azonosítani.
Jana Christopher, a képintegritás-elemző a németországi FEBS Press-nél, hangsúlyozza, hogy a generatív mesterséges intelligencia gyors evolúciója egyre növekvő aggodalmakat vet fel a tudományban való potenciális visszaélés lehetőségeire.
„Azok, akik a szakterületemen dolgoznak — a képintegritás és a publikációs etika területén —, egyre jobban aggódnak az általa kínált lehetőségek miatt,” mondta Jane a Nature cikke szerint.
Megjegyzi, hogy míg egyes folyóiratok bizonyos irányelvek alapján elfogadhatnak AI által generált szöveget, az AI által előállított képek és adatok átlépnek egy olyan határt, amely mélyen befolyásolhatja a kutatási integritást, ahogy a Nature is megjegyezte.
A Nature szerint ezeknek az AI által létrehozott képeknek a felismerése vált a fő kihívássá. Az AI által generált képek gyakran nem mutatják a hamisítás szokásos jeleit, ami megnehezíti az esetleges megtévesztés bizonyítását.
Az kép-forenszikus szakértő, Elisabeth Bik és más kutatók azt javasolják, hogy az AI által generált ábrák, különösen a molekuláris és sejtbiológiában, már jelen lehetnek a publikált szakirodalomban, mint ahogyan azt a Nature is beszámolta.
Olyan eszközöket, mint a ChatGPT, manapság rendszeresen használják tudományos cikkek megfogalmazásához, amelyek azonosíthatóak a tipikus chatbot kifejezésekkel, amiket nem szerkesztettek ki, de az AI által generált képek sokkal nehezebben azonosíthatóak. A technológiai vállalatok és kutatóintézetek válaszként ezekre a kihívásokra detektáló eszközöket fejlesztenek, amint ezt a Nature is megjegyezte.
Az AI-alapú eszközök, mint az Imagetwin és a Proofig vezetik a sort azzal, hogy algoritmusukat úgy képzik, hogy felismerjék a generatív AI tartalmat. A Proofig társalapítója, Dror Kolodkin-Gal azt jelenti, hogy eszközük 98% -ban sikeresen észleli az AI képeket, de megjegyzi, hogy az emberi ellenőrzés továbbra is nélkülözhetetlen az eredmények érvényesítéséhez – írja a Nature.
A kiadói világban, a Science című folyóiratok a Proofig-et használják a beérkező anyagok elsődleges átvizsgálására, és a kiadó óriás, a Springer Nature saját eszközöket, a Geppetto-t és a SnapShot-ot fejleszt ki a szövegekben és képekben található rendellenességek azonosítására, a Nature által jelentett információk szerint.
Más szervezetek, mint például a Tudományos, Műszaki és Orvosi Kiadók Nemzetközi Szövetsége, szintén kezdeményezéseket indítanak a papírgyárak elleni küzdelem és a kutatások integritásának biztosítása érdekében, amint arról a Nature számolt be.
Azonban a szakértők figyelmeztetnek, hogy a kiadóknak gyorsan cselekedniük kell. A tudományos képekkel foglalkozó nyomozó, Kevin Patrick attól tart, hogy ha a cselekvés késik, az AI által generált tartalom még egy megoldatlan problémává válhat a tudományos irodalomban, amint arról a Nature számolt be.
Ezekkel az aggodalmakkal ellentétben sokan reménykednek abban, hogy a jövő technológiája fejlődni fog, és képes lesz azonosítani a mai mesterséges intelligencia által generált csalásokat, hosszú távú megoldást kínálva az akadémiai kutatások integritásának védelmére.
Írj hozzászólást
Mégse