
Image generated with OpenAI
Vélemény: Az AI modellek rejtélyes “lények”, és még a teremtőik sem értik őket teljes mértékben
Anthropic legutóbbi tanulmánya a Claude 3.5 Haiku modell működéséről forradalmi felfedezéseket és betekintést ígér az előrehaladott AI technológiák működésének megértésébe. De mit is jelentenek, amikor azt mondják, hogy az LLM-ek “élő szervezetek”, amelyek “gondolkodnak”?
Néhány nappal ezelőtt, Anthropic két tanulmányt tett közzé amelyek forradalmi kutatásokat tartalmaznak a Nagy Nyelvi Modellek (LLM-ek) működéséről. Bár a technikai fejlesztések érdekesek és relevánsak voltak, a leginkább az AI szakértők által használt szóhasználat ragadta meg a figyelmemet.
A Egy nagy nyelvi modell biológiájáról című tanulmányban a kutatók önmagukat a komplex “élő szervezeteket” tanulmányozó biológusokhoz hasonlították, amelyek milliárdok éve alatt fejlődtek ki.
„Hasonlóképpen, míg a nyelvi modellek egyszerű, ember által tervezett tanuló algoritmusok által generálódnak, ezekből az algoritmusokból született mechanizmusok meglehetősen bonyolultnak tűnnek” – írták a tudósok.
Az elmúlt néhány évben az AI modellek jelentősen fejlődtek. És ezt a gyors evolúciót az elmúlt hónapokban is láthattuk. Láttuk, hogy a ChatGPT egy szöveges modellből beszélő társunkká, majd egy olyan multidimenzionális ügynökké vált, amely képes lenyűgöző Studio Ghibli-stílusú képeket is generálni.
De mi van, ha a jelenlegi határ AI modellek elérnek egy olyan sci-fi szintet, hogy olyan fejlett gondolkodást fejlesztenek ki, amit még a teremtőik sem értenek a folyamataik és rendszereik miatt? Számos rejtély övezi az AI technológiákat, amelyeket érdemes lehet újra felkeresni – vagy belemerülni – 2025-ben.
Az AI modellek ijesztő fekete-doboz paradoxona
Több beszélgetés is folyik az AI alkalmazás és az AI műveltség témájában, és arról, hogy azok, akik megértik, hogyan működnek a generatív AI modellek, kevésbé hajlamosak csetbotokat „barátaiknak” vagy „varázslatos” alkalmazásoknak tekinteni. Azonban van egy másik vita is – a szakértők és a technológiával jobban tisztában lévő emberek között – arról, hogy összehasonlítsuk-e vagy tekintsük-e az LLM-eket önálló alkotásoknak. Az utóbbival kapcsolatban van egy különleges összetevő, egy „az AI fekete doboz paradoxon” néven ismert rejtély, amely kulcsszerepet játszik a vitában.
A mélytanuló rendszerek arra vannak trainálva, hogy ugyanúgy ismerjenek fel elemeket és trendeket, ahogy az emberek teszik. Ahogyan a gyerekeket megtanítjuk mintákat felismerni és specifikus szavakat hozzárendelni különböző tárgyakhoz, úgy lettek az LLM-ek is arra képezve, hogy egyedi kapcsolatokat hozzanak létre és hálózatokat építsenek, amelyek egyre bonyolultabbá válnak, ahogy „növekednek”.
Samir Rawashdeh, az Elektromos és Számítógépes Mérnöki Tanszék adjunktusa, aki mesterséges intelligenciára specializálódott, magyarázza, hogy ahogy ez az emberi intelligencia tanulmányozásakor is előfordul, szinte lehetetlen valóban látni, hogy a mélytanuló rendszerek hogyan hoznak döntéseket és jutnak el következtetéseikhez. Ezt nevezik a szakértők a “fekete doboz problémának”.
A mesterséges intelligencia modellek kihívást jelentenek az emberi megértés számára
Az Anthropic nemrégiben végzett tanulmánya fényt vetett a mesterséges intelligencia fekete doboz helyzetére azzal, hogy elmagyarázta, hogyan “gondolkodik” a modell bizonyos, korábban homályos vagy akár teljesen hibás helyzetekben. Még ha a tanulmány a Claude 3.5 Haiku modellen alapul is, lehetővé teszi a szakértők számára eszközök fejlesztését és hasonló jellemzők elemzését más mesterséges intelligencia modelleken.
„Az ilyen intelligencia természetének megértése mélyen tudományos kihívás, amely képes átalakítani elképzeléseinket arról, hogy mit jelent a ’gondolkodás’,” állítja az tanulmány, amit az Anthropic kutatói osztottak meg.
Azonban a „gondolkodás” kifejezés, amelyet az AI technológiákhoz rendelnek, felháborítja a szakma bizonyos szakértőit, és a vizsgálat kritikájának része. Egy Reddit felhasználó elmagyarázta, miért zavarja ez egy csoport embert: „A cikkben sok az antropomorfizálás, ami eltorzítja a munkát. Például folyton a ’gondolkodás’ szót használja, amikor azt kellene mondania, hogy ’számít’. Számítógépes szoftverről beszélünk, nem biológiai agyról.”
Bár az „emberiesített” kifejezések segítenek a nem technikai embereknek jobban megérteni az AI modelleket, és vitát kavar a közösségben, az igazság az, hogy akár a „számítás” vagy a „gondolkodás” kifejezést használjuk, ugyanaz a kihívás áll előttünk: nincs teljes megértésünk vagy teljes átláthatóságunk arra vonatkozóan, hogyan működnek az LLM-ek.
Mire számíthatunk a fejlett AI modellektől a közeljövőben?
El tudja képzelni, hogy figyelmen kívül hagyja a fejlett AI technológiák, mint a ChatGPT, a DeepSeek, a Perplexity vagy a Claude létezését – most vagy a közeljövőben? Minden jel arra mutat, hogy nincs visszaút. A generatív és az érvelő AI már átalakította a mindennapi életünket, és csak tovább fejlődnek.
Szinte minden nap jelentünk be valamilyen új fejlesztést a WizCase-nél – egy új AI modelt, egy új AI eszközt, egy új AI céget -, amelynek hatalmas hatása lehet a társadalmunkra. Az a gondolat, hogy szünetet tartunk először, hogy jobban megértsük ezeket a fejlett modelleket és működésüket – vagy akár csak picit lelassulunk -, lehetetlennek tűnik, tekintettel az AI-verseny gyors ütemére és a kormányok és a világ legnagyobb vállalatainak részvételére.
„Az AI modellek egyre nagyobb befolyással bírnak arra, ahogyan élünk és dolgozunk, jól kell őket megértenünk ahhoz, hogy biztosítsuk, hogy hatásuk pozitív legyen,” állítja az Anthropic cég tanulmánya. Bármennyire is irreálisnak tűnik, a kutatók pozitívak maradnak: „Hiszünk abban, hogy eredményeink itt, és a fejlődési útvonal, amelyre épülnek, izgalmas bizonyítéka annak, hogy képesek vagyunk szembenézni ezzel a kihívással.”
De milyen gyorsan is haladhatnak ezek a felfedezések valójában? A tanulmány azt is megjegyzi, hogy az eredmények csak néhány területet és specifikus esetet fednek le, és hogy nem lehetséges általánosabb következtetések levonása. Szóval, valószínűleg nem elég gyorsan.
Miközben a szabályozók olyan intézkedéseket vezetnek be, mint az EU AI Act, hogy nagyobb átláthatóságot követeljenek, és ezzel vádakat és panaszokat vonzanak magukra a nagy technológiai cégektől, azzal érvelve, hogy ez lassítja a fejlődést, az erős AI modellek továbbra is fejlődnek.
Társadalmi szinten törekednünk kell arra, hogy egyensúlyt találjunk azon technológiák működésének mélyebb megértése és azok olyan módon történő alkalmazása között, amelyek értelmes előnyöket és fejlődést hoznak közösségeink számára. Lehetséges ez? Az az ötlet, hogy egyszerűen csak imádkozzunk vagy reméljük, hogy ezek a “lények” “etikusak” és “jók” maradnak, jelenleg nem tűnik túl elképzelhetetlennek.
Írj hozzászólást
Mégse