Vélemény: Az MI-látomás járvány, egy válság, amire nem vagyunk felkészülve

Image generated with DALL·E through ChatGPT

Vélemény: Az MI-látomás járvány, egy válság, amire nem vagyunk felkészülve

Olvasási idő: 7 perc

Az AI hallucinációk csökkentésére irányuló folyamatos ígéretek ellenére a fő AI eszközök – a ChatGPT-től a Perplexity-n át a Gemini-ig, és az Apple Intelligence-ig – továbbra is hamis információt generálnak, gyakran riasztó következményekkel. Az szakértők, beleértve azokat is, akik az AI kockázatokra figyelmeztetnek, bedőltek a kitalált tartalmaknak, és még a fejlett eszközök, mint a Deep Research is jelentéseket fabrikálnak. Az igazság úgy tűnik, az emberi kezekben marad

A chatbotok az évek során egyre jobbak lettek – sokkal jobbak. Azonban van egy probléma, amelyet még nem sikerült teljesen megoldani, és ezt “hallucinációknak” nevezik.

Szeretett chatbotjaink ragyogó válaszokat osztanak meg kérdéseinkre a tudományos-fantasztikus Yoda elszántságával és határozottságával, még akkor is, ha borzasztóan tévednek. És mi hiszünk nekik. Néha vakon.

Számos tudós, szakértő, sőt maguk a chatbot fejlesztők is évek óta figyelmeztetnek az hallucináció veszélyeire. Mégis, míg a chatbotok használata gyorsan terjed – az OpenAI néhány nappal ezelőtt 400 millió heti aktív felhasználóról számolt be – az AI ismeretek fejlődése nem tartott lépést.

A legutóbbi tanulmányok, bírósági esetek és drámai események továbbra is azt mutatják, hogy a téves információk még veszélyesebbek, mint gondoltuk.

Rosszabb, mint gondolnánk

Eleinte elég vicces volt az AI által generált nagy hibák felfedezése – mint például a Gemini által generált kínos AI összefoglalók, amelyek azt javasolták a felhasználóknak, hogy “nem toxikus ragasztót adjanak a szószhoz” egy pizza receptnél, vagy azt ajánlották, hogy “naponta egy kis követ” együnk tavaly. De ahogy újra megbízunk az AI-ban, a helyzet fokozódott, egyre aggasztóbbá vált.

Decemberben láttuk, hogy az Apple AI eszköze „összefoglalja” a híreket és hamis, megtévesztő információkat generál, mint például a téves állítás, hogy a BBC bejelentette, Luigi Mangione öngyilkos lett. Ebben az esetben a kiadó panaszt nyújtott be az Apple ellen, és elkezdte vizsgálni a generatív AI pontosságát a hírtartalom elemzése során.

A BBC eredményei, melyeket mindössze néhány nappal ezelőtt tettek közzé, riasztó statisztikákat tártak fel: a népszerű AI Chatbotok által adott válaszok 51%-a jelentős problémákat tartalmazott, a modellek által adott idézetek 13%-a teljesen kitalált volt, és az adatok 19%-a volt helytelen.

A tinédzserek a leginkább érintett csoportok közé tartoznak, mivel gyakran nehéz számukra megkülönböztetni a hamis híreket a valódi hírektől, és könnyen befolyásolhatók az AI által generált tartalmak által. Egy januárban közzétett tanulmány szerint a tinédzserek 35%-át megtévesztették az AI modellek által generált hamis tartalmak, és 22%-uk megosztotta a hamis információkat.

De nem csak a tinédzserek és a szétszórt emberek esnek be ezeknek a hallucinációknak. És nem csak a Gemini vagy az Apple Intelligence.

Nincs Megkímélt AI Modell, Nincs Biztonságban Lévő Iparág

A BBC által végzett kutatás további problémát erősít meg: minden AI modell hallucinál. A szakértők a legnépszerűbb modelleket vizsgálták, mint a ChatGPT, a Gemini, a Perplexity és a Copilot. Nincs olyan AI modell, amely hibáktól mentes lenne. Az Anthropic cégnek van egy oldala, amely ezt a problémát tárgyalja, ötleteket javasolva arra, hogyan lehetne csökkenteni a hallucinációkat.

„Még a legfejlettebb nyelvi modellek, mint például a Claude, néha ténybelileg helytelen vagy az adott kontextussal összeegyeztethetetlen szöveget generálnak,” áll a dokumentumban. Más AI cégek hasonló oldalakat osztottak meg tippekkel és trükkökkel a hamis tartalom elkerülésére, de ez nem olyan egyszerű, és ez már hosszú ideje megoldatlan probléma.

2023-ban az OpenAI bejelentette, hogy új, innovatív módszereken dolgozik a hallucinációk megszüntetésére. Spoiler alert: máig ez még mindig hatalmas probléma.

2024 januárjában – több mint egy évvel ezelőtt – a vezérigazgató, Aravind Srinivas elmondta, hogy a Perplexity hallucinációi főként a fizetés nélküli felhasználói fiókokban fordulnak elő. “A panaszok nagy része a termék ingyenes változatából származik” – magyarázta Srinivas, hozzátéve, hogy már több GPU-t vonultatnak fel a probléma megoldására. Mégis, októberre a New York Post és a Dow Jones beperelte a Perplexity-t, mivel a modelljük folyamatosan hamis híreket tulajdonított kiadványaiknak, és az amerikai választásokra kifejlesztett AI eszközüket szakértők tesztelték, akik következetlenségeket, pontatlan összefoglalókat és hallucinációkat fedeztek fel.

A hallucináció betegség elérte a tudományos és akadémiai szinteket

Az egyik legnagyobb aggodalom jelenleg az, hogy még a szakértők is – beleértve azokat, akik az AI kockázataira és veszélyeire figyelmeztetnek – bedőlnek ezeknek a hallucinációra hajlamos eszközöknek.

Decemberben a Stanford professzorát és a technológiai és dezinformációs szakértőt, Jeff Hancockot megvádolták, hogy AI-t használt bírósági nyilatkozat készítésére. Hancock egy 12 oldalas nyilatkozatot nyújtott be, amelyben védelmezi a 2023-as állami törvényt, amely bűncselekménnyé nyilvánítja a deepfake-ek használatát, beleértve a 15 hivatkozást. Azonban két ilyen hivatkozást sehol sem lehetett megtalálni – mert a ChatGPT, a dezinformációs szakértő kedvelt AI eszköze, egyszerűen kitalálta őket.

Hancock – aki idén a “Truth, Trust, and Tech” (Igazság, Bizalom és Technológia) kurzust oktatja – elmagyarázta, hogy az OpenAI chatbotjának segítségével szervezte a hivatkozásait, ami hallucinációkhoz vezetett. A kutató bocsánatot kért – és kitartott a nyilatkozata lényegi pontjai mellett -, és mindannyiunknak megtanította az értékes leckét, hogy még a szakértők és az AI kockázatairól legtábbat tudók is ki vannak téve annak.

Hancock professzor nem az egyetlen, aki mesterséges intelligencia által generált koholmányokat tartalmazó dokumentumokat nyújtott be a bíróságon. Egy másik eset, amely egy perben érintette a Walmartot, nemrégiben híressé vált, mert az ügyvédek az AI által generált hamis eseteket használták fel érvrendszerük felépítéséhez. Valójában az ügy olyan gyakorivá vált az amerikai bíróságokon, hogy a Morgan & Morgan jogi iroda nemrégiben e-maileket küldött több mint 1000 ügyvédjének, figyelmeztetve őket az AI által generált hivatkozások használatának kockázataira, és az Amerikai Ügyvédi Szövetség emlékeztette 400 000 tagját az ügyvédi etikai szabályokra – beleértve az AI által generált információkat.

Mély Kutatás is

Az egyik legnépszerűbb mesterséges intelligencia eszköz jelenleg a “Deep Research”, melyet szakértők és tudósok számára terveztek, akik bonyolultabb eredményeket keresnek kutatásaikban. A hallucinációk sem hiányoznak ebből az eszközből, annak ellenére, hogy az OpenAI változata eredetileg egy 200 dolláros Pro előfizetést igényelt a hozzáféréshez.

A Reddit-en felhasználók felvetették aggodalmaikat ezzel kapcsolatban, jelentve, hogy az összes népszerű modell, amely deep research eszközöket tartalmaz – Perplexity, ChatGPT és DeepSeek – hallucinált. Kutatók és mesterséges intelligencia szakértők is megosztottak aggasztó eredményeket más közösségi média platformokon, mint az X.

“Az eszköz gyönyörűen megírt és jól érvelt jelentést hozott létre,” írta egy felhasználó, aki az OpenAI Deep Research eszközét használta fiatalok által végzett matematikai kutatások tanulmányozására. “Az egyetlen probléma, hogy mindez kitalált.”

“A Deep Research számos statisztikát és elemzést kitalált, miközben azt állította, hogy összeállít egy adatbázist több ezer cikkről, és állítólag megszerzi minden szerző születési évének adatait megbízható forrásokból,” osztott meg egy másik. “Ez semmi sem igaz.”

Az Igazság Az Emberi Kezekben Marad

Vajon a chatbotok valaha abba fogják hagyni a hallucinálást? Az AI gyenge pontja évek óta nyilvánvaló – láttuk ezt olyan podcastokban, mint a Planet Money, amikor 2023-ban AI által generált epizódokat teszteltek, és továbbra is látjuk a legfejlettebb modellekben, még azokban is, amelyeket kizárólag szakértői és technikai érzékkel rendelkező közösségek használatára terveztek.

Talán itt az ideje elfogadnunk, hogy ez továbbra is probléma marad, és megértenünk, hogy felelősséget kell vállalnunk azért, amit mesterséges intelligencia eszközökkel hozunk létre és osztunk meg.

Az a tény, hogy bár úgy tűnik, ez egy jól ismert probléma, de még maguk az AI kockázati szakértők is bedőlnek a mesterséges intelligencia meggyőző és hatásos írásának, határozottan aggasztó. A helyzet még bonyolultabbá válik, mivel az alkalmazás továbbra is teljes sebességgel gyorsul, megelőzve a digitális írástudás fejlődését, miközben az ellentmondások és a hamis idézetek száma szaporodik.

Azok az esetek, amikor ki vannak téve az AI hallucinációknak, általában azok, amikor elengedhetetlen a tények ellenőrzése – valamit, amire Zuckerberget is emlékeztetni kellene most, hogy megszüntette a tényellenőrző osztályát. Ez különösen nyilvánvaló a bíróságokon, ahol az ügyvédek és bírák igyekeznek ellenőrizni a tényeket és ügyeket, és a hír médiumokban, ahol a pontosság és a források hitelessége fontos.

De mi van azokkal az esetekkel, amikor senki sem vizsgálja meg ezeket a részleteket? Mi történik a mindennapi, személyesebb környezetben? Jelenleg milliók diák tanulja meg az AI által generált válaszokat a tanulmányaihoz, a felhasználók az AI által nyújtott utasításokat követik betegségek kezelésére, és mások új témákról tanulnak, teljesen megbízva a technológiában.

Ez az új valóság, amellyel szembenézünk, mérhetetlen és kiszámíthatatlan következményekkel jár, és az igazság – egyelőre – azok kezében van, akik időt szánnak a kérdések feltevésére és az ellenőrzésre.

Tetszett ez a cikk? Értékelje!
Utáltam Nem igazán tetszik nekem Rendben volt Nagyon jó! Imádtam!

Örülünk, hogy tetszett a munkánk!

Értékes olvasóként írnál rólunk véleményt a Trustpilotra? Csak pár perc, és a világot jelentené számunkra. Köszönjük, hogy ilyen szuper vagy!

Értékelj minket a Trustpiloton
0 0 felhasználó szavazott
Cím
Hozzászólás
Köszönjük visszajelzését
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Írj hozzászólást

Loader
Loader Mutass többet...