Mesterséges Intelligencia által generált hibák a bírósági iratokban jogi problémákat okoznak az ügyvédeknek

Photo by Saúl Bucio on Unsplash

Mesterséges Intelligencia által generált hibák a bírósági iratokban jogi problémákat okoznak az ügyvédeknek

Olvasási idő: 2 perc

Egy tegnap a Reuters által megosztott jelentés szerint az AI hallucinációi – a generatív AI modellek által létrehozott hibák és kitalált információk – jogi problémákat okoznak az Egyesült Államok bíróságain.

Siet? Itt van a lényeg röviden!

  • Morgan & Morgan e-mailt küldött 1,000 ügyvédnek, figyelmeztetve őket az AI kockázataira.
  • A Walmart ügyvédeinek a közelmúltban tett beismerése, miszerint AI-t használnak ügyeikben, aggodalmat keltett a jogi közösségben.
  • A chatbot hallucinációk használata bírósági nyilatkozatokban egyre visszatérőbb problémává vált az elmúlt években.

Ebben a hónapban a Morgan & Morgan ügyvédi iroda emailben figyelmeztetett több mint 1000 jogászt a chatbotok használatának és a mesterséges intelligencia által generált hamis ügyek kockázataira.

Néhány nappal ezelőtt, két wyomingi ügyvéd bevallotta, hogy mesterséges intelligencia által generált hamis ügyeket vettek fel egy peranyagba, amelyet a Walmart ellen indítottak, és egy szövetségi bíró szankcióval fenyegette őket.

Decemberben a Stanford professzorát és dezinformáció szakértőjét, Jeff Hancockot vádolták azzal, hogy mesterséges intelligenciát használt bírósági nyilatkozatok hamisítására, mint részét védekezésének az állam 2023-as törvényével szemben, amely büntetőjogi felelősséget ró a választások befolyásolására használt deepfake-ek használatára.

Az elmúlt néhány évben több eset, mint ezek, jogi súrlódást okoztak és gondot okoztak a bíróknak és a peres feleknek. A Morgan & Morgan és a Walmart nem kívánta kommentálni ezt a kérdést.

A generatív AI segít csökkenteni a jogászok kutatási idejét, de hallucinációi jelentős költségeket jelenthetnek. A Thomson Reuters tavalyi felmérése szerint a jogászok 63%-a használt AI-t a munkájához, és 12%-uk rendszeresen tette ezt.

Tavaly az Amerikai Ügyvédi Kamara emlékeztette 400,000 tagját az ügyvédeti etikai szabályokra, amelyek közé tartozik, hogy az ügyvédeknek minden, a bírósági beadásaikban található információ mellett kell állniuk, és megjegyezték, hogy ez az AI által generált információkat is magában foglalja, akkor is, ha ez nem szándékos – mint például Hancock esetében.

“Amikor az ügyvédeket azon kapják, hogy ChatGPT-t vagy bármilyen generatív AI eszközt használnak hivatkozások létrehozására anélkül, hogy ellenőriznék azokat, az egyszerűen csak inkompetencia, semmi több,” mondta Andrew Perlman, a Suffolk Egyetem jogi karának dékánja a Reutersnek.

Néhány nappal ezelőtt a BBC is megosztott egy jelentést, melyben figyelmeztetnek az AI által generált hamis idézetekre és a mesterséges intelligencia eszközökkel kapcsolatos problémákra a újságírásban.

Tetszett ez a cikk? Értékelje!
Utáltam Nem igazán tetszik nekem Rendben volt Nagyon jó! Imádtam!

Örülünk, hogy tetszett a munkánk!

Értékes olvasóként írnál rólunk véleményt a Trustpilotra? Csak pár perc, és a világot jelentené számunkra. Köszönjük, hogy ilyen szuper vagy!

Értékelj minket a Trustpiloton
0 0 felhasználó szavazott
Cím
Hozzászólás
Köszönjük visszajelzését
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Írj hozzászólást

Loader
Loader Mutass többet...