
Photo by Saúl Bucio on Unsplash
Mesterséges Intelligencia által generált hibák a bírósági iratokban jogi problémákat okoznak az ügyvédeknek
Egy tegnap a Reuters által megosztott jelentés szerint az AI hallucinációi – a generatív AI modellek által létrehozott hibák és kitalált információk – jogi problémákat okoznak az Egyesült Államok bíróságain.
Siet? Itt van a lényeg röviden!
- Morgan & Morgan e-mailt küldött 1,000 ügyvédnek, figyelmeztetve őket az AI kockázataira.
- A Walmart ügyvédeinek a közelmúltban tett beismerése, miszerint AI-t használnak ügyeikben, aggodalmat keltett a jogi közösségben.
- A chatbot hallucinációk használata bírósági nyilatkozatokban egyre visszatérőbb problémává vált az elmúlt években.
Ebben a hónapban a Morgan & Morgan ügyvédi iroda emailben figyelmeztetett több mint 1000 jogászt a chatbotok használatának és a mesterséges intelligencia által generált hamis ügyek kockázataira.
Néhány nappal ezelőtt, két wyomingi ügyvéd bevallotta, hogy mesterséges intelligencia által generált hamis ügyeket vettek fel egy peranyagba, amelyet a Walmart ellen indítottak, és egy szövetségi bíró szankcióval fenyegette őket.
Decemberben a Stanford professzorát és dezinformáció szakértőjét, Jeff Hancockot vádolták azzal, hogy mesterséges intelligenciát használt bírósági nyilatkozatok hamisítására, mint részét védekezésének az állam 2023-as törvényével szemben, amely büntetőjogi felelősséget ró a választások befolyásolására használt deepfake-ek használatára.
Az elmúlt néhány évben több eset, mint ezek, jogi súrlódást okoztak és gondot okoztak a bíróknak és a peres feleknek. A Morgan & Morgan és a Walmart nem kívánta kommentálni ezt a kérdést.
A generatív AI segít csökkenteni a jogászok kutatási idejét, de hallucinációi jelentős költségeket jelenthetnek. A Thomson Reuters tavalyi felmérése szerint a jogászok 63%-a használt AI-t a munkájához, és 12%-uk rendszeresen tette ezt.
Tavaly az Amerikai Ügyvédi Kamara emlékeztette 400,000 tagját az ügyvédeti etikai szabályokra, amelyek közé tartozik, hogy az ügyvédeknek minden, a bírósági beadásaikban található információ mellett kell állniuk, és megjegyezték, hogy ez az AI által generált információkat is magában foglalja, akkor is, ha ez nem szándékos – mint például Hancock esetében.
“Amikor az ügyvédeket azon kapják, hogy ChatGPT-t vagy bármilyen generatív AI eszközt használnak hivatkozások létrehozására anélkül, hogy ellenőriznék azokat, az egyszerűen csak inkompetencia, semmi több,” mondta Andrew Perlman, a Suffolk Egyetem jogi karának dékánja a Reutersnek.
Néhány nappal ezelőtt a BBC is megosztott egy jelentést, melyben figyelmeztetnek az AI által generált hamis idézetekre és a mesterséges intelligencia eszközökkel kapcsolatos problémákra a újságírásban.
Írj hozzászólást
Mégse