60% dintre judecătorii federali din SUA aleg inteligența artificială pentru redactarea hotărârilor

Utilizarea inteligenței artificiale în sistemul judiciar din Statele Unite devine tot mai frecventă, însă rămâne plină de controverse. Potrivit unui studiu recent, peste 60% dintre judecători federali recunosc că au folosit cel puțin odată astfel de instrumente în activitatea lor, iar 22% le utilizează regulat. Deși beneficiile în efortul de documentare și analiză sunt evidente, apar și probleme de siguranță și acuratețe, semnalate de greșelile generate de aceste tehnologii în dosarele judiciare.

Adopție și aplicare în instanțe

Judecătorii din întreaga țară explorează oportunitățile oferite de inteligența artificială pentru eficientizarea muncii. Un program pilot al Curții Comitatului Los Angeles, realizat în colaborare cu start-up-ul juridic Learned Hand, testează demai bine de un an un sistem de AI destinat judecătorilor. Acest instrument, prezent și în alte state și chiar la Curtea Supremă din Michigan, ajută la analizarea cazurilor, la redactarea hotărârilor și la identificarea punctelor de vulnerabilitate în argumentație.

De asemenea, companii precum Thomson Reuters și LexisNexis au contracte cu sistemul judiciar federal, pentru a oferi soluții automate de cercetare și analiză, destinată să reducă timpul necesar pentru pregătirea dosarelor. Totuși, departe de a fi perfect, aceste instrumente pot comite greșeli grave, fiind nevoie de o supraveghere atentă.

Unele greșeli deosebit de grave au fost relatate deja, iar exemplele nu lipsesc de controverse. Într-un caz din Districtul New Jersey, inteligența artificială a citat din cazuri inexistente și a prezentat informații false, inclusiv acuzații fabricate ale reclamanților. Aceste erori au fost observate și corectate de judecători, dar problemele persistă și ridică întrebări serioase despre fiabilitatea acestor tehnologii.

Un studiu al Universității Stanford a indicat că, în anumite situații, răspunsurile oferite de instrumentele de AI juridică sunt incorecte în proporție de 17 până la 33%. Deși dezvoltatorii susțin că modelele lor sunt mai precise, riscul unor citări eronate rămâne un motiv de îngrijorare pentru comunitatea juridică.

„Judecătorii sunt responsabili de luarea deciziilor foarte importante pentru oameni și de rezolvarea disputelor foarte semnificative”, a declarat Eric Posner, profesor de drept la Universitatea din Chicago, evidențiind responsabilitatea ridicată a celor care decid folosirea acestor tehnologii.

Există și temeri legate de lipsa de transparență în ceea ce privește utilizarea AI, mulți judecători evitând să recunoască public adoptarea acestor instrumente, din cauza riscului de erori și a posibilității de influență în deciziile finale.

Complicatii și limitațiuni

Deși tehnologia poate reduce timpul de lucru și poate sprijini procesul decizional, nu lipsesc obstacole majore. În opinia multor specialiști, utilizarea AI în instanțe trebuie strict monitorizată și limitată. În unele cazuri, instrumentele au fost folosite în mod greșit, citând cazuri inexistente și agrementând informații false, ceea ce poate avea consecințe grave asupra justiției.

Programul pilot al Curții din Los Angeles, care a limitat aplicarea AI la anumite cazuri civile pe o durată de un an, exemplifică reticența judecătorilor de a renunța la prudență. Astfel, deși tehnologia pare a fi o soluție pentru volumul mare de dosare, riscurile de erori și de prejudicii aduse justiției continuează să fie o problemă de majoră importanță.

Laura Moldovan

Autor

Lasa un comentariu

457 articole alese azi