Sincer, cine nu a văzut această problemă venind? Experții legali spun că se va agrava doar
În context: Modelele de limbi mari au fost deja folosite pentru a înșela în școală și a răspândi dezinformarea în rapoartele de știri. Acum se strecoară în instanțe, alimentând înregistrările false cu care judecătorii se confruntă pe fondul cazurilor grele – ridicând noi riscuri pentru un sistem juridic deja întins subțire.
Un raport recent al ARS Technica a detaliat o decizie a Curții de Apel din Georgia care evidențiază un risc din ce în ce mai mare pentru sistemul juridic al SUA: halucinații generate de AI care se strecoară în depuneri judecătorești și chiar influențând hotărârile judiciare. În litigiul divorțului, avocatul soțului a prezentat un proiect de ordin adus cu citări la cazuri care nu există – probabil inventată de instrumente AI generative precum Chatgpt. Curtea de judecată inițială a semnat în document și, ulterior, s -a pronunțat în favoarea soțului.
Doar atunci când soția a făcut apel, citările fabricate au ieșit la iveală. Grupul de apel, condus de judecătorul Jeff Watkins, a abandonat ordinul, menționând că cazurile false au subminat capacitatea instanței de a examina decizia. Watkins nu a jucat cuvinte, numind citările posibile halucinații de inteligență generative-artificiale. Curtea a amendat avocatul soțului 2.500 de dolari.
Acest lucru ar putea suna ca un singur, dar un avocat a fost amendat cu 15.000 de dolari în februarie în circumstanțe similare. Experții juridici avertizează că este probabil un semn al lucrurilor viitoare. Instrumentele AI generative sunt notoriu predispuse la fabricarea informațiilor cu încredere convingătoare – un comportament etichetat „halucinație”. Pe măsură ce AI devine mai accesibil atât pentru avocații copleșiți, cât și pentru litigii auto-reprezentați, experții spun că judecătorii se vor confrunta din ce în ce mai mult cu înregistrările pline de cazuri false, precedente fantomă și raționamente legale îmbrăcate îmbrăcate pentru a părea legitime.
Problema este agravată de un sistem juridic deja întins subțire. În multe jurisdicții, judecătorii de rutină ordinele Rubberstamp elaborate de avocați. Cu toate acestea, utilizarea AI crește miza.
„Pot imagina un astfel de scenariu în orice număr de situații în care un judecător de judecată menține o priză grea”, a spus John Browning, un fost judecător de apel din Texas și savant legal, care a scris pe scară largă despre etica AI în drept.
Browning a declarat pentru Ars Technica că crede că este „înfricoșător de probabil” că aceste tipuri de greșeli vor deveni mai frecvente. El și alți experți avertizează că instanțele, în special la nivelurile inferioare, nu sunt pregătite să se ocupe de acest aflux de prostii conduse de AI. Doar două state – Michigan și Virginia de Vest – impun în prezent judecătorilor să mențină un nivel de bază al „competenței tehnologice” atunci când vine vorba de AI. Unii judecători au interzis înregistrările generate de AI sau dezvăluirea mandatată a utilizării AI, dar aceste politici sunt neplăcute, inconsistente și greu de aplicat din cauza volumului cazului.
Între timp, înregistrările generate de AI nu sunt întotdeauna evidente. Modelele de limbaj mare inventează adesea nume de cazuri realiste, citări plauzibile și jargon legal care sună oficial. Browning notează că judecătorii pot urmări semne de povestire: reporteri de judecată incorecte, numere de caz de loc de loc, cum ar fi „123456”, sau un limbaj formulator înclinat. Cu toate acestea, pe măsură ce instrumentele AI devin mai sofisticate, aceste cadouri pot dispărea.
Cercetătorii, precum Peter Henderson de la Princeton’s Polaris Lab, dezvoltă instrumente pentru a urmări influența AI asupra înregistrărilor judecătorești și pledează pentru depozite deschise ale jurisprudenței legitime pentru a simplifica verificarea. Alții au soluții noi plutite, cum ar fi „sisteme de recompense” pentru a -i răsplăti pe cei care prind cutii fabricate înainte de a aluneca.
Deocamdată, cazul de divorț din Georgia reprezintă o poveste de precauție – nu doar despre avocați nepăsători, ci despre un sistem judiciar care poate fi prea copleșit pentru a urmări utilizarea AI în fiecare document legal. După cum a avertizat judecătorul Watkins, dacă halucinațiile generate de AI continuă să alunece în registrele judiciare necontrolate, aceștia amenință că vor eroda încrederea în sistemul de justiție în sine.
