Acest lucru este considerat sperjur?
Facepalm: Modelele lingvistice mari au de urcat un deal lung și abrupt înainte de a se dovedi de încredere și de încredere. Deocamdată, sunt de ajutor în începerea cercetării, dar numai proștii ar avea suficientă încredere în ei pentru a scrie un document legal. Un profesor specializat în materie ar trebui să știe mai bine.
Un profesor de la Stanford are un ou pe față după ce a depus o declarație pe propria răspundere la instanță în sprijinul unei legi controversate din Minnesota, care vizează stoparea utilizării deepfake-urilor și AI pentru a influența rezultatele alegerilor. Modificarea propusă la legislația existentă prevede că candidații condamnați pentru utilizarea deepfakes în timpul unei campanii electorale trebuie să renunțe la cursă și riscă amenzi și închisoare de până la cinci ani și 10.000 de dolari, în funcție de numărul de condamnări anterioare.
Reprezentantul statului Minnesota Mary Franson și YouTuber Christopher Kohls au contestat legea, susținând că încalcă Primul Amendament. În timpul procedurii înainte de judecată, procurorul general din Minnesota Keith Ellison i-a cerut directorului fondator al Laboratorului de rețele de socializare din Stanford, profesorul Jeff Hancock, să furnizeze o declarație pe propria răspundere prin care își declară susținerea legii (mai jos).
Reformatorul din Minnesota notează că Hancock a elaborat un argument bine formulat pentru motivul pentru care legislația este esențială. El citează mai multe surse pentru condamnarea sa, inclusiv un studiu intitulat „Influența videoclipurilor deepfake asupra atitudinilor și comportamentului politic” în Journal of Information Technology & Politics. De asemenea, a făcut referire la o altă lucrare academică numită „Deepfakes and the Illusion of Authenticity: Cognitive Processes Behind Misinformation Acceptance”. Problema este că niciunul dintre aceste studii nu există în revista menționată sau în orice altă resursă academică.
Reclamanții au depus un memoriu în care sugerează că citările ar putea fi generate de IA. Atribuțiile dubioase contestă valabilitatea declarației, chiar dacă nu sunt de la un LLM, așa că judecătorul ar trebui să o dea afară.
„Citația poartă semnele distinctive de a fi o „halucinație” de inteligență artificială, ceea ce sugerează că cel puțin citarea a fost generată de un model de limbă mare precum ChatGPT”, se arată în memorandum. „Reclamanții nu știu cum a ajuns această halucinație în declarația lui Hancock, dar pune în discuție întregul document”.
Dacă citările sunt generate de inteligență artificială, este foarte probabil ca și porțiuni, sau chiar întreaga declarație pe propria răspundere, să fie și ele. În experimentele cu ChatGPT, Noobz.ro a descoperit că LLM va inventa citate care nu există într-o aparentă încercare de a da validitate unei povești. Când se va confrunta cu asta, chatbot-ul va admite că a inventat materialul și îl va revizui cu un conținut și mai dubios (mai sus).
Este de imaginat că Hancock, care este, fără îndoială, un om foarte ocupat, a scris un proiect de declarație și a transmis-o unui consilier de editare, care a trecut printr-un LLM pentru a o curăța, iar modelul a adăugat referințele fără a fi solicitat. Cu toate acestea, acest lucru nu scuză documentul de la examinarea și criticile îndreptățite, care este principala problemă a LLM-urilor în prezent.
Ironia că un auto-proclamat expert a prezentat un document care conține informații greșite generate de inteligența artificială unui organism juridic în sprijinul unei legi care interzice acele informații nu se pierde pentru nimeni implicat. Ellison și Hancock nu au comentat situația și probabil că vor să dispară fals-ul jenant.
Întrebarea mai tentantă este dacă instanța va lua în considerare această mărturie mincinoasă, deoarece Hancock a semnat sub declarația „Declar sub pedeapsa mărturii mincinoase că tot ceea ce am afirmat în acest document este adevărat și corect”. Dacă oamenii nu sunt trași la răspundere pentru utilizarea abuzivă a AI, cum se poate îmbunătăți vreodată?
