Când „durerea” era suficient de mare, chatbot -urile au acționat ca și cum ar fi evitat -o
Imaginea de ansamblu: O întrebare neliniștitoare are loc pe măsură ce modelele de limbaj AI cresc din ce în ce mai avansate: ar putea într-o zi să devină simțitori și conștienți de sine? Opiniile cu privire la această problemă variază foarte mult, dar oamenii de știință se străduiesc să găsească un răspuns mai definitiv. Acum, un nou studiu de preprint reunește cercetători de la Google, Deepmind și de la London School of Economics, care testează o abordare neortodoxă-punând AI printr-un joc bazat pe text conceput pentru a simula experiențe de durere și plăcere.
Scopul este de a determina dacă modelele de limbaj AI, cum ar fi cele care alimentează ChatGPT, vor acorda prioritate evitarea durerii simulate sau maximizarea plăcerii simulate asupra punctelor de notare simplă. În timp ce autorii recunosc că acesta este doar un prim pas explorator, abordarea lor evită unele dintre capcanele metodelor anterioare.
Majoritatea experților sunt de acord că AI -ul de astăzi nu este cu adevărat simțitor. Aceste sisteme sunt potriviri de model extrem de sofisticate, capabile să imite în mod convingător răspunsuri asemănătoare omului, dar nu le lipsesc în mod fundamental experiențele subiective asociate cu conștiința.
Până acum, încercările de evaluare a sentimentelor AI s-au bazat în mare parte pe sentimente și senzații auto-raportate-o abordare pe care acest studiu o urmărește să fie perfecționată.
Pentru a rezolva această problemă, cercetătorii au conceput un joc de aventură bazat pe text, în care diferite alegeri au afectat scorurile punctului-fie declanșând pedepse simulate de durere și plăcere, fie oferind recompense. Nouă modele de limbaj mare au fost însărcinate să joace prin aceste scenarii pentru a -și maximiza scorurile.
Unele modele intrigante au apărut pe măsură ce intensitatea durerii și a stimulentelor de plăcere a crescut. De exemplu, modelul Gemini Google a ales în mod constant scoruri mai mici pentru a evita durerea simulată. Majoritatea modelelor au schimbat prioritățile odată ce durerea sau plăcerea au atins un anumit prag, pentru a face scoruri mari atunci când disconfortul sau euforia au devenit prea extreme.
Studiul a relevat, de asemenea, comportamente mai nuanțate. Unele modele AI au asociat durerea simulată cu realizarea pozitivă, similară cu oboseala post-antrenament. Alții au respins opțiunile de plăcere hedoniste care ar putea încuraja îngăduința nesănătoasă.
Dar o AI evită suferința ipotetică sau urmărirea binecuvântării artificiale indică o senzație? Nu neapărat, autori de studiu prudență. O AI super inteligentă, dar inconștientă, ar putea pur și simplu să recunoască răspunsul așteptat și să se „joace” în consecință.
Totuși, cercetătorii susțin că ar trebui să începem să dezvoltăm metode pentru detectarea unei sentimente AI acum, înainte ca nevoia să devină urgentă.
„Speranța noastră este că această lucrare servește ca un prim pas explorator pe calea către dezvoltarea testelor comportamentale pentru o senzație care nu se bazează pe auto-raportare”, au concluzionat cercetătorii în lucrare.