(Acest articol a fost publicat pentru prima dată pe Modele de peisaje maritimeși cu amabilitate a contribuit la R-bloggeri). (Puteți raporta problema legată de conținutul acestei pagini aici)
Doriți să vă distribuiți conținutul pe R-bloggeri? dați clic aici dacă aveți un blog, sau aici dacă nu aveți.
Sunt adesea întrebat dacă utilizarea agenților de codare AI economisește timp. Da, ei scriu cod foarte repede și pot finaliza analize întregi de date ecologice.

Agenții chiar ajută atunci când se apropie termenele limită?
Dar codul necesită și o verificare atentă a erorilor logice. Analiza noastră recentă arată acest lucru. Cele mai bune LLM-uri pot finaliza analize întregi și tot codul funcționează bine. Dar existau șanse decente de erori logice subtile. Aceste erori logice ar necesita o înțelegere umană destul de profundă a codului pentru a fi corectate.
Există o altă problemă și aceea este utilizarea codului pe care nu îl înțelegeți. De multe ori găsesc că agenții produc atât de mult cod, dar nu mă simt confortabil să-l folosesc până nu înțeleg logica linie cu linie.
În aceste cazuri, consider că este mai rapid să folosesc un asistent AI de completare automată, așa că merg linie cu linie, mai degrabă decât o buclă agentică care completează întreaga lucrare.
Cred că juriul este încă în discuție cu această întrebare dacă există un beneficiu net de timp în folosirea agenților. Singura modalitate de a răspunde cu adevărat este un studiu de control randomizat în care cronometrați cât timp durează oamenii de știință pentru a finaliza pe deplin o sarcină.
Singurul studiu de care sunt conștient este destul de limitat și s-a uitat la dezvoltatorii de software. Ei au descoperit că dezvoltatorii au proiectat adesea că vor fi mai rapizi cu instrumentele AI, dar au fost de fapt mai lenți la sarcini până la sfârșitul proiectului.
Este adevărat că folosirea inteligenței artificiale este distractivă pentru că face atât de multe progrese, dar acel sentiment de distracție ar putea fi o capcană pentru noi.
Este probabil ca răspunsul să fie dependent de context.
Bănuiesc că, pentru oamenii de știință, cea mai mare parte a codării pe care o facem (cum ar fi scrierea modelelor care reprezintă ecosisteme) necesită de fapt ca umanul să înțeleagă ce face. În aceste cazuri, agenții nu au sens, deoarece trebuie să vă întoarceți și să revizuiți codul cu atenție pentru a-l înțelege oricum.
Pe de altă parte, dacă creați instrumente software care sunt ușor de verificat, atunci agenții sunt grozavi. De exemplu, le folosesc adesea pentru a scrie cod pentru cifre non-standard. Nu trebuie să știu codul în acest caz, deoarece pot verifica vizual că ieșirea este corectă.
De asemenea, aplicațiile interactive strălucitoare sunt un alt exemplu de economisire a timpului. Agentul poate lua un cod (bun) pe care îl aveți deja și îl poate transforma într-o aplicație. Este ușor de testat și verificat, deoarece utilizați doar aplicația.
Oamenii indică adesea progresele în LLM și spun că în curând vor fi suficient de buni pentru a face toate codurile pentru noi. Nu sunt atât de sigur că se aplică științei. De fapt, am descoperit că versiunea ulterioară a lui Claude Sonnet a avut cam la fel ca o versiune anterioară despre logica științifică, doar a făcut diferite tipuri de erori.
Cred că progresele trebuie să vină în modul în care interacționăm și folosim LLM-urile.
Scopul final ar trebui să fie munca eficientă, dar și de înaltă calitate. Asta e ceva ce vreau să mă uit în următorul meu studiu agentic AI.
