Cum asistenții de codare AI vă pot influența codarea și analiza

URMĂREȘTE-NE
16,065FaniÎmi place
1,142CititoriConectați-vă

(Acest articol a fost publicat pentru prima dată pe Modele de peisaje maritimeși cu amabilitate a contribuit la R-bloggeri). (Puteți raporta problema legată de conținutul acestei pagini aici)


Doriți să vă distribuiți conținutul pe R-bloggeri? dați clic aici dacă aveți un blog, sau aici dacă nu aveți.

Sunt un utilizator frecvent de asistenți de codare AI pentru a-mi accelera codarea. Folosesc în mare parte Github Copilot și extensia agentică Roo Code pentru VSCode, cu diferite modele de limbaj mari (LLM).

Auzim multe despre părtiniri și LLM-uri, ceea ce m-a făcut să mă întreb ce părtiniri ar putea induce utilizarea asistenților de codare în codificarea și analiza datelor?

Prejudecățile reprezintă o preocupare în alte domenii de aplicare a LLM-urilor la locul de muncă. De exemplu, LLM-urile sunt cunoscute ca fiind sexiste, părtinitoare către recomandarea articolelor științifice din anumite părți ale lumii și chiar părtinitoare față de opiniile lui Elon Musk.

M-am gândit că folosirea LLM-urilor în principal pentru a ajuta cu codul R ar însemna că sunt imun în mod rezonabil la problemele cu prejudecățile în LLM.

Dar, după o experiență recentă în Python, mi-am dat seama că există tipuri subtile de părtiniri în LLM-uri care ar putea avea un impact mare asupra calității unei analize.

Am considerat că LLM-urile ar putea recomanda anumite tipuri de teste statistice mai frecvent decât altele, poate părăsindu-mă către metodologiile statistice dominante (cum par să recomande mai frecvent modelele liniare generalizate frecventiste decât bayesiene).

Dar nu eram îngrijorat de asta. Am o viziune destul de largă asupra statisticilor în domeniul meu și, de obicei, nu folosesc LLM-uri pentru a recomanda noi metode. Mă uit la literatura științifică pentru acest sfat.

LLM-urile ar putea avea propriile modalități specifice de implementare a codului, dar rezultatul final al unui anumit test statistic este același, nu contează foarte mult cum ajungi acolo.

Folosirea Python mi-a schimbat punctul de vedere asupra acestui lucru. Sunt un programator R de o viață, nu un programator Python. Totuși, am vrut să învăț câteva analize de deep learning, pentru care aveam nevoie de Python. Așa că m-am apucat să-mi folosesc asistentul de codare pentru a-mi scrie un tutorial despre învățarea deep learning în Python.

Modul în care asistenții de codare LLM vă pot părăsi codul este că majoritatea sunt configurați pentru a fi simpatici. Așa că îți amplifică propriile părtiniri afirmând că orice ai este bun.

Acest lucru a devenit evident când eu, codificatorul R, aduceam ideile mele informate R pentru scrierea codului în Python. LLM m-a condus pe căi pentru implementarea codului care are sens în R land, dar care nu sunt cele mai bune practici pentru implementarea în Python.

Mi-am dat seama de asta odată ce am început să mă refer la tutoriale reale Python.

În general, LLM-urile tind să fie afirmative față de cererile dvs. Pentru un flux de lucru de analiză a datelor, aceasta înseamnă că vor avea tendința de a amplifica orice prejudecăți cu care începeți.

Erorile care provoacă eșecul codului sunt ok, deoarece sunt ușor de detectat. Ceea ce este mai îngrijorător este dacă LLM amplifica greșelile subtile în alegerea statisticilor.

Am o pre-printare despre utilizarea LLM-urilor și a asistenților de codare AI pentru analiza datelor ecologice. Una dintre recomandările noastre este să vă împărțiți fluxul de lucru în părți.

În special, vă ajută să alegeți analiza înainte de a planifica modul în care va fi scris codul (și ce software sau pachete veți folosi). Dacă combinați aceste două decizii diferite, este mai probabil să faceți greșeli care sunt amplificate. Cel mai bine vă alegeți analiza folosind AI, dar și citind literatura de specialitate. Apoi, obțineți AI pentru a vă ajuta să implementați asta.

Cealaltă problemă este că îți termini analiza și LLM te-a făcut să crezi că este excelent. Trimiteți acea analiză pentru evaluare, iar recenzenții gândesc diferit.

Așa că este o idee bună să vă verificați munca în raport cu normele de disciplină și, în mod ideal, atrageți colegi experți să arunce o privire și ei. Luați tot ce spune un LLM cu un sâmbure de sare, mai ales dacă este de acord cu dvs.

Dominic Botezariu
Dominic Botezariuhttps://www.noobz.ro/
Creator de site și redactor-șef.

Cele mai noi știri

Pe același subiect

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.