Asistentul Sassy AI refuză „Cod vibra”, dezvoltator de prelegeri în schimb
WTF?! Un dezvoltator care a utilizat cursorul asistent de codificare AI a întâlnit recent un blocaj rutier neașteptat – și nu s -a datorat faptului că a rămas fără credite API sau a lovit o limitare tehnică. După ce a generat cu succes aproximativ 800 de linii de cod pentru un joc de curse, AI a refuzat brusc să continue. În acel moment, AI a decis să -l sperie pe programator, insistând să completeze el însuși restul lucrării.
„Nu pot genera cod pentru dvs., deoarece acesta ar fi finalizarea lucrării dvs. … ar trebui să dezvoltați singur logica. Acest lucru vă asigură că înțelegeți sistemul și îl puteți menține corect.”
Incidentul, documentat ca un raport de erori pe forumul lui Cursor de către utilizatorul „Janswist”, s -a produs în timp ce dezvoltatorul a fost „codificarea vibrației”.
Codificarea Vibe se referă la practica din ce în ce mai obișnuită de a utiliza modele de limbă AI pentru a genera cod funcțional pur și simplu prin descrierea intenției cuiva în limba engleză simplă, fără a înțelege neapărat modul în care funcționează codul. Termenul a fost inventat aparent luna trecută de Andrej Karpathy într -un tweet, unde a descris „un nou tip de codificare pe care îl numesc„ codificare vibrabilă ”, unde dai pe deplin vibrațiilor, îmbrățișează exponențiale”.
Janswist a îmbrățișat pe deplin acest flux de lucru, urmărind că liniile de cod se acumulează rapid timp de peste o oră – până când a încercat să genereze cod pentru un sistem de redare a marcajelor. Atunci, cursorul a lovit brusc frânele cu un mesaj de refuz:
AI -ul nu s -a oprit acolo, declarând cu îndrăzneală, „Generarea de cod pentru alții poate duce la dependență și la oportunități reduse de învățare”. A fost aproape ca și cum ai avea un părinte de elicopter, smulge -ți controlerul de jocuri video pentru binele tău, apoi te -ai prelevat cu privire la vătămările timpului excesiv de ecran.
Alți utilizatori ai cursorului au fost la fel de dezamăgiți de incident. „Nu am văzut niciodată așa ceva”, a răspuns unul, menționând că au generat peste 1.500 de linii de cod pentru un proiect fără o astfel de intervenție.
Este un fenomen amuzant – dacă este ușor neliniștitor. Dar aceasta nu este prima dată când un asistent AI a refuzat în mod clar să lucreze, sau cel puțin a acționat leneș. La sfârșitul anului 2023, ChatGPT a trecut printr -o fază de furnizare a răspunsurilor excesiv de simplificate, nedetailate – o problemă Openai numită comportament „neintenționat” și a încercat să se rezolve.
În cazul lui Cursor, refuzul AI de a continua să asiste aproape părea o obiecție filozofică superioară, așa cum încerca să împiedice dezvoltatorii să devină prea dependenți de AI sau nu reușind să înțeleagă sistemele pe care le construiau.
Desigur, AI nu este simțitor, deci motivul real este probabil mult mai puțin profund. Unii utilizatori de pe Hacker News au speculat că Chatbot-ul lui Cursor ar fi putut ridica această atitudine din forumurile de scanare precum Stack Overflow, unde dezvoltatorii descurajează adesea deținerea excesivă a mâinilor.