Se pare că Redmond investighează dacă modelul „distilat” de la ChatGPT
Un cartof fierbinte: Microsoft ridică sprâncenele după ce a anunțat că va găzdui Deepseek R1 pe serviciul său Azure Cloud. Decizia vine la doar câteva zile după ce Openai a acuzat Deepseek că și -a încălcat condițiile de serviciu, presupuse folosind rezultatele ChatGPT pentru a -și instrui sistemul, acuzațiile pe care Microsoft le investighează în prezent.
Deepseek R1 a început să facă valuri în lumea AI când a fost lansată săptămâna trecută. Dezvoltatorul chinez Deepseek a prezentat -o ca un model de raționament simulat liber disponibil, care rivalizează cu O11 de la OpenAI în performanță, dar la o fracțiune din costul de antrenament. În timp ce OpenAI și-a prețuit modelul O1 la 60 de dolari pe milion de jetoane de producție, Deepseek listează R1 la doar 2,19 dolari pe milion-un contrast remarcabil care a scufundat stocul pentru companii AI-ADJACENT precum NVIDIA.
Decizia Microsoft de a găzdui R1 pe Azure nu este prea neobișnuită pe suprafața sa. Gigantul tehnologic oferă deja peste 1.800 de modele AI prin turnătoria sa AI AI, oferind dezvoltatorilor acces la o varietate de sisteme AI pentru experimentare și integrare. Microsoft nu discriminează, deoarece profită de pe orice platformă AI care operează pe infrastructura sa cloud. Cu toate acestea, decizia pare ironică de când Openai a petrecut săptămâna trecută criticând agresiv modelul pentru distilarea rezultatelor chatgpt.
🚀 Deepseek-R1 este aici!
⚡ Performanță la egalitate cu OpenAI-O1
📖 Model complet open-source și raport tehnic
🏆 Licențiat MIT: distilați și comercializați liber!🌐 Website -ul și API -ul sunt live acum! Încercați Deepthink la https://t.co/v1tfy7lhny astăzi!
🐋 1/n pic.twitter.com/7blpwapu6y
– Deepseek (@deepseek_ai) 20 ianuarie 2025
OpenAI susține că pornirea AI și -a încălcat condițiile de serviciu folosind „distilarea”, după cum a raportat Fox News. Distilarea este atunci când dezvoltatorii antrenează un model AI folosind ieșiri dintr -un sistem mai avansat. Suspiciunile au apărut după ce utilizatorii au descoperit că un model anterior, Deepseek V3, uneori s-a referit la sine drept „chatgpt”, sugerând că Deepseek a folosit date generate de OpenAI pentru a-și regla sistemul.
De asemenea, mișcarea pare oarecum ipocrită, având în vedere că cercetătorii de securitate Microsoft a lansat miercuri o sondă de etică în Deepseek, miercuri. Surse anonime susțin că ancheta se concentrează pe faptul că Deepseek a extras cantități substanțiale de date prin API -ul Openai în toamna anului 2024.
În ciuda frustrărilor cu Deepseek, CEO -ul Openai, Sam Altman, a salutat public competiția. Într -un tweet de luni, Altman a recunoscut eficiența costurilor R1, numindu -l „un model impresionant”, dar a jurat că Openai va oferi în curând „rezultate mult mai bune”. Analiștii se așteaptă ca compania să lanseze un nou model, O3-MINI, încă din prezent.
Deepseek’s R1 este un model impresionant, în special în ceea ce privește ceea ce sunt capabili să ofere prețul.
În mod evident, vom livra modele mult mai bune și, de asemenea, este legitim să revigorezi un nou concurent! Vom scoate câteva versiuni.
– Sam Altman (@sama) 28 ianuarie 2025
Openul Openai asupra practicilor de date ale Deepseek este remarcabil, având în vedere propriul istoric al presupuselor abuzuri de date. New York Times a intentat un proces împotriva lui OpenAI și Microsoft, acuzându -i că au folosit jurnalism protejat de drepturi de autor fără permis. OpenAI a încheiat, de asemenea, oferte cu editori și comunități online-cum ar fi Associated Press și alții-pentru a accesa date generate de utilizatori pentru instruire.
Întreaga situație expune relația ipocrită a industriei AI cu proprietatea datelor. Firma de investiții Andreessen Horowitz, un alt investitor AI deschis, a susținut într -o înregistrare legală din 2023 că modelele AI de instruire nu ar trebui să fie considerate încălcarea dreptului de autor, deoarece „extrag doar informațiile” din lucrările existente. Dacă Openai crede cu adevărat în acest principiu, atunci Deepseek se joacă doar după aceleași reguli.
Peisajul actual al industriei AI este mai mult sau mai puțin liber pentru toate. Nu avem legi cu privire la cărți pentru a guverna direct AI, iar acele legi care o afectează indirect, cum ar fi drepturile de autor și legile comerciale, sunt răsucite într -o interpretare favorabilă de către firmele AI care le încalcă.