După ce R1 -ul Deepseek blochează lumea AI, Alibaba răspunde cu un model presupus mai puternic

URMĂREȘTE-NE
16,065FaniÎmi place
1,142CititoriConectați-vă

Întreruperea profundă a forțat un răspuns din partea giganților tehnologici chinezi

Pe scurt: Alibaba s-a lovit din nou la rivalul Deepseek cu lansarea surpriză a noului său model QWEN 2,5-max. Titanul de comerț electronic chinez susține că cea mai recentă ofertă de inteligență artificială depășește capacitățile lansate recent și extrem de apreciate Deepseek-V3.

Momentul debutului QWEN 2.5-Max este neobișnuit, având în vedere că a ajuns în prima zi a vacanței de Anul Nou Lunar, când majoritatea lucrătorilor chinezi sunt opriți. Acesta ilustrează cât de sever Deepseek AI Breakthrough a zguduit jucătorii consacrați.

Am văzut efectul Deepseek pe care a avut-o asupra rivalilor de peste mări precum OpenAI, ceea ce a dus la mai multe postări pe X de către CEO Sam Altman și masivul accident de acțiuni de 600 de miliarde de dolari la NVIDIA-cea mai mare scufundare de o singură zi pentru orice companie publică. Nu este de mirare că succesul lui Deepseek a determinat, de asemenea, giganții de tehnologie chinezi puternici să se retragă pentru un răspuns. Contropodistul Alibaba vine sub forma noului QWEN 2,5-MAX.

„Qwen 2.5-Max outperforms…almost across the board GPT-4o, DeepSeek-V3 and LLaMa-3.1-405B,” boasted Alibaba Cloud in its WeChat announcement, calling out some of the most advanced open-source AI models from the Like -uri de OpenAI și Meta.

Dincolo de capacitățile generale ale AI ale Deepseek, un alt factor care a contribuit la popularitatea sa a fost costurile extrem de mici ale dezvoltării și rulării modelelor sale. Acest lucru a determinat chiar investitorii să pună la îndoială serios cheltuielile masive pentru AI de către liderii tehnologici din SUA.

Probabil că a luat în considerare acest lucru, Alibaba Cloud a subliniat și eficiența Qwen 2.5-Max într-o postare pe blog, subliniind că a fost instruită pe peste 20 de trilioane de jetoane, în timp ce a utilizat un arhitectură de amestec de experți (MOE) care necesită semnificativ mai puține resurse de calcul decât în ​​mod obișnuit, în mod obișnuit abordări.

Dincolo de Alibaba, Tiktok Parent Bytedance a răspuns cu o versiune actualizată a AI-ului său emblematic, pe care susține că a depășit-o GPT-3.5 de la OpenAI pe anumite repere.

O versiune anterioară a Deepseek a declanșat, de asemenea, un război intens de prețuri în China, în luna mai. Costul incredibil de scăzut al Deepseek-V2 de doar 1 yuan (14 cenți) la un milion de jetoane de date prelucrate furnizori majori de cloud, precum Alibaba, să-și reducă propriile prețuri ale modelului AI cu până la 97%.

Merită menționat faptul că, la fel ca Deepseek, noul QWEN 2,5-MAX al Alibaba pare să evite să discute subiecte politice sensibile legate de China. Se presupune că încercările de interogare a acestor probleme sunt întâlnite cu mesaje despre depășirea cotelor de date, chiar dacă răspunde normal la alte prompturi.

Dominic Botezariu
Dominic Botezariuhttps://www.noobz.ro/
Creator de site și redactor-șef.

Cele mai noi știri

Pe același subiect

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.