GPU -urile Instinct NOU oferă o inferență mai rapidă cu 3x, cu până la 40% costuri mai bune pe jeton vs. B200 NVIDIA
Redactor de luare: În lumea în continuă evoluție a lui Genai, se petrec progrese importante între cipuri, software, modele, rețele și sisteme care combină toate aceste elemente. Asta face atât de greu să ții pasul cu cele mai recente evoluții AI. Factorul de dificultate devine și mai mare dacă sunteți un vânzător care construiește aceste tipuri de produse și lucrați nu numai pentru a menține pasul, ci pentru a conduce aceste progrese înainte. Aruncați într -un concurent care a fost practic încolțit pe piață – și în acest proces, a devenit una dintre cele mai valoroase companii din lume – și, bine, lucrurile pot părea destul de provocatoare.
Aceasta este situația pe care AMD s -a găsit în timp ce a intrat în ultimul său eveniment AI avansant. Dar, în loc să lase aceste blocaje potențiale rutiere, AMD a precizat că sunt inspirați să -și extindă viziunea, gama de oferte și ritmul în care livrează noi produse.
De la dezvăluirea acceleratoarelor GPU Instinct MI400 și a cipurilor de rețea „Vulcan” de următoarea generație, până la versiunea 7 a software-ului ROCM și debutul unei noi arhitecturi Helios Rack. AMD a evidențiat toate aspectele cheie ale infrastructurii AI și ale soluțiilor alimentate de Genai. De fapt, unul dintre primele preluări de la eveniment a fost cât de departe se extinde acum compania în toate părțile critice ale ecosistemului AI.
Foaia de parcurs a instinctului AMD
Așa cum era de așteptat, s-a concentrat foarte mult pe lansarea oficială a instinctului MI350 și a cizmelor cu putere mai mare, cu performanțe mai rapide, cu funcționare mai rapidă, pe care AMD a anunțat-o anterior anul trecut. Ambele sunt construite pe un proces de 3NM și prezintă până la 288 MB de memorie HBM3E și pot fi utilizate atât în modele răcite cu lichid, cât și în aer.
Conform testării AMD, aceste jetoane nu numai că se potrivesc cu nivelul de performanță al Nvidia Blackwell 200, dar chiar le depășesc pe anumite repere. În special, AMD a subliniat îmbunătățiri ale vitezei de inferență (peste 3x mai repede decât generația anterioară), precum și costul pe jeton (cu până la 40% mai multe jetoane pe dolar față de B200, potrivit AMD).
AMD also provided more details on its next-generation MI400, scheduled for release next year, and even teased the MI500 for 2027. The MI400 will offer up to 432 GB of HBM4 memory, memory bandwidth of 19.6 TB/sec, and 300 GB/sec of scale-out memory bandwidth – all of which will be important for both running larger models and assembling the kinds of large rack systems expected to be needed for LLM-uri de generație următoare.
Unele dintre anunțurile mai surprinzătoare ale evenimentului s -au concentrat pe rețea.
Prima a fost o discuție despre cipul de rețea Pensando de generație următoare de generație AMD și un card de interfață de rețea pe care îl numesc AMD Pensando Pollara 400 AI Nic, pe care compania susține că este prima carte de rețea AI de transport AI. AMD face parte din consorțiul Ultra Ethernet și, nu este surprinzător, Pollara 400 folosește standardul Ultra Ethernet. Se presupune că oferă 20% îmbunătățiri ale vitezei și 20x mai multă capacitate de scară decât cardurile competitive folosind tehnologia infiniband.
Ca și în cazul GPU-ului său, AMD a anunțat și cipul său de rețea de generație următoare, denumit cod „Vulcano”, conceput pentru grupuri mari de AI. Acesta va oferi viteze de rețea de 800 GB/SEC și până la 8x performanța la scară pentru grupuri mari de GPU-uri atunci când sunt lansate în 2026.
AMD a prezentat, de asemenea, noul standard open-source Ultra Accelerator Link (UAL) pentru GPU-to-GPU și alte conexiuni cip-to-chip. Un răspuns direct la tehnologia NVLink a NVIDIA, UAL se bazează pe Fabricul Infinity AMD și se potrivește cu performanța tehnologiei NVIDIA, oferind în același timp mai multă flexibilitate, permițând conexiuni între GPU -urile oricărei companii și procesoare.
Reunirea tuturor acestor elemente diferite, probabil cele mai mari știri hardware – atât literal, cât și la figurat – din evenimentul AI avansat a fost noile proiecte de arhitectură a rack -ului AMD.
Furnizorii de cloud mari, operatorii de neocloud și chiar unele întreprinderi sofisticate s-au îndreptat către soluții complete bazate pe raft pentru infrastructura lor AI, așa că nu a fost surprinzător să vedem AMD să facă aceste anunțuri-în special după ce a dobândit expertiză de la ZT Systems, o companie care proiectează sisteme de calcul raft, la începutul acestui an.
Totuși, a fost un pas important pentru a arăta o ofertă competitivă completă, cu capacități și mai avansate împotriva NVL72 de la NVIDIA și pentru a demonstra cum toate piesele din Silicon Solutions pot funcționa împreună.
Pe lângă faptul că arată sisteme bazate pe ofertele lor actuale de cipuri din 2025, AMD și-a dezvăluit și arhitectura Helios Rack, venind în 2026. Va folosi o suită completă de jetoane AMD, inclusiv procesoare EPYC de generație următoare (cod de Veneție), Instinct MI400 GPU și Vulcano Networking Chip. Ceea ce este important pentru Helios este faptul că demonstrează că AMD nu va fi doar pe bază de egalitate cu sistemele de raft din Vera Rubin din generația Vera Rubin pe care Nvidia a anunțat-o pentru anul viitor, dar poate chiar să le depășească.
De fapt, AMD a luat, probabil, o pagină din recentul Nvidia Playbook, oferind o previzualizare pe mai mulți ani a foilor de parcurs a siliciului și arhitecturii sale, făcând clar că nu se bazează pe laurii lor, ci se îndreaptă agresiv înainte cu evoluțiile tehnologice critice.
Important este că au făcut acest lucru în timp ce au prezentat ceea ce se așteaptă va fi echivalent sau o performanță mai bună din aceste noi opțiuni. (Desigur, toate acestea se bazează pe estimări ale performanței preconizate, care ar putea – și probabil să se schimbe pentru ambele companii.) Indiferent de ceea ce se dovedesc a fi numerele finale, punctul mai mare este că AMD este în mod clar suficient de încrezător în foile sale de parcurs actuale și viitoare ale produsului pentru a -și asuma cea mai grea competiție. Asta spune multe.
ROCM și dezvoltări software
Așa cum am menționat anterior, povestea cheie software pentru AMD a fost lansarea versiunii 7 a stivei sale de software ROCM open-source. Compania a evidențiat îmbunătățiri multiple ale performanței la sarcinile de lucru de inferență, precum și o compatibilitate crescută de zero zi cu multe dintre cele mai populare LLM. De asemenea, au discutat despre lucrările continue cu alte cadre software critice AI și instrumente de dezvoltare. S-a concentrat în mod special pe a permite întreprinderilor să utilizeze ROCM pentru propriile eforturi de dezvoltare internă prin ROCM Enterprise AI.
Pe cont propriu, unele dintre aceste schimbări sunt modeste, dar, în mod colectiv, arată un impuls clar software pe care AMD l -a construit. Strategic, acest lucru este esențial, deoarece concurența împotriva stivei de software CUDA din Nvidia continuă să fie cea mai mare provocare cu care se confruntă AMD în convingerea organizațiilor de a -și adopta soluțiile. Va fi interesant să vedem cum AMD integrează unele dintre achizițiile sale recente legate de software AI-inclusiv Lamini, Brium și AI UNTETher-în gama sa de oferte de software.
Una dintre cele mai surprinzătoare știri software de la AMD a fost integrarea suportului ROCM în Windows și Windows ML AI Software Stack. Acest lucru ajută să facă din Windows o platformă mai utilă pentru dezvoltatorii AI și, probabil, deschide noi oportunități pentru a valorifica mai bine GPU-urile AMD și NPU-uri pentru accelerarea AI-ului pe dev.
Vorbind despre dezvoltatori, AMD a folosit, de asemenea, evenimentul pentru a anunța AMD Developer Cloud pentru proiectanți de software, ceea ce le oferă o resursă gratuită (cel puțin inițial, prin credite cloud gratuite) pentru a accesa infrastructura bazată pe MI300 și pentru a construi aplicații cu instrumente software bazate pe ROCM. Din nou, un pas mic, dar important, în demonstrarea modului în care compania lucrează pentru a -și extinde influența în ecosistemul de dezvoltare software AI.
În mod clar, acțiunile colective pe care compania le ia încep să aibă un impact. AMD a salutat o gamă largă de clienți care își foloseau soluțiile într -un mod mare, inclusiv OpenAI, Microsoft, Oracle Cloud, Humane, Meta, Xai și multe altele.
De asemenea, au vorbit despre toată munca lor în crearea de implementări Suverane AI în țări din întreaga lume. Și în cele din urmă, pe măsură ce compania a început nota principală, este vorba despre continuarea creării încrederii între clienții, partenerii și potențialii clienți noi.
AMD are beneficiul de a fi o alternativă extrem de puternică la nvidia – una pe care mulți de pe piață doresc să -și crească prezența pentru un echilibru competitiv. Pe baza a ceea ce a fost anunțat la avansarea AI, se pare că AMD se mișcă în direcția corectă.
Bob O’Donnell este fondatorul și analistul șef al Technisy Research, LLC O firmă de consultanță tehnologică care oferă servicii de consultanță strategică și cercetare de piață industriei tehnologice și comunității financiare profesionale. Îl poți urma pe x @bobodtech