Braga Chip nu va ajunge până în 2026 pe măsură ce întârzierea dezvoltării montează
Apăsarea Microsoft în hardware -ul personalizat de inteligență artificială a lovit un blocaj serios. Maia Chip Maia, numită de cod, Braga, nu va intra în producție în masă până în 2026-cel puțin șase luni în termen. Informațiile raportează că întârzierea ridică noi îndoieli cu privire la capacitatea Microsoft de a contesta dominanța Nvidia pe piața AI Chip și subliniază obstacolele tehnice și organizaționale abrupte ale construirii siliconului competitiv.
Microsoft și-a lansat programul CHIP pentru a-și reduce dependența grea pe GPU-urile de înaltă performanță ale NVIDIA, care alimentează majoritatea datelor AI se concentrează din întreaga lume. La fel ca rivalii cloud Amazon și Google, a investit foarte mult în siliciu personalizat pentru sarcinile de lucru AI. Cu toate acestea, cea mai recentă întârziere înseamnă că Braga va rămâne probabil în urma jetoanelor Blackwell din Nvidia în performanță până la expedierea, lărgind decalajul dintre cele două companii.
Dezvoltarea Braga Chip s -a confruntat cu numeroase neplăceri. Surse familiarizate cu proiectul au declarat informațiilor că schimbările de proiectare neașteptate, deficiențele de personal și o cifră de afaceri ridicată au întârziat în mod repetat cronologia.
O întârziere a venit atunci când OpenAI, un partener cheie Microsoft, a solicitat noi funcții în dezvoltare. Se pare că aceste modificări au destabilizat cipul în timpul simulărilor, provocând întârzieri suplimentare. Între timp, presiunea de a respecta termenele a determinat o atracție semnificativă, unele echipe pierzând până la 20 la sută dintre membrii lor.
Seria Maia, inclusiv Braga, reflectă apăsarea Microsoft de a -și integra vertical infrastructura AI prin proiectarea de jetoane adaptate pentru sarcinile de lucru în cloud Azure. Anunțată la sfârșitul anului 2023, Maia 100 folosește tehnologie avansată cu 5 nanometri și oferă gestionarea personalizată a puterii la nivel de raft și răcire lichidă pentru a gestiona cerințele termice intense ale AI.
Microsoft a optimizat jetoanele pentru inferență, nu faza de antrenament mai solicitantă. Această alegere de proiectare se aliniază planului companiei de a le implementa în centrele de date care alimentează servicii precum Copilot și Azure OpenAI. Cu toate acestea, Maia 100 a înregistrat o utilizare limitată dincolo de testarea internă, deoarece Microsoft a proiectat -o înainte de creșterea recentă a AI -ului generativ și a modelelor de limbaj mare.
„Ce rost are să construiești un ASIC dacă nu va fi mai bun decât cel pe care îl poți cumpăra?” – CEO -ul Nividia, Jensen Huang
În schimb, chipsurile Blackwell din Nvidia, care au început să se deruleze la sfârșitul anului 2024, sunt concepute atât pentru antrenament, cât și pentru inferență la o scară masivă. Cu peste 200 de miliarde de tranzistoare și construite pe un proces TSMC personalizat, aceste jetoane oferă o viteză excepțională și o eficiență energetică. Acest avantaj tehnologic a solidificat poziția Nvidia ca furnizor preferat pentru infrastructura AI la nivel mondial.
Miza în cursa AI Chip este ridicată. Întârzierea Microsoft înseamnă că clienții Azure se vor baza pe hardware -ul NVIDIA mai mult timp, potențial ridicând costurile și limitând capacitatea Microsoft de a -și diferenția serviciile cloud. Între timp, Amazon și Google progresează cu proiectele de siliciu, deoarece unitățile de procesare a tensiunii de generație a celei de-a șaptea de la Amazon și Google câștigă tracțiune în centrele de date.
Echipa Green, din partea sa, apare nefondat de competiție. CEO -ul NVIDIA, Jensen Huang, a recunoscut recent că marile companii tehnologice investesc în cipuri AI personalizate, dar au pus sub semnul întrebării motivele pentru a face acest lucru dacă produsele NVIDIA stabilesc deja standardul pentru performanță și eficiență.