El spune că se datorează abordării cuprinzătoare a Nvidia în ceea ce privește dezvoltarea cipurilor
Ce tocmai sa întâmplat? Contestând înțelepciunea convențională, CEO-ul Nvidia Jensen Huang a spus că cipurile AI ale companiei sale depășesc câștigurile istorice ale performanței stabilite de Legea lui Moore. Această afirmație, făcută în timpul discursului său principal la CES din Las Vegas și repetată într-un interviu, semnalează o potențială schimbare de paradigmă în lumea computerului și a inteligenței artificiale.
Timp de zeci de ani, Legea lui Moore, inventată de co-fondatorul Intel, Gordon Moore, în 1965, a fost forța motrice din spatele progresului în calcul. Acesta a prezis că numărul de tranzistori de pe cipurile computerelor se va dubla aproximativ în fiecare an, ceea ce duce la o creștere exponențială a performanței și la scăderea vertiginoasă a costurilor. Cu toate acestea, această lege a dat semne de încetinire în ultimii ani.
Huang, totuși, a pictat o imagine diferită a cipurilor AI ale Nvidia. „Sistemele noastre progresează mult mai repede decât Legea lui Moore”, a spus el pentru TechCrunch, arătând spre cel mai recent supercip al centrului de date al companiei, despre care se spune că este de peste 30 de ori mai rapid pentru sarcinile de lucru de inferență AI decât predecesorul său.
Huang a atribuit acest progres accelerat abordării cuprinzătoare a Nvidia în ceea ce privește dezvoltarea cipurilor. „Putem construi arhitectura, cipul, sistemul, bibliotecile și algoritmii în același timp”, a explicat el. „Dacă faci asta, atunci te poți mișca mai repede decât Legea lui Moore, pentru că poți inova în întreaga stivă.”
Se pare că această strategie a dat rezultate impresionante. Huang a susținut că cipurile AI ale Nvidia sunt astăzi de 1.000 de ori mai avansate decât ceea ce a produs compania cu un deceniu în urmă, depășind cu mult ritmul stabilit de Legea lui Moore.
Respingând ideea că progresul AI se blochează, Huang a subliniat trei legi active de scalare a AI: pre-antrenament, post-antrenament și calcularea timpului de testare. El a subliniat importanța calculării timpului de testare, care are loc în timpul fazei de inferență și permite modelelor AI mai mult timp pentru a „gândi” după fiecare întrebare.
În timpul discursului său CES, Huang a prezentat cel mai recent supercip al centrului de date al Nvidia, GB200 NVL72, promovând performanța sa de 30 până la 40 de ori mai rapidă în sarcinile de lucru de inferență AI în comparație cu predecesorul său, H100. Acest salt în performanță, a susținut Huang, va face modelele scumpe de raționament AI, cum ar fi OpenAI o3, mai accesibile în timp.
„Soluția directă și imediată pentru calcularea timpului de testare, atât în ceea ce privește performanța, cât și accesibilitatea costurilor, este să ne creștem capacitatea de calcul”, a spus Huang. El a adăugat că, pe termen lung, modelele de raționament AI ar putea fi folosite pentru a crea date mai bune pentru pre-formarea și post-antrenarea modelelor AI.
Afirmațiile Nvidia vin într-un moment crucial pentru industria AI, companii de AI precum Google, OpenAI și Anthropic bazându-se pe cipurile sale și pe progresele lor în performanță. Mai mult, pe măsură ce concentrarea în industria tehnologică se schimbă de la instruire la inferență, au apărut întrebări despre dacă produsele scumpe ale Nvidia își vor menține dominația. Afirmațiile lui Huang sugerează că Team Green nu numai că ține pasul, ci și stabilește noi standarde în performanța inferenței și eficiența costurilor.
În timp ce primele versiuni ale modelelor de raționament AI, cum ar fi OpenAI o3, au fost costisitoare de rulat, Huang se așteaptă ca tendința de scădere vertiginoasă a costurilor modelelor AI să continue, determinată de descoperirile de calcul de la companii de hardware precum Nvidia.