De la cipuri grafice până la a deveni sistemul de operare al fabricilor AI
Imaginea de ansamblu: O mare provocare în analizarea unei companii în creștere rapidă, cum ar fi Nvidia, are sensul tuturor diferitelor afaceri la care participă, numeroasele produse pe care le anunță și strategia generală pe care o urmărește. În urma discursului principal al CEO -ului Jensen Huang la conferința anuală a GTC a companiei din acest an, sarcina a fost deosebit de descurajantă. Ca de obicei, Huang a acoperit o gamă enormă de subiecte pe o prezentare îndelungată și, sincer, a lăsat mai mult de câțiva oameni care își zgârie capul.
Cu toate acestea, în timpul unei sesiuni de întrebări de răspuns edificatoare cu analiștii din industrie, câteva zile mai târziu, Huang a împărtășit mai multe idei care au făcut brusc toate diferitele anunțuri de produse și parteneriat pe care le -a acoperit, precum și gândirea din spatele lor, Crystal Clear.
În esență, el a spus că NVIDIA este acum un furnizor de infrastructură AI, construind o platformă de hardware și software pe care mari furnizori de cloud computing, furnizori de tehnologie și departamente IT pentru întreprinderi le pot utiliza pentru a dezvolta aplicații alimentate AI.
Inutil să spun, acesta este un strigăt extraordinar de departe de rolul său de furnizor de cipuri grafice pentru jocuri de calculatoare sau chiar din eforturile sale de a ajuta la crearea creării de algoritmi de învățare automată. Cu toate acestea, unifică mai multe anunțuri aparent disparate din evenimente recente și oferă o indicație clară a locului în care se îndreaptă compania.
Nvidia se deplasează dincolo de originile sale și reputația sa de casă de proiectare a semiconductorilor în rolul critic al unui facilitator de infrastructură pentru viitoarea lume a capacităților alimentate de AI-sau, așa cum a descris-o Huang, un „producător de informații”.
În nota sa cheie GTC, Huang a discutat despre eforturile NVIDIA de a permite generarea eficientă de jetoane pentru modelele de fundație moderne, legând aceste jetoane de inteligența pe care organizațiile o vor folosi pentru generarea de venituri viitoare. El a descris aceste inițiative ca fiind construirea unei fabrici AI, relevantă pentru o gamă extinsă de industrii.
Deși ambițioase, semnele unei economii emergente bazate pe informații-și eficiența AI aduce producției tradiționale-devin din ce în ce mai evidente. De la întreprinderile construite în întregime în jurul serviciilor AI (cum ar fi ChatGPT) până la fabricarea și distribuția robotică a mărfurilor tradiționale, ne deplasăm, fără îndoială, într -o nouă eră economică.
În acest context, Huang a subliniat pe larg modul în care cele mai recente oferte ale Nvidia facilitează crearea de jetoane mai rapide și mai eficiente. El a abordat inițial inferența AI, considerată în mod obișnuit mai simplă decât procesele de instruire AI care au adus inițial Nvidia în proeminență. Cu toate acestea, Huang a susținut că inferența, în special atunci când este utilizată cu noi modele de raționament în lanț de gândire, cum ar fi Deepseek R1 și OpenAI’s O1, va necesita aproximativ 100 de ori mai multe resurse de calcul decât metodele actuale de inferență cu o singură lovitură. În consecință, nu există prea puține îngrijorări că modelele de limbaj mai eficiente vor reduce cererea de calcul al infrastructurii. Într -adevăr, rămânem în primele etape ale dezvoltării infrastructurii din fabrica AI.
Unul dintre cele mai importante anunțuri ale lui Huang, dar cel mai puțin înțeles, a fost un nou instrument software numit Nvidia Dynamo, conceput pentru a îmbunătăți procesul de inferență pentru modele avansate. Dynamo, o versiune modernizată a software -ului NVIDIA Triton Inference Server, alocă dinamic resurse GPU pentru diverse etape de inferență, cum ar fi prefill și decodificare, fiecare cu cerințe de calcul distincte. De asemenea, creează cache de informații dinamice, gestionând datele eficient pe diferite tipuri de memorie.
Funcționând în mod similar cu orchestrarea Docker a containerelor în cloud computing, Dynamo gestionează în mod inteligent resursele și datele necesare pentru generarea de jetoane în mediile din fabrica AI. Nvidia a numit dinamo „OS of AI Fabricy”. Practic vorbind, Dynamo permite organizațiilor să se ocupe de până la 30 de ori mai multe solicitări de inferență cu aceleași resurse hardware.
Desigur, nu ar fi GTC dacă NVIDIA nu ar avea și anunțuri de cipuri și hardware și ar fi fost multe de data aceasta. Huang a prezentat o foaie de parcurs pentru GPU -urile viitoare, incluzând o actualizare la actuala serie Blackwell numită Blackwell Ultra (seria GB300), oferind memoria îmbunătățită la bord HBM pentru performanțe îmbunătățite.
De asemenea, el a dezvăluit noua arhitectură Vera Rubin, cu un nou procesor bazat pe brațe, numit Vera și un GPU de generație următoare, numit Rubin, fiecare încorporând semnificativ mai multe nuclee și capacități avansate. Huang chiar a arătat despre generația dincolo de asta – numit după matematicianul Richard Feynman – proiectarea foii de parcurs a lui Nvidia în 2028 și nu numai.
În timpul sesiunii ulterioare de întrebări și întrebări, Huang a explicat că dezvăluirea viitoarelor produse cu mult timp în avans este crucială pentru partenerii ecosistemului, permițându -le să se pregătească în mod adecvat pentru schimbările tehnologice viitoare.
Huang a subliniat, de asemenea, mai multe parteneriate anunțate la GTC din acest an. Prezența semnificativă a altor vânzători de tehnologie și -a demonstrat dorința de a participa la acest ecosistem în creștere. Pe partea de calcul, Huang a explicat că maximizarea pe deplin a infrastructurii AI a necesitat progrese în toate zonele tradiționale de stivă de calcul, inclusiv în rețea și stocare.
În acest scop, Nvidia a dezvăluit o nouă tehnologie de fotonică de siliciu pentru rețele optice între rafturile serverului accelerat de GPU și a discutat despre un parteneriat cu Cisco. Parteneriatul Cisco permite Cisco Silicon în routere și comutatoare concepute pentru integrarea fabricilor AI accelerate de GPU în medii de întreprindere, împreună cu un strat de gestionare a software-ului partajat.
Pentru stocare, Nvidia a colaborat cu furnizorii de hardware de top și companiile de platforme de date, asigurându -se că soluțiile lor ar putea folosi accelerația GPU, extinzând astfel influența pieței Nvidia.
Și, în sfârșit, bazându -se pe strategia de diversificare, Huang a introdus mai multe lucrări pe care compania le desfășoară pentru vehicule autonome (în special un acord cu GM) și robotică, ambele pe care le -a descris ca parte a următoarei mari etape în AI Development: Fizic AI.
NVIDIA știe că a fi un furnizor de infrastructură și ecosistem înseamnă că pot beneficia atât direct, cât și indirect, pe măsură ce valul general al calculului AI crește, chiar dacă concurența lor directă va crește
Nvidia oferă componente producătorilor de automobile de mai mulți ani și, în mod similar, are și platforme de robotică de câțiva ani. Totuși, ceea ce este diferit acum, este că sunt legați de infrastructura AI care poate fi folosită pentru a antrena mai bine modelele care vor fi implementate în aceste dispozitive, precum și pentru a oferi date de inferență în timp real care sunt necesare pentru a le opera în lumea reală. Deși această legătură de infrastructură este, probabil, un avans relativ modest, în contextul mai mare al strategiei generale de infrastructură AI a companiei, aceasta are mai mult sens și ajută la legarea multor inițiative ale companiei într -un întreg coerent.
Înțelesul diferitelor elemente pe care Huang și Nvidia le-au dezvăluit la GTC din acest an nu este simplu, în special datorită naturii asemănătoare cu toate anunțurile diferite și a atingerii mult mai largi a ambițiilor companiei. Odată ce piesele se reunesc, cu toate acestea, strategia Nvidia devine clară: compania își asumă un rol mult mai mare ca niciodată și este bine poziționată pentru a-și atinge obiectivele ambițioase.
La sfârșitul zilei, Nvidia știe că a fi un infrastructură și un furnizor de ecosistem înseamnă că pot beneficia atât direct, cât și indirect, pe măsură ce valul general al calculului AI crește, chiar dacă concurența lor directă va crește. Este o strategie inteligentă și una care ar putea duce la o creștere și mai mare pentru viitor.
Bob O’Donnell este fondatorul și analistul șef al Technisy Research, LLC O firmă de consultanță tehnologică care oferă servicii de consultanță strategică și cercetare de piață industriei tehnologice și comunității financiare profesionale. Îl poți urmări pe Twitter @BoBodTech