Pensando Pollara 400 NIC susține câștiguri de performanță de 6 ori pentru rețelele AI
Tăierea colțurilor: Pe măsură ce modelele AI continuă să crească în dimensiune și complexitate, nevoia de soluții personalizate de rețea devine din ce în ce mai critică. Introducerea de către AMD a lui Pollara 400 subliniază importanța tot mai mare a hardware-ului specializat în ecosistemul AI.
AMD a dezvăluit Pensando Pollara 400, o placă de interfață de rețea (NIC) RDMA pregătită pentru Ethernet de 400 Gigabit pe secundă (Gbps) complet programabilă, concepută pentru a sprijini rețelele de cluster AI.
Creșterea IA generativă și a LLM-urilor a scos la iveală deficiențe critice în rețelele Ethernet convenționale. Aceste modele avansate de IA necesită capacități de comunicare intense, inclusiv procesare paralelă strâns cuplată, transferuri rapide de date și comunicare cu latență scăzută. Ethernetul tradițional, conceput inițial pentru calcularea de uz general, s-a străduit să răspundă acestor nevoi specializate.
Și totuși, Ethernet rămâne alegerea preferată pentru rețelele de cluster AI datorită adoptării pe scară largă. Cu toate acestea, decalajul tot mai mare dintre capabilitățile Ethernet și cerințele sarcinilor de lucru AI a devenit din ce în ce mai evidentă.

AMD spune că Pensando Pollara 400 este proiectat special pentru a optimiza transferul de date în rețelele AI de back-end, cu un accent deosebit pe comunicarea GPU-la-GPU. Potrivit AMD, Pollara 400 poate oferi un spor de performanță de până la șase ori pentru sarcinile de lucru AI, în comparație cu soluțiile Ethernet tradiționale.
Pollara 400 este proiectat pentru a aborda tiparele de comunicare ale încărcăturilor de lucru AI, oferind un randament ridicat pe toate legăturile disponibile, latență redusă, performanță scalabilă și timpi mai rapidi de finalizare a lucrărilor.

De exemplu, cardul folosește multipathing inteligent pentru a distribui în mod dinamic pachetele de date pe rute optime, prevenind congestionarea rețelei. Conducta hardware programabilă permite personalizarea și optimizarea proceselor de rețea, în timp ce transportul RDMA programabil îmbunătățește capacitățile de acces direct la memorie la distanță. În plus, Pollara 400 accelerează bibliotecile de comunicații utilizate în mod obișnuit în sarcinile de lucru AI.
AMD lansează Pollara 400, chiar dacă inițiativa Ultra Ethernet a amânat lansarea specificației versiunii 1.0 din al treilea trimestru al acestui an până în primul trimestru al anului 2025.
BOOM! AMD intră în jocul de rețea AI back-end cu o NIC UEC (UltraEthernet). Nu mă așteptam la acesta, dar înțelegeți că poziția soluțiilor totale Nvidia trebuie să conducă acest lucru. Va trebui să lucreze pentru a ajunge sub asta. CC @WillTownTech @DellTech CTO pe scenă, discutând. $AMD… pic.twitter.com/LBwGt34zWz
– Patrick Moorhead (@PatrickMoorhead) 10 octombrie 2024
Acest nou standard își propune să extindă tehnologia Ethernet pentru a îndeplini cerințele de performanță și caracteristici ale sarcinilor de lucru AI și HPC. Este conceput pentru a păstra cât mai mult posibil din tehnologia Ethernet originală, introducând în același timp profiluri adaptate nevoilor specifice ale AI și HPC, care, deși sunt legate, au cerințe distincte.
NIC-ul AMD este programat să înceapă eșantionarea în al patrulea trimestru al anului 2024 și va fi disponibil comercial în prima jumătate a anului 2025, în jurul datei de lansare a specificației UEC 1.0.
