Serverele și comutatoarele de înaltă performanță vizează sarcinile de lucru AI
În timp ce majoritatea oamenilor cred că Cisco este o companie care conectează elementele de infrastructură din centrele de date și cloud, nu este prima companie care vine în minte atunci când discutăm despre GenAI. Cu toate acestea, la recentul său eveniment Partner Summit, compania a făcut mai multe anunțuri menite să schimbe această percepție.
Mai exact, Cisco a debutat mai multe servere noi echipate cu GPU-uri Nvidia și procesoare AMD, destinate încărcărilor de lucru AI, un nou comutator de rețea de mare viteză optimizat pentru interconectarea mai multor servere concentrate pe AI și mai multe POD-uri preconfigurate de infrastructură de calcul și rețea concepute pentru aplicații specifice.
Pe partea de server, noul server UCS C885A M8 de la Cisco împachetează până la opt GPU-uri Nvidia H100 sau H200 și procesoare AMD Epyc într-un server rack compact, capabil de orice, de la antrenament de model la reglare fină. Configurat atât cu plăci Ethernet Nvidia, cât și cu DPU-uri, sistemul poate funcționa independent sau poate fi conectat în rețea cu alte servere într-un sistem mai puternic.
Noul comutator Nexus 9364E-SG2, bazat pe cel mai recent siliciu personalizat de la Cisco G200, oferă viteze de 800G și memorie tampon mari pentru a permite conexiuni de mare viteză și latență redusă pe mai multe servere.
Cele mai interesante adăugări noi sunt sub formă de AI POD, care sunt Cisco Validated Designs (CVD-uri) care combină CPU și GPU de calcul, stocare și rețea împreună cu software-ul platformei AI Enterprise de la Nvidia. În esență, sunt sisteme de infrastructură complet preconfigurate, care oferă o soluție mai ușoară, plug-and-play, pentru ca organizațiile să-și lanseze implementările AI – de lucru de care multe companii încep eforturile lor GenAI.
Cisco oferă o gamă de diferite AI POD-uri adaptate pentru diverse industrii și aplicații, ajutând organizațiile să elimine o parte din presupunerile în selectarea infrastructurii de care au nevoie pentru cerințele lor specifice. În plus, deoarece vin cu stiva de software Nvidia, există mai multe aplicații specifice industriei și blocuri de construcție software (de exemplu, NIM-uri) pe care organizațiile le pot folosi pentru a construi. Inițial, POD-urile sunt orientate mai mult spre inferențele AI decât spre antrenament, dar Cisco intenționează să ofere POD-uri mai puternice, capabile de antrenament de model AI în timp.
Un alt aspect cheie al noilor oferte Cisco este o legătură către platforma sa de automatizare și management Intersight, oferind companiilor capabilități mai bune de gestionare a dispozitivelor și o integrare mai ușoară în mediile lor de infrastructură existente.
Rezultatul net este un nou set de instrumente pe care Cisco și partenerii săi de vânzări le oferă bazei de clienți de lungă durată.
În mod realist, este puțin probabil ca noile oferte de servere și de calcul ale Cisco să atragă clienții mari de cloud care au fost cumpărători timpurii ai acestui tip de infrastructură. (Comutatoarele și routerele Cisco, pe de altă parte, sunt componente cheie pentru hyperscalere.) Cu toate acestea, devine din ce în ce mai clar că întreprinderile sunt interesate să-și construiască propria infrastructură capabilă de AI pe măsură ce călătoriile lor GenAI progresează. În timp ce multe încărcături de lucru ale aplicațiilor AI vor continua probabil să existe în cloud, companiile își dau seama că trebuie să efectueze o parte din această muncă la sediul.
În special, deoarece aplicațiile AI eficiente trebuie să fie instruite sau ajustate pe cele mai valoroase (și probabil cele mai sensibile) date ale unei companii, multe organizații ezită să aibă acele date și modele bazate pe acestea în cloud.
În această privință, chiar dacă Cisco întârzie puțin în aducerea pe piață a anumitor elemente ale infrastructurii sale concentrate pe inteligența artificială, momentul potrivit pentru publicul său cel mai probabil ar putea fi potrivit. După cum a comentat Jeetu Patel de la Cisco în cadrul discursului principal din Ziua 2, „Centrele de date sunt din nou cool”. Acest punct a fost întărit și mai mult de raportul recent al sondajului TECHnalysis Research, The Intelligent Path Forward: GenAI in the Enterprise, care a constatat că 80% dintre companiile implicate în activitatea GenAI erau interesate să ruleze unele dintre aceste aplicații la nivel local.
În cele din urmă, creșterea estimată a pieței pentru centrele de date la fața locului prezintă noi posibilități interesante pentru Cisco și alți furnizori tradiționali de hardware pentru întreprinderi.
Fie din cauza gravității datelor, a confidențialității, a guvernării sau a altor probleme, acum pare clar că, în timp ce trecerea la cloud hibrid a durat aproape un deceniu, tranziția la modele hibride AI care valorifică resursele din cloud și on-premises (ca să nu mai vorbim despre aplicațiile AI pentru dispozitive pentru computere și smartphone-uri) vor fi semnificativ mai rapide. Modul în care piața răspunde la această evoluție rapidă va fi foarte interesant de observat.
Bob O’Donnell este președintele și analist-șef al TECHnalysis Research, LLC, o firmă de cercetare de piață care oferă consultanță strategică și servicii de cercetare de piață industriei tehnologiei și comunității financiare profesionale. Îl poți urmări pe Bob pe Twitter @bobodtech