De la TPU Ironwood la Agent2Agent: Google se dublează pe Hybrid AI
S -au discutat recent cu privire la modul în care evoluează aplicațiile AI, dar pe baza multor anunțuri pe care Google le -a făcut la Cloud Next Event din Las Vegas, pare din ce în ce mai clar că Hybrid este locul în care se îndreaptă multe dintre aceste dezvoltări.
Pentru a fi clar, Google a făcut o gamă enormă și impresionant de largă de anunțuri la Cloud Next și nu într -un singur comunicat de presă menționat în mod specific AI hibrid.
Cu toate acestea, atunci când faceți un pas înapoi și analizați modul în care mai multe dintre piese se potrivesc și priviți în fața locului în care se desfășoară tendințele pe care le conduce compania, conceptul de aplicații (și agenți) alimentate de Genai, care folosesc o combinație de cloud public, nori privați pentru întreprinderi și chiar dispozitive inteligente-adică, inevitabil, hibrid, inevitabil.
Câteva puncte de vedere în primul rând. Pe frontul infrastructurii cloud, Google a făcut mai multe debuturi mari la Cloud Next, majoritatea concentrându -se pe gama din ce în ce mai mare de opțiuni de arhitectură computerizată care vin la clienții GCP.
Mai ales, compania a preluat înfășurarea procesorului TPU de a 7-a generație, Codenamed Ironwood, alternativa sa concepută în casă la GPU-uri și primul care a fost conceput special pentru sarcinile de lucru de la inferență. În plus față de îmbunătățirile 10X ale performanței brute față de generațiile anterioare, ceea ce este impresionant în ceea ce privește cele mai recente versiuni este amploarea opțiunilor de conectare la cip la cip de mare viteză pe care Google le va oferi între ele.
Luând o pagină din cartea NVIDIA NVLink, cea mai recentă arhitectură AI Hypercomputer AI de la Google lasă până la 9.216 dintre aceste TPU-uri Gen 7 să fie interconectate într-un singur pod de calcul, oferind o mulțime de lățimi de bandă chiar și pentru cele mai mari dintre noile modele de raționament bazate pe lanț de gândire care încep să devină disponibile. De fapt, Google a susținut că maximizarea unui sistem ar putea livra până la 42,5 exaflops, mai mult de 24x puterea computerului cel mai rapid supercomputer de astăzi.
ADK Framework care arată cum puteți construi sisteme cu mai multe agenții
O altă temă mare de la Cloud Next Note Keynote a fost în jurul agenților, inclusiv instrumentele pentru a le construi, pentru a le conecta unul la altul și de a -i integra mai ușor cu o varietate de LLMS.
Bazându-se pe anunțul anterior al AgentSpace al companiei-care permite angajaților întreprinderii să utilizeze capacitățile de căutare multi-modale Google pe datele întreprinderii și să-și construiască agenții proprii într-un cod scăzut/fără cod manieră-Google, de asemenea
Chiar mai important, compania și -a anunțat protocolul agent2Agent (A2A), care este un efort de standardizare a mijloacelor prin care diferiți agenți se pot „vorbi” între ei și pot împărtăși informații. A2a se bazează și este compatibil cu antropic Protocolul contextului model (MCP) care a fost introdusă anul trecut și câștigă rapid tracțiune în lumea AI.
De fapt, este suportul puternic MCP al Google într -o serie de produse pe care le -a introdus aici la Cloud Next, care a dus cu adevărat la concluziile Hybrid AI pe care le -am făcut mai devreme. MCP oferă o modalitate standardizată pentru ca modelele să se conecteze la o varietate de surse de date diferite – în loc să se ocupe de API -uri proprii – și oferă un mijloc standardizat prin care modelele pot expune diferitele funcții pe care le pot îndeplini pe aceste seturi de date.
În acest proces, acest lucru înseamnă că MCP rezolvă unele provocări mari în crearea de aplicații bazate pe AI care pot accesa resursele de date locale și deschide o lume de posibilități intrigante pentru crearea de aplicații AI distribuite care pot atinge surse de date, alte modele și alte infrastructuri de calcul în diferite locații fizice. Această capacitate este cea care face ca MCP să fie atât de intrigantă și este probabil că un mare motiv pentru care suportul pentru standardul național crește atât de rapid.
Google a făcut impactul potențial al MCP mult mai real, anunțând că acum permite organizațiilor să aducă modele Gemini, AgentSpace și alte instrumente AI în mediile lor private de centru de date cloud/on-prem prin intermediul cloudului distribuit Google în al treilea trimestru al acestui an. Aceasta este o dezvoltare extrem de importantă, deoarece înseamnă că companiile care construiesc aplicații cu instrumente bazate pe Google Cloud le pot utiliza în mai multe medii diferite.
Așadar, de exemplu, ar fi posibil ca o organizație să apeleze la resursele esențial nelimitate ale infrastructurii publice cloud ale Google pentru a rula anumite funcții cu anumite modele și seturi de date stocate acolo, în timp ce rulează alte funcții pe diferite modele care accesează datele din spatele firewall -ului din mediile lor private de cloud sau de date.
Acest lucru rezolvă problema gravitației datelor cu care multe organizații s -au luptat în timp ce încep să se gândească la atingerea capacităților puternice ale celor mai avansate LLM -uri de astăzi, deoarece le permite în esență să aibă cele mai bune din ambele lumi. Le oferă un calcul masiv bazat pe cloud cu datele stocate în cloud public și calcularea locală cu seturile de date mari și cele mai valoroase, cele mai valoroase, pe care multe organizații le păstrează încă (sau pot dori să le repatrieze) în propriile lor medii.
În plus, este chiar posibil să extindem natura distribuită a mediului de calcul la PC -uri și smartphone -uri, mai ales pe măsură ce disponibilitatea dispozitivelor cu capacități de accelerare mai puternice AI crește. În timp ce acest ultim pas probabil nu se va întâmpla peste noapte, va deveni o capacitate critică, deoarece companiile caută să reducă cerințele de energie electrică și costurile aplicațiilor AI pe drum.
Vorbind despre capacități pe dispozitiv, Google a anunțat, de asemenea, mai multe îmbunătățiri la oferta lor de productivitate a spațiului de lucru în acest an din acest an. Noile caracteristici alimentate AI includ fluxuri de lucru axate pe automatizare, funcții audio în documente și multe altele. Acestea se bazează pe multe funcții anterioare ale AI, pe care Google le-a adus în spațiul de lucru la începutul acestui an, inclusiv accesul fără costuri la cea mai avansată versiune a modelului Gemini, noi funcții de analiză a datelor în foi, analiza documentelor și rezumarea în toate aplicațiile din spațiul de lucru și multe altele.
Ca și în cazul evenimentelor anterioare ale Cloud, au existat multe alte anunțuri despre care Google a discutat în domenii precum baze de date, instrumente de creare a codurilor, Firebase Agent Creation Studio, Cloud Wan Private Network Access, îmbunătățiri de securitate și multe altele.
Este un pic copleșitor să înțelegem totul, ca să fiu sincer, dar arată doar cât de extrem de rapide se extinde ofertele bazate pe cloud, în special cu integrarea dezvoltărilor de model AI Fundația AI.
În cele din urmă, însă, este clar că Google își folosește istoricul lung de dezvoltări AI, precum și progresele recente pe care le -a făcut cu modelele Gemini și alte instrumente AI ca diferențiator clar pentru Google Cloud. În acest proces, ei continuă să se poziționeze într -un mod unic nu numai pentru aplicațiile actuale, ci și pentru aplicațiile AI hibride pe drum.
Bob O’Donnell este fondatorul și analistul șef al Technisy Research, LLC O firmă de consultanță tehnologică care oferă servicii de consultanță strategică și cercetare de piață industriei tehnologice și comunității financiare profesionale. Îl poți urma pe x @bobodtech