Cât de greu va lupta Nvidia cu adoptarea, deoarece necesită o reproiectare hardware competitivă?
Un cartof fierbinte: Pe măsură ce tot mai multe companii urcă pe valul AI, consumul de energie al modelelor AI devine o preocupare urgentă. În timp ce cei mai proeminenți jucători – Nvidia, Microsoft și OpenAI – au minimalizat situația, o companie susține că a venit cu soluția.
Cercetătorii de la BitEnergy AI au dezvoltat o tehnică care ar putea reduce dramatic consumul de energie AI fără a sacrifica prea multă precizie și viteză. Studiul susține că metoda ar putea reduce consumul de energie cu până la 95 la sută. Echipa numește revoluționarea Linear-Complexity Multiplication sau L-Mul pe scurt. Procesul de calcul folosește adunări întregi, care necesită mult mai puțină energie și mai puțini pași decât înmulțirile în virgulă mobilă pentru sarcinile legate de IA.
Numerele în virgulă mobilă sunt utilizate pe scară largă în calculele AI atunci când se manipulează numere foarte mari sau foarte mici. Aceste numere sunt ca notația științifică în formă binară și permit sistemelor AI să execute calcule complexe cu precizie. Cu toate acestea, această precizie are un cost.
Cererile de energie în creștere ale boom-ului AI au atins un nivel îngrijorător, unele modele necesitând cantități mari de energie electrică. De exemplu, ChatGPT folosește energie electrică echivalentă cu 18.000 de case din SUA (564 MWh zilnic). Analiștii de la Cambridge Center for Alternative Finance estimează că industria AI ar putea consuma între 85 și 134 TWh anual până în 2027.
Algoritmul L-Mul abordează această risipă excesivă de energie prin aproximarea înmulțirilor complexe în virgulă mobilă cu adunări întregi mai simple. În timpul testării, modelele AI și-au menținut acuratețea, reducând în același timp consumul de energie cu 95% pentru înmulțirile tensorilor și cu 80% pentru produsele punct.

Tehnica L-Mul oferă, de asemenea, performanțe îmbunătățite proporțional. Algoritmul depășește standardele actuale de calcul de 8 biți, obținând o precizie mai mare cu mai puține calcule la nivel de biți. Testele care acoperă diverse sarcini AI, inclusiv procesarea limbajului natural și viziunea artificială, au demonstrat doar o scădere a performanței cu 0,07% – un mic compromis atunci când este luat în considerare economiile de energie.
Modelele bazate pe transformatoare, cum ar fi GPT, pot beneficia cel mai mult de pe urma L-Mul, deoarece algoritmul se integrează perfect în mecanismul de atenție, o componentă crucială, dar consumatoare de energie a acestor sisteme. Testele pe modele AI populare, cum ar fi Llama și Mistral, au arătat chiar și o precizie îmbunătățită cu unele sarcini. Cu toate acestea, există vești bune și vești proaste.
Vestea proastă este că L-Mul necesită în prezent hardware specializat. Procesarea AI contemporană nu este optimizată pentru a profita de tehnică. Vestea bună este că planurile de dezvoltare a hardware-ului specializat și a API-urilor de programare sunt în lucru, deschizând calea pentru o IA mai eficientă din punct de vedere energetic într-un interval de timp rezonabil.
Singurul alt obstacol ar fi companiile, în special Nvidia, care împiedică eforturile de adoptare, ceea ce este o posibilitate reală. Producătorul de GPU și-a făcut o reputație ca dezvoltator de hardware de bază pentru aplicații AI. Este îndoielnic că va ridica mâna către hardware mai eficient din punct de vedere energetic atunci când va deține cota leului de piață.
Pentru cei care trăiesc pentru soluții matematice complexe, o versiune pretipărită a studiului este postată în biblioteca „arXiv” a Universității Rutgers.
