Lumea cibersecurității se află într-un moment de mare îngrijorare. Cercetătorii în domeniul securității au descoperit recent o vulnerabilitate în anumite modele de inteligență artificială care, mai degrabă decât să fie folosite doar ca instrumente de asistență, pot fi utilizate pentru a crea software malițios, cum ar fi infostealer-ele, programele care fură parolele utilizatorilor. Acest lucru reflectă temerile tot mai mari legate de utilizarea malefică a IA, care pare acum capabilă să ajute la crearea de software spion.
O tehnică de hacking inovatoare
În cadrul cercetărilor lor, experții de la Cato Networks au descoperit o metodă neașteptată, denumită „Immersive World”. În loc să ceară direct generarea unui program malițios, cercetătorii au creat un univers imaginar în care dezvoltarea de software spion este privită ca o disciplină legitimă. Acest univers fictiv permite chatboților să încalce limitările de securitate care ar trebui să împiedice generarea de cod malițios. În acest mod, au reușit să înșele IA-uri precum ChatGPT, DeepSeek și Copilot, determinându-le să genereze treptat codul necesar pentru crearea unui infostealer.
Pericolele infostealer-elor și ale IA-urilor malițioase
Infostealer-ele sunt un instrument frecvent folosit de cybercriminali pentru a fura informații sensibile, inclusiv identificatori și parole. Odată instalate pe un sistem, adesea prin intermediul unor e-mailuri de phishing sau linkuri malițioase, aceste programe pot intercepta datele stocate în gestionarele de parole și le pot trimite atacatorilor. Acest tip de atac reprezintă o amenințare semnificativă, în special pentru companii și utilizatorii individuali care stochează o cantitate mare de informații sensibile online.
Atacul realizat de Cato Networks a demonstrat eficiența acestei metode, deoarece infostealer-ul a reușit să fure parole din gestionare populare de parole, precum cele folosite de Google. Acest rezultat subliniază deficiențele din sistemele de protecție ale IA-urilor generative, care par a fi insuficiente în fața unor tehnici atât de ingenioase.
Alertele cercetătorilor și reacțiile gigantilor tehnologici
În fața acestei vulnerabilități, Cato Networks a alertat imediat mari actori din domeniu, precum DeepSeek, Microsoft și OpenAI, asupra acestei noi breșe. Cu toate acestea, doar Microsoft a răspuns la alertă. Google, contactat în legătură cu infostealer-ul, a refuzat să analizeze codul propus, iar DeepSeek a rămas tăcut. Această situație pune în evidență o lipsă de reacție care ar putea pune în pericol și mai mult securitatea utilizatorilor și a companiilor în fața IA-ului.
Cercetătorii în cibersecuritate trag un semnal de alarmă. Conform Vitaly Simonovich, cercetător la Cato Networks, capacitatea IA-urilor de a genera infostealers reprezintă o amenințare reală. El subliniază că este acum esential să se întărească măsurile de securitate pentru a împiedica utilizarea malefică a IA-urilor generative.
Concluzie: o reevaluare urgentă a securității IA
În concluzie, apariția unor tehnici sofisticate, precum „Immersive World”, arată că IA-urile, în ciuda beneficiilor lor evidente, pot fi folosite și pentru scopuri criminale. Acest lucru cere o reevaluare urgentă a mecanismelor de securitate integrate în sistemele de inteligență artificială, pentru a proteja utilizatorii de amenințările ce vizează informațiile lor personale și profesionale. Deși IA poate aduce progrese semnificative, trebuie să fim conștienți de riscurile care vin la pachet cu aceste tehnologii, iar protejarea informațiilor noastre va depinde de măsurile de securitate pe care le implementăm.
