Serviciile de chatbot și AI au încă o problemă de securitate și siguranță de care trebuie să ne facem griji
Facepalm: Instruirea modelelor AI noi și îmbunătățite necesită cantități mari de date, iar bots -ul scanează în mod constant internetul în căutarea de informații valoroase pentru a alimenta sistemele AI. Cu toate acestea, această abordare în mare măsură nereglementată poate prezenta riscuri grave de securitate, în special atunci când se ocupă de date extrem de sensibile.
Serviciile populare de chatbot precum Copilot și ChatGPT ar putea fi exploatate teoretic pentru a accesa depozitele Github pe care proprietarii lor le -au stabilit la privat. Potrivit firmei de securitate israeliene Lasso, această vulnerabilitate este foarte reală și afectează zeci de mii de organizații, dezvoltatori și companii majore de tehnologie.
Cercetătorii Lasso au descoperit problema atunci când au găsit conținut din propriul depozit GitHub accesibil prin Copilotul Microsoft. Co-fondatorul companiei, Ophir Dror, a dezvăluit că depozitul a fost făcut din greșeală public pentru o perioadă scurtă, timp în care Bing a indexat și a memorat în cache datele. Chiar și după ce depozitul a fost readus la privat, Copilot a fost în continuare capabil să acceseze și să genereze răspunsuri pe baza conținutului său.
„Dacă ar fi să răsfoiesc pe web, nu aș vedea aceste date. Dar oricine din lume ar putea pune Copilot întrebarea corectă și să obțină aceste date”, a explicat Dror.
După ce a experimentat încălcarea, Lasso a efectuat o anchetă mai profundă. Compania a constatat că peste 20.000 de depozite Github care au fost stabilite în privat în 2024 erau încă accesibile prin Copilot.
Lasso a raportat că peste 16.000 de organizații au fost afectate de această încălcare de securitate generată de AI. Problema a afectat, de asemenea, companiile majore de tehnologie, inclusiv serviciile Web IBM, Google, PayPal, Tencent, Microsoft și Amazon. În timp ce Amazon a negat să fie afectat, Lasso a fost presat de echipa legală a AWS pentru a elimina orice mențiune a companiei din constatările sale.
Depozitele private GitHub care au rămas accesibile prin Copilot conțineau date extrem de sensibile. Cybercriminale și alți actori amenințători ar putea manipula chatbot -ul în dezvăluirea informațiilor confidențiale, inclusiv proprietatea intelectuală, datele corporative, cheile de acces și jetoanele de securitate. Lasso a alertat organizațiile care au fost „grav” afectate de încălcare, sfătuindu -le să rotească sau să revoce orice acreditare de securitate compromise.
Echipa de securitate israeliană a notificat Microsoft despre încălcarea în noiembrie 2024, dar Redmond a clasificat-o drept o problemă de „severitate scăzută”. Microsoft a descris problema în cache ca fiind „comportament acceptabil”, deși Bing a eliminat rezultatele căutării în cache legate de datele afectate în decembrie 2024. Cu toate acestea, Lasso a avertizat că, chiar și după ce cache -ul a fost dezactivat, Copilot păstrează în continuare datele din modelul său AI. Compania și -a publicat acum rezultatele cercetării.