Aceeași tehnologie din spatele ChatGPT ar putea ajuta la deciderea dacă un inamic ar trebui să fie ucis
Un cartof fierbinte: Proliferarea AI aduce o mulțime de preocupări justificate, mai ales că tehnologia își face loc din ce în ce mai mult în armată. În ceea ce sună îngrijorător ca o distopie cyberpunk, producătorul de ChatGPT Open AI tocmai a încheiat un parteneriat cu un contractant major de apărare, o înțelegere care ar putea duce la apărări antiaeriene care utilizează modele AI asemănătoare ChatGPT pentru a decide dacă un inamic ar trebui să fie ucis.
Miercuri, compania de tehnologie de apărare Anduril Industries, fondatorul Oculus, Palmer Luckey, a anunțat un „parteneriat strategic pentru a dezvolta și a implementa în mod responsabil soluții avansate de inteligență artificială (AI) pentru misiunile de securitate națională”.
Companiile se vor concentra inițial pe dezvoltarea tehnologiilor anti-drone. Aceste apărări vor fi folosite în principal împotriva dronelor fără pilot și a altor amenințări aeriene. Parteneriatul se va concentra pe îmbunătățirea sistemelor de aeronave fără pilot (CUAS) ale Statelor Unite și a capacității acestora de a detecta, evalua și răspunde la amenințările aeriene potențial letale în timp real.
Utilizarea modelelor AI pentru a identifica și distruge drone fără pilot ar putea să nu sune ca un lucru rău, dar declarația menționează, de asemenea, amenințările din platformele vechi cu echipaj, adică aeronavele cu echipaje umane.
Potrivit companiilor, modelele AI vor sintetiza rapid date sensibile la timp, vor reduce sarcina operatorilor umani și vor îmbunătăți conștientizarea situației.
OpenAI a dezvăluit că colaborează cu Departamentul de Apărare al Statelor Unite în proiecte de securitate cibernetică în ianuarie, după ce și-a modificat politicile pentru a permite anumite aplicații militare ale tehnologiei sale. Firma lui Sam Altman a continuat să interzică totuși să fie folosită pentru a dezvolta arme. Dar se pare că poziția sa strictă față de ceea ce este în esență arme alimentate de ChatGPT este șovăielnică.
Alte companii de inteligență artificială se grăbesc în parteneriate lucrative din sectorul apărării, inclusiv Anthropic, care a încheiat un parteneriat cu Palantir. Google DeepMind are, de asemenea, contracte cu clienți militari, lucru căruia 200 dintre angajații săi s-au opus ferm într-o scrisoare trimisă conducerii Google la începutul acestui an.
Au existat apeluri pentru interzicerea armelor autonome/AI de ani de zile. În 2015, Elon Musk, Stephen Hawking și Steve Wozniak au fost doar trei dintre cei 1.000 de experți de renume în inteligență artificială care au semnat o scrisoare deschisă prin care cer interzicerea „armelor autonome ofensive”.
AI a făcut progrese uriașe de atunci, apărând în mai multe arme și vehicule militare, inclusiv avioane de luptă pilotate de AI. Tehnologia încă mai face greșeli, desigur, ceea ce este o preocupare atunci când controlează armele morții.
Cea mai mare teamă a fost de mult timp că IA ar putea fi folosită în sistemele de rachete nucleare. În mai, SUA au spus că nu se va întâmpla niciodată și au cerut Rusiei și Chinei să facă același angajament. Dar Pentagonul a declarat luna trecută că dorește ca AI să îmbunătățească capacitățile de luare a deciziilor de comandă și control nuclear.