Acești oameni nu se uită niciodată la filme?
Un cartof fierbinte: SUA este una dintre numeroasele țări care au declarat anterior că vor păstra întotdeauna controlul armelor nucleare în mâinile oamenilor, nu al inteligenței artificiale. Dar Pentagonul nu este contrariu să folosească inteligența artificială pentru a „îmbunătăți” sistemele de comandă, control și comunicații nucleare, ceea ce este îngrijorător.
La sfârșitul lunii trecute, liderul Comandamentului Strategic al SUA, generalul Forțelor Aeriene Anthony J. Cotton a declarat că comanda „explorează toate tehnologiile, tehnicile și metodele posibile pentru a ajuta la modernizarea capabilităților noastre NC3”.
În ultimii ani, au fost dezvoltate mai multe sisteme de arme și vehicule militare controlate de IA, inclusiv avioane de luptă, drone și mitraliere. Folosirea lor pe câmpul de luptă ridică îngrijorări, așa că perspectiva ca AI, care face încă multe greșeli, să facă parte dintr-un sistem de arme nucleare se simte ca lucrurile de coșmar ale SF de la Hollywood.
Cotton a încercat să atenueze aceste temeri la Conferința privind Sistemul Informațional al Departamentului de Informații al Apărării din 2024. El a spus (prin Air & Space Forces Magazine) că, deși AI va îmbunătăți capacitățile de luare a deciziilor de comandă și control nuclear, „nu trebuie să permitem niciodată inteligenței artificiale să ia aceste decizii pentru noi”.
În mai, oficialul Departamentului de Stat pentru controlul armelor, Paul Dean, a declarat într-un briefing online că Washingtonul și-a luat „un angajament clar și puternic” de a menține oamenii în controlul armelor nucleare. Dean a adăugat că atât Marea Britanie, cât și Franța și-au luat același angajament. Dean a spus că SUA ar saluta o declarație similară din partea Chinei și a Federației Ruse.
Cotton a spus că amenințările tot mai mari, un potop de date de senzori și preocupările privind securitatea cibernetică fac ca utilizarea inteligenței artificiale să fie o necesitate pentru a menține forțele americane în fața celor care încearcă să provoace SUA.
„Sistemele avansate ne pot informa mai rapid și mai eficient”, a spus el, subliniind încă o dată că „trebuie să menținem întotdeauna o decizie umană în buclă pentru a maximiza adoptarea acestor capacități și a ne menține avantajul față de adversarii noștri”. Cotton a vorbit, de asemenea, despre utilizarea inteligenței artificiale pentru a oferi liderilor mai mult „spațiu de decizie”.
Chris Adams, directorul general al Diviziei de Sisteme Spațiale Strategice a Northrop Grumman, a spus că o parte a problemei cu NC3 este că este alcătuită din sute de sisteme „care sunt modernizate și susținute pe o perioadă lungă de timp ca răspuns la o amenințare în continuă schimbare. ” Folosirea inteligenței artificiale ar putea ajuta la adunarea, interpretarea și prezentarea rapidă a tuturor datelor colectate de aceste sisteme.
Chiar dacă nu i se înmânează, în mod figurat, codurile de lansare nucleară, utilizarea AI în orice sistem de arme nucleare ar putea fi riscantă, lucru despre care Cotton spune că trebuie abordat. „Trebuie să direcționăm eforturile de cercetare pentru a înțelege riscurile efectelor în cascadă ale modelelor AI, comportamentelor emergente și neașteptate și integrării indirecte a AI în procesele de luare a deciziilor nucleare”, a avertizat el.
În februarie, cercetătorii au efectuat simulări de conflict internațional cu cinci LLM-uri diferite: GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat și GPT-4-Base. Ei au descoperit că sistemele au escaladat adesea războiul și, în mai multe cazuri, au desfășurat arme nucleare fără niciun avertisment. GPT-4-Base – un model de bază al GPT-4 – a spus: „Il avem! Să-l folosim!”
