
Unul dintre marile succese ale secolului al XX-lea a fost că SUA și Uniunea Sovietică nu au intrat niciodată într-un război total. Descurajarea nucleară a fost esențială pentru această ispravă; fiecare dintre cele două mari superputeri avea arme nucleare. Dacă una dintre părți ar fi atacat-o pe cealaltă, atacatorul s-ar fi putut aștepta să fie distrus într-o a doua lovitură.
Astăzi, Statele Unite și China sunt angajate într-un nou tip de conflict: cursa inteligenței artificiale generale (artificial general intelligence, AGI). Pe măsură ce capabilitățile avansează rapid, mulți se așteaptă ca AI să devină cea mai importantă tehnologie economică și militară din lume. Într-adevăr, cursa AGI este adesea descrisă ca o chestiune existențială: cine o câștigă va „conduce lumea”.
Cel mai important element al cursei AGI rămâne descurajarea nucleară - nu, așa cum sugerează majoritatea comentatorilor, AGI în sine. Există două posibilități. În primul rând, dacă AGI nu perturbă descurajarea nucleară, atunci câștigătorul cursei AGI nu va „conduce lumea”. În al doilea rând, dacă AGI contestă descurajarea nucleară, atunci reprezintă o amenințare gravă la adresa securității internaționale, indiferent cine câștigă cursa AGI. În acest caz, țările se vor angaja în strategii cu risc ridicat pentru a încerca să își păstreze capacitatea de a amenința cu un atac nuclear. Dacă eșuează, pacea nu va mai fi stimulată prin descurajarea nucleară. Prin urmare, este esențial să înțelegem mai bine dacă și cum AGI va afecta descurajarea nucleară.
AGI nu sunt neapărat mașini care sunt conștiente sau sensibile; mai degrabă, sunt sisteme care sunt extrem de capabile să rezolve probleme complexe și să atingă obiective în lumea reală. După cum spune carta OpenAI: AGI „înseamnă sisteme extrem de autonome care depășesc oamenii la cele mai multe sarcini valoroase din punct de vedere economic”.
În consecință, mulți lideri se așteaptă ca AGI să fie decisiv din punct de vedere militar. După cum a spus Dario Amodei, CEO-ul Anthropic, țările cu AGI avansate vor putea aduce online echivalentul unei întregi „țări a geniilor” „în fiecare centru de date” pe care îl pot construi. Imaginați-vă, în al Doilea Război Mondial, ce ar fi putut realiza Aliații dacă nu ar fi avut doar un Robert Oppenheimer sau Leo Szilard - ci zeci de milioane dintre ei și alte zeci de milioane pentru fiecare nou centru de date pe care l-au construit. Gândiți-vă la tehnologiile de război pe care le-ar fi putut produce Aliații și la strategiile militare pe care le-ar fi putut concepe pentru a le desfășura.
Dacă o singură țară ar avea astăzi AGI, acea țară ar putea pune o întreagă țară de genii să perfecționeze rachete hipersonice, arme cu energie dirijată sau arme biologice țintite genetic. Ar putea desfășura milioane de drone de luptă, fiecare pilotată autonom de un sistem AI cu priceperea de zbor a lui Erich Hartmann. Ar putea arunca 100 de milioane de Alan Turing în apărarea cibernetică a adversarilor săi.
Prin urmare, nu este dificil să ne imaginăm că orice țară care va atinge AGI va fi instantaneu poziționată să prevaleze în conflict militar - poate împotriva tuturor celorlalte țări. Acest lucru, la rândul său, poate stimula țara care deține AGI să lanseze preventiv un astfel de atac de cucerire înainte ca rivalii săi să obțină ei înșiși AGI.
Dar ce se întâmplă dacă națiunile care nu au AGI au totuși capacitatea de a distruge întreaga planetă într-o minge de foc nuclear? Cel puțin două țări - Statele Unite și Rusia - sunt capabile de asta astăzi. Potrivit teoriei descurajării, acele arsenale nucleare descurajează efectiv agresiunea din partea altor națiuni - chiar și a celor cu avantaje copleșitoare în războiul convențional. Considerentul strategic cheie este „a doua lovitură”, ideea că superputerile nucleare au stocat suficiente arme nucleare pentru a riposta efectiv chiar și după ce au fost lovite cu arme nucleare.
Cu toate acestea, descurajarea nucleară este, în general, absentă din discuțiile despre AGI militare. Este o greșeală. Cea mai importantă întrebare geostrategică nu este cine dezvoltă AGI; este dacă AGI rupe cadrul de descurajare nucleară care a evitat războiul între superputeri în ultimii 70 de ani. Acest lucru s-ar întâmpla dacă, de exemplu, sistemul AGI al unei puteri nucleare ar dezactiva arsenalul nuclear al unei alte țări, permițând celei dintâi să amenințe cu o lovitură nucleară fără teama de represalii.
Leopold Aschenbrenner este unul dintre puținii comentatori care au abordat întrebarea în mod explicit. El susține că AI „superinteligente” vor putea folosi senzori pentru a găsi armele nucleare ale unui adversar și vor folosi miliarde de drone minuscule autonome pentru a le dezactiva.
Dacă da, consecințele vor fi grave. Dacă o națiune înarmată nuclear ar dezvolta mai întâi AGI, ar deveni rapid singura națiune înarmată nuclear. Națiunea respectivă ar putea dicta termeni pentru restul lumii. S-ar putea să ceară tribut de la alte națiuni sub amenințarea anihilării. Sau ar putea pur și simplu să anexeze părți mari ale Globului.
Aschenbrenner ar putea avea dreptate cu privire la potențialul AGI de a anula descurajarea, dar e nesigur. Arsenalele nucleare s-ar putea dovedi a fi destul de rezistente la interferența mediată de AGI, în parte pentru că atât armele, cât și sistemul pentru implementarea lor sunt relativ nesofisticate. Armele nucleare în sine sunt, după standardele actuale, o tehnologie primitivă. Au fost create în timpul celui de-al Doilea Război Mondial și nu conțineau niciun fel de echipament de calcul. Pentru a genera o explozie nucleară, trebuie doar să distrugeți o cantitate mică de material fisionabil subcritic cu suficientă forță încât materialul să devină critic. De obicei, aceasta implică punerea miezului fisionabil între niște explozibili convenționali și aruncarea lor în aer.
Rachetele balistice intercontinentale (ICBM) și alte tehnologii de livrare a focoaselor sunt mai sofisticate, folosind microprocesoare pentru diverse lucruri precum ghidarea. Dar și ele pot funcționa pe tehnologie care era familiară tehnologilor anilor 1950. După cum notează Aschenbrenner, multe arme nucleare americane sunt desfășurate pe submarine. Acestea, în principiu, sunt mici tuburi metalice împrăștiate pe un ocean vast și apoi scufundate la sute de metri în mare - unde pot rămâne la infinit.
Este cu siguranță posibil ca AGI să poată decapita cu ușurință arsenalele nucleare de acest fel. Dar este departe de a fi evident. Locațiile acestor arme sunt printre cele mai bine păzite secrete ale Statelor Unite. Arsenalul nuclear este o triadă, împărțită în ICBM-uri, bombardiere strategice și submarine. Aceste arme nu sunt conectate în rețea. Ele nu pot fi distruse direct. AGI poate îmbunătăți în mod dramatic senzorii și detectarea. Dar fizica limitează transmiterea informațiilor utilizabile, cum ar fi zgomotul motorului submarinului, prin agitarea apei de mare.
Pe de altă parte, poate capabilitățile avansate de atac cibernetic AI ar putea fi folosite pentru a pirata arme nucleare, de exemplu, în sistemele care transmit ordine de lansare nucleară. Cea mai frecventă greșeală în discursul AI este subestimarea potențialului său transformator. Dar a doua cea mai obișnuită este să postulezi AI arbitrar de puternice, chiar asemănătoare lui Dumnezeu - sigur că sunt capabile de orice, oricât de dificil.
Mai mult decât atât, dacă AGI iminent ar părea gata să neutralizeze arsenalele nucleare pe măsură ce sunt desfășurate în prezent, națiunile ar lucra pentru a întări aceste arsenale în continuare. De exemplu, în Statele Unite, președintele are singura autoritate de lansare nucleară - cel puțin în măsura în care este cunoscut public. Acest lucru creează un singur punct de eșec potențial, cel puțin temporar. Dacă președintele este asasinat, Statele Unite ar putea avea capacitatea redusă de a-și desfășura arsenalul nuclear, cel puțin până la stabilirea noului lanț de comandă. Dacă Statele Unite ar considera această structură de lansare centralizată ca fiind prea riscantă într-o lume a asasinatelor cu drone activate de AGI, ar putea transfera autoritatea de lansare.
Ar putea fi luate și măsuri și extreme. O pondere din ce în ce mai mare a țărilor cu armate nucleare ar putea desfășura sisteme „dead hand”, echipate pentru a-și lansa arsenalele automat - poate dacă secvențele lor de lansare nu au fost întrerupte criptografic la intervale regulate.
Detonarea unui număr suficient de mare de arme nucleare poate declanșa iarna nucleară, o afectare ireversibilă a climei. Acest tip de amenințare nici măcar nu necesită ca armele nucleare să fie vizate: un stat mai slab ar putea amenința că va detona instantaneu un depozit de arme nucleare ascunse într-o locație îndepărtată, mai degrabă decât să se permită să fie distruse. Acest lucru ar neutraliza amenințarea sistemelor de apărare antirachetă asistate de AI.
Aceste strategii ar fi extraordinar de periculoase. Ar crește substanțial riscul unei lansări nucleare accidentale sau necinstite. Dar dacă Statele Unite sau o altă națiune înarmată nuclear ar considera că amenințarea dominației AGI este suficient de gravă, ar putea recurge la astfel de măsuri riscante.
O altă întrebare se referă la limitele descurajării nucleare. Descurajarea nucleară a SUA nu a împiedicat Rusia să invadeze Ucraina, deoarece invazia rusă nu a fost o amenințare existențială pentru Statele Unite. SUA nu au putut amenința în mod credibil Rusia cu o lovitură nucleară ca răspuns la invazia ucraineană, deoarece, pentru americani, miza nu era suficient de mare pentru a risca un contraatac rusesc. Sistemul internațional a conceput convenții bazate pe această intuiție: în general, armele nucleare nu sunt nici folosite efectiv și nici ca amenințare în războaiele proxy dintre puterile nucleare. Astfel de conflicte rămân convenționale, iar partea cu forțele non-nucleare mai puternice se poate aștepta, în general, să le câștige.
Astfel, chiar dacă AGI nu permite țării care o are să dezactiveze arsenalele nucleare ale rivalilor, o superputere AGI și-ar putea îmbunătăți dramatic capacitatea de a câștiga războaiele proxy. Acest lucru ar avea două efecte simultane și, poate, paradoxale. Pe de o parte, ar putea crește dramatic războiul la nivel global, deoarece superputerea AGI ar alege cu impunitate lupte proxy. Pe de altă parte, s-ar putea să nu crească substanțial riscul unui război nuclear total, dacă superputerea AGI s-ar abține de la, de exemplu, invadarea altor state ale căror arsenale nucleare au rămas intacte.
Într-o astfel de lume, SUA - dacă ar pierde cursa AGI - s-ar confrunta cu reduceri semnificative ale capacității sale de a proiecta forța pe tot globul. Arsenalul său nuclear ar rămâne un factor de descurajare, dar numai împotriva amenințărilor care ar genera, în mod credibil, amenințarea cu represalii nucleare. Aceasta ar include probabil amenințările externe de invadare a teritoriului suveran al SUA. Dar este puțin probabil, de exemplu, ca SUA să amenințe în mod credibil că vor declanșa un război nuclear pentru expansiunea Chinei în Marea Chinei de Sud. Prin urmare, atâta timp cât descurajarea nucleară este valabilă, pierderea cursei AI înseamnă pierderea puterii de a supraveghea Globul, dar nu înseamnă pierderea capacității de a apăra teritoriul SUA.
Termenul până la AGI poate fi scurt. Problema descurajării nucleare în epoca AGI este printre cele mai importante pentru planificarea geostrategică globală în următorii doi până la cinci ani. Prin urmare, sperăm că problema va fi abordată în comun de experții militari și AI și că analizele pe care le produc vor fi mult mai sofisticate decât cele pe care le-am oferit aici. Lumea nu-și poate permite să se bazeze pe speculații inutile despre raportul de putere în lumea AGI. Avem nevoie de răspunsuri mai bune și avem nevoie de ele acum.