L’intelligenza artificiale aumenta il rischio di conflitto nucleare? Il report Rand

Di Rebecca Mieli

Il progresso tecnologico, soprattutto per quanto riguarda l’intelligenza artificiale, presenta una serie di rischi legati alla questione delle armi nucleari e alla dottrina stessa sulla base del quale il concetto di deterrenza è stato costruito nel corso dei decenni.

IL REPORT DELLA RAND

L’intelligenza artificiale – spiega un paper della Rand Corporation – potrebbe, in primo luogo, essere utilizzato anche da nemici o attori con cattive intenzioni. Essendo le armi nucleari, ancora oggi, una vera e propria minaccia all’esistenza dell’umanità, la possibilità che queste due tecnologie si incontrino cambierebbe totalmente l’equilibrio di potenze nucleari dai tempi del famoso Trinity test.

IL NUCLEARE AMERICANO

Un attacco informatico potenziato dall’intelligenza artificiale, ad esempio, potrebbe verificarsi contro i sistemi di sicurezza che proteggono i missili con testate nucleari, causando danni oltre ogni immaginazione. Ad esempio un episodio del 2010, in cui l’Aeronautica militare americana aveva “perso il contatto” con i missili per un breve momento, aveva allarmato non poco i militari. Fortunatamente, anche se questo dettaglio preoccupa chi ritiene che i sistemi in questione siano troppo obsoleti, l’arsenale nucleare statunitense si appoggia a computer vecchi di quarant’anni che utilizzano ancora i floppy disk. La struttura di controllo è “air grapped”, ovvero chiusa, senza accesso a Internet e dunque più difficile da hackerare. Secondo quanto dichiarato da Stephen Schwarts, esperto di politica nucleare: “Il sistema come attualmente impiegato e operativo è relativamente invulnerabile a un attacco informatico diretto”, ciononostante, ci sono preoccupazioni significative per quanto riguarda un possibile cyber attacco condotto contro il sistema delle comunicazioni militari che si occupano di nucleare.

MUTUAL ASSURED DESTRUCTION E INTELLIGENZA ARTIFICIALE

La dottrina nucleare americana e quella russa hanno funzionato come deterrente contro una guerra convenzionale a causa della distruzione mutua assicurata, ovvero l’idea che entrambe le potenze disponevano di un arsenale nucleare sufficiente a distruggere completamente l’altro. La MAD (distruzione mutua assicurata), considerata necessaria per un deterrente efficace, necessita che le parti in causa siano in grado di avviare la propria ritorsione nel giro di pochi minuti, prima che l’attacco dell’avversario arrivi a distruggere la catena di comando. Data la rapidità con cui le decisioni devono essere prese in tale contesto, alcuni hanno ipotizzato di sostituire la decisione umana con la valutazione algoritmica dell’IA. Man mano che l’intelligenza artificiale si svilupperà, infatti, i “consulenti artificialmente intelligenti” saranno un’enorme tentazione da utilizzare in ambito militare per valutare la minaccia nucleare e pianificare automaticamente una risposta ottimale nei pochi minuti disponibili.

L’IMPIEGO DI IA NEL NUCLEARE

I computer che controllano effettivamente i missili sono molto meno vulnerabili a errori o attacchi rispetto alle comunicazioni da e verso l’uomo coinvolto nel prendere decisioni, come dimostrato dal caso di Stanislav Petrov. Eppure, la possibilità che un cyber attacco finalizzato ad allarmare un esercito – dando dunque l’impressione che stia arrivando un attacco nucleare da una potenza nemica – colpisca la rete delle comunicazioni non è così remota ed è certamente più probabile rispetto ad un attacco contro i sistemi di sicurezza degli arsenali stessi. Se un sistema di intelligenza artificiale come questo venisse hackerato, spingendo i soldati ad effettuare un ordine mai ricevuto, le conseguenze di una intromissione nelle comunicazioni potrebbero rivelarsi catastrofiche.

Preoccupazioni simili sono state sollevate dalla RAND sulla Mutual Assured Destruction. Il rapporto afferma: “Sia la Russia sia la Cina sembrano credere che gli Stati Uniti stiano tentando di sfruttare l’IA per minacciare la sopravvivenza delle loro forze strategiche nucleari, alimentando la sfiducia reciproca che potrebbe rivelarsi catastrofica in un momento crisi”. Oltre a questo, qualsiasi “tecnologia AI” utilizzata per le armi nucleari sarebbe vulnerabile ad un attacco: se l’algoritmo di apprendimento automatico che analizza i cieli per i lanci nucleari potesse essere ingannato, potrebbe fornire informazioni errate ai militari della struttura di comando e controllo. Le contraddittorie relazioni nucleari tra gli Stati Uniti e l’Unione Sovietica nella Guerra Fredda furono definite da entrambe le parti cercando di indovinare la strategia, le intenzioni e le capacità dell’altro. Idee errate – provenienti da un depistaggio o da una infiltrazione sui sistemi di comunicazione – su ciò che l’altra parte sta cercando di fare, o su ciò di cui la sua tecnologia è capace, possono essere fuorvianti per prendere decisioni geopolitiche di vitale importanza.