Intelligenza Artificiale. Non ci sono solo Lensa e ChatGPT, le popolari app per cellulari che sfruttano l’Intelligenza Artificiale per regalare attimi di svago (e qualche rischio per la privacy). La nuova frontiera dell’Intelligenza Artificiale si spinge ben oltre: a cominciare dalla guerra, che ha sempre meno bisogno dell’uomo per uccidere. Intervista a Maurizio Simoncelli.
Si è soliti affermare – e a ragion veduta – che la guerra è disumana. Purtroppo, lo sta diventando ancora di più. Conseguenza dello schieramento nei teatri di conflitto di una nuova generazione di armamenti che fanno uso di Intelligenza Artificiale: LAWS, acronimo di Lethal Autonomous Weapon System, Sistema di Armamento Autonomo Letale.
Armi in grado di selezionare e
attaccare un obiettivo senza alcun tipo di supporto umano. Algoritmi progettati per uccidere esseri umani al posto degli esseri umani. Bombe più intelligenti delle “intelligenti”. Con tutto quanto ne consegue, anche in termini etici. In che modo si valuterà un uso eccessivo della forza rispetto alla minaccia sul campo di battaglia? «Nel caso di un errore, cioè l’uccisione di innocenti, appare difficilissima l’attribuzione delle responsabilità». E quale spazio verrà concesso alla resa di un nemico, senza che vi sia qualcuno a guardarlo negli occhi?
Non stupisce che le Intelligenze Artificiali siano una preoccupazione crescente anche per la Chiesa, che vi ha già dedicato più di un momento di approfondimento. Altro che disarmo: la strada imboccata con decisione sembra, piuttosto, quella di un aumento della spesa bellica e di un rafforzamento delle contrapposizioni armate come presunta via per la risoluzione dei conflitti.
Ne parlo con il prof. Maurizio Simoncelli, storico ed esperto di geopolitica, vicepresidente e cofondatore dell’Istituto di Ricerche Internazionali Archivio Disarmo (IRIAD). Fra le numerose pubblicazioni, LAWS Lethal Autonomous Weapons Systems. La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale, rapporto di ricerca realizzato per il Ministero degli Esteri e della Cooperazione Internazionale (2020).
Professor Simoncelli, si dice Intelligenza Artificiale, ma sarebbe forse più corretto parlarne al plurale. Che differenza c’è fra una IA “da cellulare” e una progettata per la guerra?
In generale l’Intelligenza Artificiale (IA), semplificando al massimo, è l’abilità di una macchina nel replicare rilevamenti, apprendimenti, decisioni e comportamenti umani attraverso hardware, software e algoritmi che operano insieme per affrontare e risolvere. L’IA applicata nel settore civile – come nei cellulari, ma anche in ambito sanitario, ambientale, logistico, ecc. – è sicuramente di estrema utilità. Altro discorso è quando essa è destinata all’uso militare, cioè bellico, perché si affidano ad essa decisioni particolarmente delicate e complesse, se non estreme, come nel caso della vita o della morte.
C’è un qualche tipo di collegamento fra le app che impiegano Intelligenza Artificiale e l’uso bellico?
Il collegamento esiste realmente, perché non solo le tecnologie di base sono analoghe, ma anche perché, ad esempio, l’uso dei cellulari può servire per rilevare un obiettivo, per monitorare degli spostamenti. Diversi esponenti del terrorismo, ad esempio, sono stati eliminati perché individuati e tracciati grazie all’uso del cellulare. Ovviamente, l’IA destinata al settore militare è molto più complessa e risponde ad una molteplicità di esigenze, quali, ad esempio, elaborare un’enorme quantità di dati per offrire risultati in tempi brevissimi e per assumere decisioni irrevocabili. Inoltre, basta pensare all’utilizzo dell’IA a scopi repressivi da parte di un regime autoritario: le armi autonome potrebbero, in tal senso, essere un ottimo strumento contro proteste popolari, senza timore di scrupoli etici o politici. Semplicemente, basta pensare all’uso del riconoscimento facciale già in corso in Cina, ad esempio, e alle conseguenze che questo ha sul controllo delle persone.
Quali sono gli scopi dei LAWS?
Si parla di LAWS in relazione all’IA applicata agli armamenti – sistemi antiaerei, missili, navi ecc. –, giornalisticamente chiamati “Killer Robot”. Nelle guerre del terzo millennio, quelle in cui la tecnologia è sempre più avanzata, sono due le motivazioni alla base dei LAWS. La prima consiste nella tendenza ad affidare lo scontro armato sempre più alle macchine per risparmiare il più possibile le vite umane – delle proprie forze armate, non dell’avversario. La seconda è connessa proprio alle esigenze di abbreviare sempre più i tempi del rilevamento dati, dell’analisi, delle decisioni. I missili ipersonici, particolarmente veloci e insidiosi per la loro traiettoria relativamente bassa, sono rilevabili dagli attuali sistemi molto tempo dopo rispetto ai missili a percorso balistico tradizionale. Per questo servono tempi di reazione sempre più brevi, che la componente umana ha difficoltà a sostenere. Affidare all’IA e ai LAWS un’eventuale decisione relativa ad un’azione missilistica nucleare appare decisamente rischiosa.
Ma si tratta di fantascienza oppure queste armi vengono già impiegate in guerra? E magari hanno già ucciso.
Purtroppo non si parla di fantascienza. Esistono già le cosiddette munizioni loitering, cioè circuitanti, munizioni da bombardamento o droni kamikaze, che una volta lanciati cercano da soli l’obiettivo prestabilito; i CIWS, apparati mobili per la difesa antiaerea e antimissile; le munizioni guidate di precisione, le cosiddette “bombe intelligenti”, in grado di correggere in volo e in tempo reale il bersaglio iniziale o eventuali errori successivi; i veicoli terrestri senza equipaggio, Unmanned Ground Vehicles (UGV); nonché i veicoli marini senza equipaggio, Unmanned Marine Vehicles (UMV). A tutte queste possiamo poi aggiungere lo swarm (sciame), un insieme di singoli sistemi interagenti ed operanti collettivamente, che rappresentano un ulteriore passo verso nuove armi futuribili. Secondo fonti giornalistiche, in Ucraina, e forse anche in Libia, tali armi hanno avuto il battesimo del fuoco.
E quello del sangue, si può immaginare. Sembra scontato, allora, il profilarsi di un nuovo cambiamento nel modo di condurre la guerra. Che conseguenze ha il venire meno di un diretto coinvolgimento umano nei combattimenti, affidati piuttosto ad algoritmi automatizzati?
Questi nuovi scenari bellici vedono la progressiva emarginazione della componente militare, sempre meno necessaria, a vantaggio di “camici bianchi”, che sovrintendono alla guerra dei robot. Ad oggi è un quadro futuribile, ma stando agli ingenti investimenti mondiali nell’IA – 500 miliardi di dollari stimati nel 2023 –, è una prospettiva che dobbiamo considerare attentamente. Tenendo poi presente che gli esperti rilevano comunque una percentuale di errori anche nell’IA e negli algoritmi, il quadro appare ancora più preoccupante. Se, però, da un lato è “affascinante” questa nuova frontiera tecnologica, agognata dalla Russia come dagli Stati Uniti, non va mai dimenticato che diverse guerre sono state perdute dalle grandi potenze di fronte ad una resistenza armata molto più semplicemente, dal Vietnam all’Afghanistan. Con il mio Istituto di ricerca Archivio Disarmo abbiamo condotto diversi studi sul problema e prossimamente pubblicheremo un libro con la prefazione del premio Nobel, il fisico Giorgio Parisi.
È evidente come si pongano serie questioni etiche. Cosa stanno facendo, o potrebbero ancora fare, la Chiesa cattolica e le comunità di fede in questo senso?
Ovviamente nel caso di un errore di un LAWS, cioè l’uccisione di innocenti, appare difficilissima l’attribuzione delle responsabilità, dato che la macchina non può ovviamente essere processata: tali responsabilità sono da addebitare al costruttore, al manutentore, al programmatore dell’algoritmo, a chi ne ha deciso la collocazione in quel sito, ai generali che ne hanno sottovalutati i rischi, ai politici che hanno approvato i programmi di finanziamento o ad un’azione di disturbo dell’avversario? A livello internazionale, nell’ambito ONU della CWC Convention on Certain Conventional Weapons, i Governi non sono riusciti ad accordarsi per norme e limiti condivisi, soprattutto per l’opposizione delle maggiori potenze. La Chiesa cattolica si è pronunciata totalmente contraria ai LAWS e gli esperti della Campagna internazionale “Stop Killer Robots”, che si oppongono a questa nuova corsa agli armamenti, richiedono un controllo umano significativo, che vuol dire che il permesso finale a sparare deve essere esclusivamente affidato all’uomo. I credenti, e non solo loro, dovrebbero conoscere questa realtà e far sentire ai Governi la propria voce, magari sostenendo la Campagna, che in Italia è condotta dalla Rete Italiana Pace e Disarmo.
© La riproduzione integrale degli articoli richiede il consenso scritto dell'autore.
1 commento su “Intelligenza Artificiale. Simoncelli (IRIAD): «Le si affidano decisioni estreme, come vita o morte»”