ARCHIVIO DISARMO: AI, CHE COSA ACCADE SE LA USIAMO IN GUERRA?
Armi letali autonome, intelligenza delle macchine e follia della guerra i temi al centro di un incontro proposto da Archivio Disarmo e Rete Italiana Pace Disarmo con Università La Sapienza. Farruggia: «Se l’AI porta progresso, in campo militare occorre tracciare una linea netta. Più ci distacchiamo dal campo di battaglia, più la guerra è ritenuta praticabile»
09 Ottobre 2024
6 MINUTI di lettura
Siamo cresciuti con un certo timore per le Intelligenze Artificiali. Dall’HAL 9000 di 2001: Odissea nello spazio al cyborg di Terminator fino a Matrix, la fantascienza nei libri e al cinema ci ha sempre palesato il rischio, lontano ma non troppo, di un mondo in cui le macchine potessero decidere da sole e comandare sull’uomo. In questi ultimi anni la narrazione sulle AI è invece diventata decisamente positiva. Eppure i timori ci sono ancora. Uno dei più grandi è quello per le armi letali autonome già utilizzate nelle guerre in corso. Se ne parlerà nel convegno Intelligenza delle macchine e follia della guerra: Le armi letali autonome, venerdì 11 ottobre alle 16 alla Sapienza Università di Roma, in piazzale Aldo Moro 5 (Sala Lauree della Facoltà di Scienze Politiche, Sociologia, Comunicazione). Il convegno è organizzato da Archivio Disarmo e Rete Italiana Pace Disarmo con l’Università La Sapienza. Ne abbiamo parlato con Francesca Farruggia, segretaria generale Archivio Disarmo e ricercatrice del Dipartimento Scienze sociali ed economiche de La Sapienza Università di Roma.
Le armi autonome e l’IA tra pace e scenari di guerra
«Oramai tutti parliamo di AI, anche in ambito accademico», spiega Francesca Farruggia, «però la sua applicazione in ambito militare rimane un argomento di nicchia. Siamo abituati a vedere e parlare di armi autonome nella fantascienza. Ma è stata distopia o profezia? Cominciamo a temere che quello che sembrava uno scenario esagerato non lo fosse: cominciamo a vedere che sul campo, anche più velocemente di quello che ci aspettavamo, l’applicazione dell’IA ha avuto un’accelerazione incredibile. A che punto siamo arrivati? Cosa vedremo sul campo di battaglia?»
Che cosa sappiamo delle armi autonome?
Negli anni scorsi si è parlato molto dei droni guidati a distanza. Ma lo scenario è cambiato. «C’è un impiego massiccio di droni, che sono armi semiautonome» ci spiega la Segretaria generale di Archivio Disarmo. «I droni impiegano sempre più l’AI. Prima erano completamente telecomandati, adesso hanno sempre di più ampie zone di autonomia: decollano, pattugliano, individuano il bersaglio, che sanno riconoscere. Poi ci sono pareri discordanti sul controllo umano nell’ultima fase, ma, se una tecnologia può agire liberamente, non so quanto controllo umano possa esserci». Quando si parla di guerra, infatti, c’è sempre una cortina di riservatezza, e quello che si sa arriva da fonti di parte. «Nel rapporto dell’Onu del maggio 2021 si informava che dei droni turchi avevano operato autonomamente nei campi di battaglia libici» spiega la ricercatrice. «Nel gennaio del 2023 Fedorov, vicepremier ucraino, aveva dichiarato che gli Usa avevano inviato in Ucraina i droni F700, capaci di localizzare, identificare e annientare i droni nemici. Parliamo di armi autonome difensive. In questi giorni è sempre più famoso l’Iron Dome israeliano, una sistema completamente autonomo: riconosce i missili nemici e si muove in maniera difensiva».
Lavender, il sistema di riconoscimento nella guerra tra Israele e Hamas
Non dobbiamo sottovalutare un’altra idea delle armi autonome. «Non è qualcosa alla Robocop, il robot antropomorfo che agisce al nostro posto» precisa Francesca Farruggia. «Pensiamo a tutti i sistemi di riconoscimento dell’operazione Lavender, portata avanti nella guerra di Israele contro Hamas. Cosa fa? Attraverso l’utilizzo dell’AI assegna delle valutazioni agli individui residenti a Gaza in relazione alla loro sospetta affiliazione ai gruppi armati palestinesi. Questo sistema di autovalutazione in un anno ha individuato 37mila possibili target, con un margine di errore del 10%, che è elevatissimo. Nel convegno parleremo anche di questo: tra gli ospiti avremo Meron Rapoport, editorialista della Rivista +972, che ha sviluppato un’inchiesta sul sistema Lavender e ha intervistato 6 ufficiali israeliani che testimoniano in che modo è stato utilizzato».
Where Is Daddy? individua le abitazioni dei gruppi armati palestinesi
La guerra è già disumana, ma lo diventa ancora di più pensando a cosa può avvenire per l’errore di una macchina. «È davvero terribile» commenta Francesca Farruggia per Archivio Disarmo. «E da questa inchiesta emergono testimonianze sconcertanti. Sembra che possano essere coinvolte nel bombardamento ogni volta fino a 15-20 civili. Non è proprio un effetto collaterale. Un altro sistema che funziona attraverso l’AI, Where Is Daddy?, individua le abitazioni affiliate a gruppi armati palestinesi, per bombardare chi le abita una volta rientrato. È chiaro che la possibilità che si trovino in corrispondenza di familiari è molto alta. Ci sono una serie di implicazioni che riguardano non solo l’utilizzo di droni o piccoli robot autonomi sul campo di battaglia, ma anche su questi riconoscimenti che avvengono attraverso l’AI, che velocizza in maniera extraumana la possibilità di individuare il bersaglio. Con il sistema Lavender sono stati individuati più di 37mila uomini palestinesi target. Si dice che l’essere umano in un anno riconoscesse circa 100 affilati. L’AI moltiplica a dismisura la capacità di lettura dei dati».
Per arginare la follia della guerra, mobilitazioni contro i killer robot
La seconda parte del convegno sarà dedicata alla campagna Stop Killer Robots, che nasce nel 2015 per la messa al bando delle armi autonome. Sarà moderata da Francesco Vignarca, della Rete Italiana Pace e Disarmo, e vedrà l’intervento di Peter Asaro, professore di filosofia della scienza e della tecnologia della New School – School Of Media Studies di New York, e Vicepresidente del comitato direttivo della campagna, che si è occupato delle implicazioni etiche dell’utilizzo dell’AI in guerra. Ci sarà l’intervento di Amnesty International e della Croce Rossa Italiana.
Come cambia la narrazione sull’AI
Questi allarmi arrivano in un momento in cui la narrazione sull’AI, dopo anni in cui è stata allarmistica, è diventata decisamente ottimistica e positiva. È importante, allora, che si parli anche dei lati preoccupanti. «Sono d’accordo» ci spiega la ricercatrice. «Ultimamente tutta la narrazione va verso il tema come l’AI può aiutare l’essere umano. Ci sono campi in cui l’AI ci sta portando a progressi importanti, ma non possiamo mettere in ombra i rischi, e in ambito militare dobbiamo tracciare una linea che non dovrebbe essere superata. È difficile arrestare un processo in corsa, visti gli interessi, ma, d’altra parte, tacere vuol dire essere complici».
Un domani queste armi potrebbero essere in mano a chiunque
Le tecnologie arrivano in un momento già terribile per le guerre in atto e vanno ad esacerbare uno scenario già molto grave, sottolinea Farruggia. «Da sempre i governi hanno il mito delle perdite zero e di armi che sempre più ci distanzino dal campo di battaglia. La tendenza è poter salvaguardare i “nostri” uomini, il “nostro” esercito. Ma è chiaro che è un’utopia che riguarda solo noi stessi, le perdite zero riguardano la nostra parte, non i danni che queste armi portano sul terreno dell’esercito e del popolo. Più ci distacchiamo dal campo di battaglia, più l’idea di fare la guerra può essere ritenuta praticabile. Un conto per un governo è far digerire all’opinione pubblica il coinvolgimento del proprio esercito, dei propri figli, dei propri fratelli. Un altro conto è parlare di territori lontani e di una guerra che non ci coinvolge in prima persona. Queste armi poi costano relativamente poco rispetto agli armamenti a cui siamo abituati e hanno una facilità di produzione estrema. Dobbiamo pensare che un domani potranno essere in mano a chiunque. E ho paura di vedere a che livelli arriveremo».
Immagine in copertina: IDF Spokesperson’s Unit / CC BY-SA 3.0