Lanciato in picchiata verso la giungla, un aereo della marina ha lasciato cadere un insieme di dispositivi sulla fitta rete di alberi in basso. Alcuni erano microfoni, usati per cogliere i passi dei guerriglieri o l’accensione di camion. Altri erano rilevatori d’attività sismica, adattati per cogliere vibrazioni minime sul terreno. I più strani di tutti erano sensori olfattivi, alla ricerca dell’ammoniaca presente nell’urina umana.
Decine di migliaia di questi dispositivi elettronici hanno trasmesso i loro dati ad alcuni droni e poi ai computer. Nel giro di pochi minuti, degli aerei da guerra stavano arrivando per bombardare a tappeto una porzione di terreno determinata da un algoritmo. L’operazione Igloo white (iglù bianco) era il futuro della guerra. Nel 1970.
Il tentativo degli Stati Uniti d’interrompere il sentiero di Ho Chi Minh dal Laos al Vietnam non ebbe successo. Costò circa un miliardo di dollari all’anno (circa 7,3 miliardi di dollari attuali), ovvero centomila dollari (730mila di quelli attuali) per ogni camion distrutto, e non ha messo fine alle infiltrazioni.
Nuovi sviluppi
Ma il fascino di una guerra semiautomatizzata non è mai svanito. L’idea di raccogliere dati dai sensori, processarli tramite algoritmi sempre più raffinati e capaci di agire più velocemente del nemico è al cuore del dibattito militare tra le principali potenze mondiali. E oggi la cosa è amplificata dai nuovi sviluppi in materia d’intelligenza artificiale.
L’intelligenza artificiale è “pronta a cambiare la natura stessa del campo di battaglia del futuro”, ha dichiarato il dipartimento della difesa degli Stati Uniti nel suo primo documento strategico relativo all’intelligenza artificiale, del febbraio 2019.
Nell’estate 2018 il Pentagono ha lanciato il Centro di coordinamento per l’intelligenza artificiale (Jaic) e quest’anno a marzo si è riunita per la prima volta la Commissione per la sicurezza nazionale sull’intelligenza artificiale. Il bilancio del Pentagono per il 2020 ha previsto l’ingente cifra di quasi un miliardo di dollari per l’intelligenza artificiale e una cifra più di quattro volte superiore per le strumentazioni autonome o senza equipaggio che si affidano a essa.
L’attrattiva dell’automazione è evidente: i robot sono più economici, più resistenti e più sacrificabili degli esseri umani
Attività altrettanto febbrili sono in corso in Cina, un paese che ambisce a diventare leader mondiale nel campo dell’intelligenza artificiale entro il 2030 (non è chiaro secondo quali criteri), e in Russia, dove il presidente Vladimir Putin è noto per aver predetto che “chiunque diventerà leader in questo campo diventerà il dominatore del mondo”. Ma il paradosso è che l’intelligenza artificiale potrebbe allo stesso tempo squarciare e rafforzare la “nebbia della guerra”, permettendo di condurre il conflitto con una velocità e una complessità che lo renderebbero sostanzialmente oscuro per gli esseri umani.
Intelligenza artificiale è un’espressione generica e imprecisa, che copre una gamma di tecniche che vanno dai sistemi di rispetto delle regole, sperimentati la prima volta negli anni cinquanta, all’apprendimento automatico basato sulla probabilità di oggi, nel quale i computer insegnano a se stessi a svolgere alcuni compiti.
L’apprendimento profondo – un potente approccio all’apprendimento automatico, e che coinvolge molti strati di reti neurali modellate sul cervello – si è dimostrato particolarmente efficace per i compiti più disparati come la traduzione, il riconoscimento di oggetti e le esperienze ludiche.
Tre categorie di applicazione
Michael Horowitz dell’università della Pennsylvania paragona l’intelligenza artificiale al motore a combustione interna o all’elettricità – una tecnologia pratica dotata di una miriade di applicazioni – dividendo le sue applicazioni militari in tre categorie. Una consiste nel permettere alle macchine di funzionare senza supervisione umana. Un’altra nel processare e interpretare ampi volumi di dati. La terza nel contribuire, o addirittura nel dirigere in prima persona, le attività belliche di comando e controllo.
L’attrattiva dell’automazione è evidente: i robot sono più economici, più resistenti e più sacrificabili degli esseri umani. Ma una macchina in grado di vagare per un campo di battaglia, e a maggior ragione di versare sangue su di esso, dev’essere abbastanza intelligente da sostenere un simile fardello. Un drone privo d’intelligenza non sopravviverà molto in una battaglia. Peggio ancora, un robot privo d’intelligenza e dotato di armi da fuoco può facilmente portare a un crimine di guerra. All’intelligenza artificiale è quindi richiesto il compito di fornire alle macchine le abilità necessarie. Tra queste ce ne sono di semplici, come la percezione e la navigazione, e altre più raffinate, come il coordinamento con altri agenti.
La macchine intelligenti che coniugano queste abilità possono fare cose impossibili per gli esseri umani. “Già oggi, un sistema d’intelligenza artificiale può avere prestazioni più elevate, all’interno di un combattimento aereo simulato, di quelle di un pilota militare esperto”, spiega Kenneth Payne del King’s College di Londra. A febbraio l’agenzia statunitense di progetti di ricerca avanzati per la difesa (Darpa), la sezione che si occupa di sviluppo del settore aereo del Pentagono, ha condotto i più recenti test su una flotta di sei droni capaci di collaborare in un ambiente “ad alto rischio”, anche in assenza di un contatto con esseri umani.
La vista dei computer è imperfetta e può essere ingannata in modi che non passerebbero inosservati a un occhio umano
Ciò nonostante, la maggior parte dei sistemi è dotata di un tipo d’intelligenza limitata e instabile: buona per eseguire un compito in un ambiente ben definito, ma destinata a fallire miseramente in condizioni non consuete. Tra le armi autonome esistenti ci sono missili mobili che si abbattono su radar oppure armi da fuoco rapide che difendono navi e basi militari. Utili ma non rivoluzionarie, e nessuna di esse ha davvero bisogno delle tecniche di apprendimento automatico sperimentate negli ultimi anni e oggi di moda.
Apprendimento profondo
Ma sarebbe un errore pensare che l’intelligenza artificiale sia utile solo per le attività di routine su un campo di battaglia. I robot, che siano assassini o meno, devono agire in base a ciò che vedono. Ma per molte piattaforme militari, come satelliti e aerei spia, il punto è raccogliere dati grezzi che possano essere trasformati in utili elementi d’intelligence. Oggi quest’attività è più prospera che mai: solo nel 2011, l’anno più recente per il quale esistano dati, i circa undicimila droni statunitensi hanno raccolto oltre 327mila ore (37 anni) di filmati.
La maggior parte di questi non è stata visionata. Fortunatamente la seconda principale applicazione dell’intelligenza artificiale nelle forze armate consisterà nel processare dati. Nel 2015, durante i test di laboratorio, le prestazioni degli algoritmi hanno superato quelle degli esseri umani nella classificazione delle immagini. Tra il 2015 e il 2018 inoltre sono stati quasi il doppio più efficaci in un compito più arduo, la segmentazione di oggetti, che consiste nell’individuare oggetti multipli a partire da una singola immagine, secondo l’indice annuale dei progressi dell’intelligenza artificiale compilato dall’università di Stanford. La vista dei computer è lungi dall’essere perfetta e può essere ingannata in modi che non passerebbero inosservati a un occhio umano. Nel corso di uno studio, l’alterazione dello 0,04 per cento dei pixel dell’immagine di un panda, impercettibile per gli esseri umani, ha spinto il sistema a vedere al suo punto un gibbone.
I governi occidentali sostengono che gli esseri umani continueranno a essere coinvolti come supervisori delle operazioni
Malgrado queste debolezze, nel febbraio 2017 lo stesso Pentagono ha concluso che gli algoritmi di apprendimento profondo “possono avere prestazioni di livello prossimo a quello degli esseri umani”. Per questo ha creato una squadra di “guerra algoritmica”, nota come progetto Maven, che usa l’apprendimento profondo e altre tecniche per identificare oggetti e azioni sospette, inizialmente a partire da filmati di guerra contro il gruppo Stato islamico (Is) e oggi in maniera più ampia. L’obiettivo è produrre elementi d’intelligence utili nella pratica: quelli che di solito portano le forze speciali a sganciare bombe e a sfondare le porte.
Una persona ben informata del funzionamento del progetto Marven sostiene che i benefici per gli analisti, come guadagno di tempo e nuove conoscenze, sono ancora marginali. Le telecamere grandangolari che possono osservare intere città, per esempio, producono un ampio numero di falsi positivi. “Ma la natura di questi sistemi è altamente ripetitiva”, dice. Il progresso è rapido e il progetto Maven è solo la punta dell’iceberg.
Earth-i, un’azienda britannica, può usare algoritmi d’apprendimento automatico provenienti da un’ampia gamma di satelliti per identificare diverse varianti di velivoli militari presenti in decine di basi, con una precisione superiore al 98 per cento, secondo Sean Corbett, un vicemaresciallo aeronautico della Royal air force (Raf) in pensione, che oggi lavora per l’azienda. “La parte interessante”, dice, “sta quindi nello sviluppare metodi per stabilire automaticamente quello che è normale e quello che non lo è”. Osservando le basi nel corso del tempo, il software può distinguere i movimenti di routine da quelli irregolari, avvertendo gli analisti in caso di novità significative.
Dal vecchio mondo al cloud
Gli algoritmi, naturalmente, sono onnivori e possono essere alimentati con ogni genere di dati, non solo le immagini. “Le masse di dati unite a moderne tecniche di analisi rendono trasparente il mondo di oggi”, sostiene Alex Younger, capo dell’Mi6, l’agenzia di spionaggio britannica. Nel 2012, una fuga di dati provenienti dall’Nsa, l’agenzia d’intelligence statunitense, ha fatto emergere l’esistenza di un programma (chiamato in maniera rassicurante Skynet) che applicava l’apprendimento automatico ai dati dei telefoni pachistani per individuare persone che forse agivano da corrieri per i gruppi terroristici, come per esempio quelle che avevano viaggiato da Lahore alla città frontaliera di Peshawar nell’ultimo mese e avevano spento o cambiato il proprio telefono. “Si sta passando dal vecchio mondo dell’intelligence, in cui i comandanti facevano una domanda e le agenzie usavano il patrimonio dati a loro disposizione per rispondere, a un mondo nel quale le domande si trovano… nel cloud, nella nuvola”, osserva Richard Barrons, un generale in pensione che ha diretto il Coordinamento delle forze britanniche fino al 2016.
Effettivamente i dati in questione non provengono necessariamente da un nemico. Il primo progetto del Jaic non è stato né un’arma né uno strumento di spionaggio, ma una collaborazione con le forze speciali volta a prevedere i problemi ingegneristici dei loro elicotteri Black hawk. La prima versione dell’algoritmo è stata consegnata ad aprile. I test delle forze aeree sugli autotreni e gli aerei del comando e controllo hanno mostrato che una simile manutenzione predittiva potrebbe ridurre di quasi un terzo le riparazioni non pianificate, il che potrebbe permettere grandi risparmi nei 78 miliardi di dollari che il Pentagono spende attualmente per la manutenzione.
Se gli algoritmi saranno privi della comprensione degli esseri umani, emergeranno problemi legali, etici e di fiducia
L’obiettivo del processare informazioni, naturalmente, è agire in funzione di esse. E la terza modalità con cui l’intelligenza artificiale cambierà la guerra è penetrando nel processo decisionale militare, dalle unità di livello più basso ai quartier generali nazionali. Northern Arrow (freccia del nord), uno strumento costruito da Uniqai, un’azienda israeliana, è uno dei tanti prodotti sul mercato che aiutano i comandanti militari a pianificare le loro missioni assemblando grandi quantità di dati relativi a variabili come le posizioni del nemico, il tipo di armi, il terreno e il meteo: un processo che normalmente, usando i vecchi metodi come mappe e diagrammi, richiederebbe ai soldati dalle 12 alle 24 ore di lavoro.
Northern Arrow è alimentato con dati presi da libri e manuali, per esempio sulla velocità dei carri armati a differenti alture, ma anche con interviste a comandanti esperti. L’algoritmo offre poi ai comandanti militari in difficoltà alcune alternative, oltre che una spiegazione del perché è stata scelta ciascuna di esse.
Queste piattaforme di tipo “sistema esperto”, come Northern Arrow e l’analogo software Cadet degli Stati Uniti, possono funzionare molto più velocemente del cervello umano – due minuti rispetto alle 16 ore-uomo in un test – ma continuano a usare tecniche predeterminate dal punto di vista algoritmico. Secondo gli standard storici si potrebbe parlare di intelligenza artificiale, ma poiché la maggior parte usa metodi deterministici, significa che gli stessi input determineranno sempre gli stessi risultati. Un meccanismo familiare ai soldati che si affidavano ai risultati di Eniac, il primo computer multiuso elettronico del mondo, che generava tabelle per il fuoco d’artiglieria nel 1945.
Nel mondo reale, la casualità spesso diminuisce la possibilità di fare previsioni corrette, e quindi molti sistemi moderni d’intelligenza artificiale aggiungono al rispetto delle regole una casualità ulteriore, facendone un punto di partenza per una pianificazione più complessa. Il software Real-time adversarial intelligence and decision-making (Raid) di Darpa ha lo scopo di prevedere gli obiettivi, i movimenti e perfino le possibili emozioni delle forze nemiche con un anticipo di cinque ore. Il sistema si basa su una variante della teoria dei giochi che riduce i problemi a giochi più piccoli, diminuendo la potenza computazionale necessaria a risolverli.
Nei primi test effettuati tra il 2004 e il 2008, Raid si è dimostrato più preciso e veloce dei pianificatori umani. Nella simulazione di una battaglia di due ore a Baghdad, alcune équipe umane sono state messe contro Raid o altri esseri umani: meno di metà delle volte si sono dimostrate in grado di distinguere le une dalle altre. I colonnelli in pensione arruolati per simulare i ribelli iracheni “hanno avuto così paura” del software, racconta Boris Stilman, uno dei suoi progettisti, che “hanno smesso di parlarsi e hanno cominciato a comunicare a gesti”. Raid è attualmente sviluppato per usi militari.
I problemi di una partita di go
L’ultimo dei sistemi di apprendimento profondo è forse il più enigmatico di tutti. Nel marzo 2016, AlphaGo, un algoritmo d’apprendimento profondo costruito da DeepMind, ha battuto uno dei migliori giocatori al mondo di go, un antico gioco di strategia cinese. Nel farlo è ricorso a varie mosse altamente creative che hanno confuso gli esperti. Il mese successivo, l’Accademia cinese di scienze militari ha organizzato un laboratorio dedicato alle implicazioni di questa partita. “Per gli strateghi militari cinesi, una delle lezioni tratte dalle vittorie di AlphaGo è stata che un’intelligenza artificiale potesse creare tattiche e stratagemmi superiori a quelli di un giocatore umano in un gioco paragonabile a un gioco di guerra”, ha scritto Elsa Kania, esperta d’innovazione militare cinese.
Nel dicembre 2018 un altro dei programmi di DeepMind, Alpha Star, ha nettamente battuto uno dei migliori giocatori al mondo di StarCraft II, un videogioco giocato in tempo reale e non a turni, con informazioni nascoste ai giocatori e con molti più gradi di libertà (mosse potenziali) rispetto a go. Molti funzionari sperano che un simile atteggiamento di gioco possa in seguito trasformarsi in una predisposizione all’inventiva e alle abili manovre celebrate dalla storia militare. Michael Brown, direttore dell’unità per l’innovazione nella difesa, un ente del Pentagono incaricato di sfruttare la tecnologia commerciale, sostiene che ottenere un “ragionamento strategico” alimentato dall’intelligenza artificiale sia una delle priorità della sua organizzazione.
Ma se gli algoritmi, oltre a superare la creatività umana, saranno privi della comprensione degli esseri umani, emergeranno problemi legali, etici e di fiducia. La legge militare impone una serie di giudizi su concetti come la proporzione (tra danno civile e vantaggio militare) e la necessità. Dei software che fossero incapaci di spiegare perché è stato scelto un determinato obiettivo probabilmente non sono in grado di rispettare tali leggi. E anche se fossero in grado di farlo, gli esseri umani potrebbero non fidarsi di un consulente decisionale che ha l’aspetto di una magic 8 ball, la pallina giocattolo per prevedere la fortuna.
Un intero campo di battaglia automatizzato
“Cosa facciamo quando l’intelligenza artificiale è applicata alla strategia militare e ha effettuato un calcolo probabilistico delle possibili interazioni ben oltre quelli che possiamo prendere in considerazione come esseri umani, e consiglia una linea d’azione che non capiamo?”, si chiede il tenente colonnello Keith Dear, un ufficiale d’intelligence della Raf. Porta come esempio, in questo senso, quello di un’intelligenza artificiale che consigli di finanziare un teatro dell’opera a Baku in risposta a un’incursione militare russa in Moldavia: una manovra surreale, in grado di confondere anche le proprie truppe, figuriamoci il nemico. Eppure questo potrebbe avvenire perché l’intelligenza artificiale è stata in grado di cogliere una catena d’eventi politici non immediatamente percepibile dai comandi militari.
Anche in questo caso, prevede che gli umani accetteranno il prezzo da pagare per passare dall’imperscrutabilità all’efficienza. “Anche con i limiti della tecnologia attuale, un’intelligenza artificiale potrebbe sostenere, se non addirittura farsi carico, dei processi decisionali di un combattimento militare nel mondo reale”, usando “un’imponente simulazione quasi in tempo reale”.
I governi occidentali sostengono che gli esseri umani continueranno a essere coinvolti, come supervisori delle operazioni. Ma anche molti dei suoi ufficiali non ne sono convinti. “Sembra probabile che gli umani saranno sempre più esclusi dal processo decisionale, sia tattico sia strategico”, dice il comandante Dear. La sensazione che i combattimenti accelereranno fino a “superare le capacità della cognizione umana” ritorna anche negli articoli cinesi, dice Kania. Il risultato non sarebbero solo armi automatiche, ma un intero campo di battaglia automatizzato. All’inizio di una guerra, sistemi d’intelligenza artificiale interconnessi sceglierebbero gli obiettivi, dai lanciamissili alle portaerei, e organizzerebbero rapidi e precisi attacchi per distruggerli nella maniera più efficiente.
Le conseguenze più ampie della cosa rimangono poco chiare. La prospettiva di attacchi rapidi e precisi “potrebbe erodere la stabilità, aumentando il rischio percepito di un attacco a sorpresa”, scrive Zachary Davis in un recente articolo per il Lawrence Livermore national laboratory. Ma l’intelligenza artificiale potrebbe anche permettere a chi si difende di rispondere a tali attacchi, identificando i segnali rivelatori di un attacco imminente. Oppure, come la febbre da diffusione di sensori nella giungla vietnamita degli Stati Uniti negli anni settanta, simili progetti potrebbero rivelarsi dei fallimenti costosi e mal concepiti. Eppure nessuna potenza vuole correre il rischio di rimanere indietro rispetto ai suoi rivali. Ed è in questo che la politica, e non solo la tecnologia, potrebbe avere un ruolo importante.
Le spese del Pentagono per l’intelligenza artificiale sono minime rispetto a quelle stanziate dalle grandi aziende tecnologiche nel 2016, tra i venti e i trenta miliardi di dollari. Nonostante molte aziende statunitensi siano felici di accettare il denaro dell’esercito – Amazon e Microsoft stanno perfezionando un contratto col Pentagono da dieci miliardi di dollari per servizi di clouding informatico – altre sono più caute. Nel giugno 2018 Google ha dichiarato che nel 2019 avrebbe sospeso il suo contratto di lavoro per il progetto Maven, di un valore di nove milioni di euro, dopo che quattromila sue dipendenti hanno protestato contro il coinvolgimento dell’azienda in attività di “tecnologia bellica”.
In Cina, d’altro canto, le aziende possono essere spinte più facilmente a lavorare per lo stato, e le leggi sulla privacy sono un ostacolo minimo. “Se i dati sono il carburante dell’intelligenza artificiale, allora la Cina potrebbe avere un vantaggio strutturale sul resto del mondo”, ha avvertito Robert Work, ex sottosegretario alla difesa degli Stati Uniti, a giugno. Non è chiaro se i dati civili possano o meno alimentare gli algoritmi militari, ma la questione è al centro delle preoccupazioni dei leader militari. Il direttore del Jaic, il generale Jack Shanahan, ha espresso le sue preoccupazioni il 30 agosto: “Non voglio assistere a un futuro in cui i nostri potenziali avversari siano dotati di forze totalmente equipaggiate d’intelligenza artificiale, e noi no”.
(Traduzione di Federico Ferrone)
Questo articolo è uscito sul settimanale britannico The Economist.