Lo ha detto chiaramente anche Vladimir Putin, il 4 settembre del 2017: “la nazione che sarà leader nel settore dell’Intelligenza Artificiale sarà la dominatrice del mondo”.

 Ogni trasformazione del paradigma scientifico, secondo il vecchio ma ancor utile modello epistemologico di Thomas Kuhn, più che l’arrivo di nuove scoperte materiali, trasforma radicalmente anche le visioni del mondo e quindi gli equilibri strategici.

 Che cos’è allora l’Intelligenza Artificiale, prima di tutto?   Essa consiste di una serie di strumenti matematici, ma anche di psicologia, tecnologia elettronica e di informatica, tramite la quale si insegna ad una macchina a pensare come se fosse un essere umano, ma con la rapidità e la sicurezza del computer.

 La macchina automatica deve rappresentare la conoscenza dell’uomo, ovvero manifestarla, permettendo ad un operatore esterno di modificare il processo e di comprenderne, all’interno del linguaggio naturale, i risultati.

 In pratica, le macchine AI imitano creativamente (ovvero, si autocorreggono in modo non ripetitivo) la visione percettiva, il riconoscimento e la rielaborazione del linguaggio, perfino il decision-making, ma solo quando sono sul tavolo tutti i dati necessari per compierlo.

 Cosa che accade di rado, come è facile immaginare, in un sistema complesso e ad alto tasso di variazione nel tempo e nello spazio, come è appunto lo scontro bellico.

 Pensiamo qui, per esempio, alle sole informazioni di intelligence riservate agli Stati Maggiori, che naturalmente nessuno fa mai “girare” in una qualsiasi macchina.

 In primo luogo, quindi, in AI si tratta di far imitare alla macchina il processo del ragionamento umano, cosa che si ottiene applicando il Test di Alan Turing.

  Turing era, come ricorderete, il matematico che inventò per l’intelligence britannica, quel sistema formale che decrittava i messaggi, difficilissimi da comprendere, del sistema Enigma in uso ai Servizi della Germania nazista.

 Una matematica che presupponeva, per la grande quantità di dati da verificare e tradurre, un computer, che infatti venne creato a Bletchley Park, la sede dei Servizio cifra britannico di allora, con le tecnologie dell’epoca: valvole termoioniche, fili in rame, motori elettrici.

 Per l’esattezza, i nazisti avevano sviluppato un computer primitivo, lo Z1, ma era solo difficilmente programmabile, mentre il Colossus inglese permetteva l’introduzione di schede e nastri che permettevano il suo adattamento alle varie necessità dell’intelligence da segnali, del SIGINT britannico dell’epoca.

  Per Turing, poi; e qui siamo alla teoria matematica che permette l’AI, il gioco degli inganni tra tre persone può essere sostituito da una macchina.

 L’automa si mette al posto di uno dei due esseri umani che tentano di impedire l’identificazione corretta del terzo uomo C, una identificazione che rimane nascosta a A e B.

 Alan Turing sostiene quindi che l’uomo A può essere sostituito da una macchina e che questa può essere correttamente definita come “pensante”.

 Ovvero, per Alan Turing il pensiero umano può essere creativamente imitato e ricreato attraverso una macchina a stati finiti in grado di simulare altre macchine a stati discreti.

 Una macchina a stati finiti è, in linea di principio, un automa che permette di descrivere integralmente, e in termini matematici, il comportamento, simultaneo o meno, di molti sistemi.

 Possiamo pensare ad una immagine, per capire meglio: l’ordito di un tessuto rispetto alla sua trama, che può essere di vari colori o disegni.

 Una macchina a stati discreti è invece un calcolatore. Ovvero una macchina che si evolve a salti o scatti improvvisi da uno stato ad un altro.

 Gli stessi scatti evolutivi che Kuhn, l’epistemologo che abbiamo vitato all’inizio, pensava come passaggi di paradigma scientifico.

 Per Turing, infine, la macchina a stati discreti era la più adatta a simulare il comportamento-pensiero umano.

  Attualmente, in AI, si utilizzano quasi unicamente “macchie ibride”, ovvero sistemi che unificano vari tipi di macchine a stati finiti o discreti e che, soprattutto, elaborano anche scenari probabilistici.

 Non ci addentreremo più a lungo in questa rete di ragionamenti tecnici, che riguardano solo in parte l’oggetto di questo nostro testo.

 E dobbiamo qui ricordarci che tutta la nostra questione ha il suo vero inizio concettuale e strategico quando, nel Marzo 2017, un algoritmo elaborato da Google, l’AlphaGo, batte, ma di poco, il campione mondiale all’antico gioco cinese del Go, peraltro uno straordinario gioco di strategia.

 Era il gioco al quale, dicono alcuni analisti Usa, si era ispirato Vo Nguyen Giap nel suo confronto, da capo delle Forze Armate del Nord Vietnam e dei partigiani comunisti Vietminh, con gli Usa e i loro alleati.

 Un gioco in cui non c’è, come invece accade negli scacchi, una evidenza immediata della vittoria di uno o l’atro dei contendenti.

 Anni prima, nel 1997, un algoritmo ben meno evoluto di AlphaGo aveva battuto a scacchi il campione Gary Kasparov.

 AlphaGo è costituito, e questo serve per capire meglio cosa è un sistema AI, di due “reti neurali” profonde che possiedono milioni di connessioni neurali molto simili a quelle del cervello umano.

 Una rete neurale è un modello matematico che riprende la struttura delle reti neurali del cervello umano.

 Si tratta di interconnessioni di informazioni, è un sistema matematico-informatico costituito da neuroni artificiali e da processi che utilizzano connessioni di calcolo comuni a tutti i “neuroni”.

 Il sistema AlphaGo, peraltro, autocorregge e impara da solo, perché memorizza e rielabora velocemente le numerosissime partite a cui ha partecipato.

 E questo, come è facile immaginare, lo rende anche largamente imprevedibile.

  In ogni caso, i prossimi robot militari ad alta autonomia di movimento e di selezione degli obiettivi e, talvolta, perfino del procedimento AI da utilizzare, incorporeranno in futuro una grande quantità di Intelligenza Artificiale.

 Che farà la differenza tra un robot che perde e uno che vince sul campo.

 Non è quindi impossibile che essi possano, ad un certo punto dell’evoluzione tecnologica, intraprendere azioni autonome.

 Si pone quindi il problema di quanta autonomia strategica possa essere data agli automi, siano essi mobili sul terreno o centralizzati in una brigata di comando.

 Autonomia tattica, mentre le connessioni neurali tra i vari robot militari sono gestite simultaneamente da un sistema umano “classico” e da un meccanismo AI 2.0?

 Probabile.

 Ma qui subentra la dottrina di ogni Paese e la valutazione della probabilità di uno scontro bellico, e con chi.

 Quindi, si potranno salvare molte vite umane anche in un conflitto e sul teatro di guerra, salvo che in una azione di robot di tipo controrisorse, che colpisce la popolazione civile.

  Vi sarà anche una facilità maggiore del ricorso ad uno scontro armato, ma sarà prevedibile un maggiore costo delle operazioni di difesa o attacco automatizzate.

 Naturalmente, dato che i sistemi AI, Artificial Intelligence, sono derivati dal “pensiero naturale”, qualora nelle attività ci siano da implementare pochissime modificazioni ad un programma già definito, le macchine funzionano sempre meglio degli esseri umani.

 Più veloci, molto più esatte, non si riposano mai, non possiedono inoltre schemi di ragionamento paralleli derivanti da gusti personali, ideologie, sentimenti, sensazioni, affetti.

 Non sono distratte da temi valoriali, culturali, simbolici, etici, politici.

Forse nemmeno da tematiche tipiche, da sempre, della Grand Strategy.

 Ma, in linea di massima, qualora siano in ballo scelte tecniche sostanzialmente equipollenti o valutazioni simili degli scenari futuri finali, sui quali la macchina non ha programmazioni prefissate, allora, nella gara tra uomo e automa, vince sempre l’uomo.

 La “scienza dei fini”, che sarebbe poi la Metafisica, per dirla con Aristotele, è quindi attributo unico della nostra specie.

 Ma il processo per arrivare agli obiettivi extra-tecnici può essere sempre formalizzato e, quindi, c’è sempre, nel mondo, almeno una macchina a stati finiti che lo può imitare.

 Da sola, peraltro, senza ulteriore sostegno dell’homo sapiens sapiens.

 Poi, occorre considerare che le tecniche per le “armi autonome” AI non possono essere del tutto segretate, dato che il settore commerciale, in queste tecnologie, può spesso superare il livello di efficacia delle armi a tecnologia “coperta”.

 Se ci si apre alle tecnologie commerciali, allora addio segretezza.

 Tutta la AI, infatti, dalla finanza alle macchine utensili fino alla programmazione biologica e ambientale, è una tecnologia market-driven, comandata dai mercati aperti.

 O, meglio ancora, oligopolistici.

 Ma quali sono i limiti e i pregi di una tecnologia di guerra o di strategia globale tutta ricostruita secondo canoni AI?

 Semplice: in primo luogo, nessuna macchina a stati finiti o ibrida può valutare l’affidabilità dei dati e dei sistemi che essa riceve.

 E possiamo allora immaginare un nuovo tipo di azione per l’intelligence, ovvero la possibilità di “avvelenare” i sistemi di comando delle macchine AI del nemico.

 Il deep internet, l’area dei siti, spesso di rilievo criminale, che non risultano nei motori di ricerca ufficiali, potrebbe anche ospitare virus o addirittura interi sistemi avversari, che arrivano direttamente sulle nostre macchine AI, facendogli eseguire la volontà del nemico e non quella nostra.

 Era Von Clausewitz, lo ricordiamo, che definiva la vittoria come “la prevalenza della volontà dell’avversario o della nostra parte”.

 Ma i sistemi di Intelligenza Artificiale possono essere estremamente utili, nel settore militare e di intelligence, quando si tratta di utilizzarli nella “computer vision”, dove occorre analizzare creativamente milioni di dati nel più breve tempo possibile.

 La macchina di Turing e le derivate macchine AI possono infatti mimare l’abduzione, un processo logico che è ben diverso da quello della deduzione e della induzione.

 La deduzione, cosa da macchine tradizionali, come quella calcolatrice, è quel processo logico che, a partire da premesse non analizzate, fa derivare razionalmente proposizioni di ambito particolare che sono descrittive della realtà sensibile.

 L’induzione è invece un procedimento logico che, con un numero di passaggi finiti e del tutto aderenti alla logica naturale, permette di passare dai dati empirici alla regola generale, quando c’è.

 L’abduzione è allora un sillogismo di tipo aristotelico in cui la premessa maggiore è certa mentre la minore è solo probabile.

 I sillogismi aristotelici sono formati da una premessa maggiore, una minore e una conclusione.

 Sono adattabili sia alla induzione che alla deduzione.

 La premessa maggiore poi, nelle varie tipologie di sillogismo elaborate dallo Stagirita, è la definizione generale dell’appartenenza o meno di un elemento ad un insieme.

 “Tutti gli uomini sono bipedi”, per esempio.

 La minore è che “Giorgio è un uomo (o è un bipede)” e la conclusione è quindi che “Giorgio è un bipede (o un uomo)”.

 Nell’abduzione vi è infine un ragionamento di tipo inverso rispetto agli altri due: la si usa quando si conoscono le regole e la conclusione e si vogliono ricostruire le premesse.

 La definizione di abduzione da parte di Charles S. Peirce, che l’ha lungamente valutata nella sua filosofia pragmatista, è che, quando si osserva un fatto nuovo C, ed abbiamo anche A; ma se A fosse vero, allora C sarebbe meglio spiegato come fatto naturale.

 Allora è molto probabile che A sia vero.

 Se ho dei fagioli bianchi in mano e davanti a me c’è un sacco di fagioli bianchi, allora è molto probabile che i fagioli nella mia mano provengano dal sacco.

 E’ infatti proprio questo il modo con cui una macchina AI corregge o aumenta il proprio sapere a partire dal programma che gli abbiamo messo dentro.

Altro uso militare di AI è il riconoscimento facciale “profondo”, ben più analitico e rapido di quanto non si possa fare oggi.

 Poi, ancora, il riconoscimento vocale, la indicazione immediata delle fonti di una comunicazione nemica, il suo confronto quasi simultaneo con le innumerevoli comunicazioni similari o comunque avversarie.

 Si può poi utilizzare l’Intelligenza Artificiale anche per le questioni di Logistica militare, o per la risoluzione a più variabili dei war games, perfino per l’automazione del combattimento in ambienti misti con uomini e macchine in azione.

 Quindi, sarà sempre più probabile il ricorso ad una guerra limitata, se non ci sono vittime umane e se lo scontro è diretto da sistemi automatici evoluti.

 Ci sarà anche un effetto sulla responsabilità politica, che potrebbe essere scaricata sui sistemi AI e non sui comandanti o sui decisori politici in carne ed ossa.

 Uno scontro automatico quali effetti politici e strategici avrebbe, quali meccanismi psicologici immediati farebbe scattare nella popolazione?

 Ma allora chi vince nella guerra, da poco iniziata, per la dominance nelle tecnologie militari e di intelligence di tipo AI?

 Per ora, certamente la Cina.

Il concorso per il migliore sistema di riconoscimento facciale è stato infatti vinto, negli Usa e nel novembre 2017, dalla Yitu Tech cinese.

 La sfida era quella di riconoscere il maggior numero di passeggeri casualmente incontrati tra le rampe e le sale di un aeroporto civile.

 Il governo cinese ha poi già approvato un progetto denominato “Artificial Intelligence 2.0”, che ha specifiche applicazioni sia nell’economia che nelle strutture militari e di intelligence.

 Le Forze Armate di Pechino stanno oggi elaborando un progetto unificato in AI 2.0, una iniziativa che riguarda proprio il rapporto tra applicazioni civili e militari della AI.

 E’ questo, lo abbiamo già notato, il punto strategico debole della programmazione militare dell’Intelligenza Artificiale, perché verifica una forte concorrenza tra mercato e organizzazioni statuali, almeno nel mondo occidentale.

 Per i Servizi Usa, infatti, oggi la linea da seguire nell’ambito dell’automazione intelligente della guerra è quella di applicare le nuove tecnologie per arricchire le informazioni già presenti sul tavolo del Presidente.

 La “fusione” tra mercato e Stato nel settore dell’AI, in Cina, è direttamente regolata dalla Commissione per lo Sviluppo dell’Integrazione Militare e Civile, presieduta personalmente, ed è tutto dire, da Xi Jinping.

 Le Forze Armate cinesi si regolano, nell’ambito della nuova evoluzione strategica della AI, con il criterio della “costruzione condivisa, applicazione condivisa, uso condiviso” con i privati; almeno per tutte le innovazioni nella programmazione e gestione automatica delle informazioni (e delle azioni) sul campo di battaglia e nell’area intelligence.

 L’AI cinese 2.0 mette allora insieme la ricerca robotica, i sistemi militari senza pilota o privi di altro personale, la nuova scienza del military brain.

 Una nuova branca teorico-pratica che riguarda perfino, detto per inciso, il controllo mentale e remoto, tramite applicazioni sull’uomo, delle macchine.

 E’ un fenomeno già accaduto all’accademia militare di Zhengzhou nell’agosto 2015, con degli studenti che indirizzavano i robot tramite sensori posti sulla loro calotta cranica.

 E’ facile allora immaginare le nuove attività AI nel mondo dei Servizi: raccolta dati infinitamente più ampia e rapida, e inoltre strutturata e semielaborata, predisposizione di sistemi di contrasto informativo automatici, immissione nei sistemi mediatici elettronici e delle reti a disposizione dei Decisori di dati “anonimi” che modificano la percezione del campo di battaglia e dell’intera società del nemico.

 Infine, la copertura sinergica dei dati civili e militari del Paese che abbia raggiunto la dominance nelle tecnologie AI.

 Ogni tecnologia nuova, in ambito AI di tipo militare, viene allora protetta e, quindi, presuppone un campo di battaglia, civile, militare o ibrido, in cui tutte le operazioni di chi possiede lo strumento evoluto vanno, sempre, a segno, con il minimo utilizzo di uomini e con la massima segretezza.

 Sarebbe bene che l’UE pensasse a questi nuovi scenari ma, oggi, immaginare che l’Unione Europea pensi è già una ipotesi di scuola.

 Pechino, inoltre, ha creato un nuovo Istituto di Ricerca sull’argomento AI e sulle tecnologie ad essa riferite, collegato alla Commissione Militare Centrale e alle Forze Armate.

 Liu Ghuozhi, il direttore di tale struttura, ama ripetere che “chi non disgrega l’avversario sarà disgregato”.

 La filosofia, oggi, dell’Armata di Liberazione del Popolo è che la nuova ambientazione AI più evoluta, quella 2.0, della guerra, dello scontro strategico, di quello politico apparentemente pacifico è già tutto un nuovo stadio del pensiero militare.

 E’ questo un livello qualitativamente diverso, ben oltre la vecchia informatizzazione del conflitto, uno stadio che richiede un “nuovo pensiero” e un approccio del tutto diverso allo scontro militare, che diviene immediatamente, in sé, sociale, economico, tecnologico e culturale.

 Una via cinese, quindi, attraverso la tecnologia, alla “guerra ibrida” dei russi, ma un pensiero strategico che rimane sulla linea della Unrestricted Warfare teorizzata da Qiao Liang e Wang Xiangsui nell’ormai lontano 1999, all’alba della globalizzazione.

 La mondializzazione, infatti, il cui inizio si dovrebbe datare non dalla caduta del Muro di Berlino, ma dall’inizio delle Quattro Modernizzazioni di Deng Xiaoping, nel 1978.

 Si noti poi che la pianificazione implicita nella “Guerra senza Restrizioni” teorizzata dai due colonnelli cinesi era programmata, fin dall’inizio, contro “un avversario più potente di noi”, ovvero gli Usa.

Quindi fusione dei Servizitecnici e di intelligence in area di operazioni, unione di intelligence e reti AI, integrazione delle funzioni di comando con le altre attività sul terreno, ovviamente anche con l’intelligence, utilizzazione infine delle vaste masse di informazioni in tempo reale.

 Ciò viene permesso dall’adattamento dei Servizi Segreti cinesi alla velocità e alla vastità dei dati forniti da tutte le piattaforme tecnologiche e da ogni fonte “umana”.

 Il tutto finalizzato alla guerra senza restrizioni, in cui non si domina la “volontà del nemico”, ma tutte le sue risorse.

 Quindi per i cinesi, oggi, “la tecnologia determina la tattica” e la PLA, l’Armata di Liberazione del Popolo, intende sviluppare anche sistemi di appoggio che utilizzino l’Intelligenza Artificiale per il supporto al decision making strategico.

   Ciò dovrebbe funzionare, ancor oggi, sulla base anche del vecchio programma Usa (lo aveva costruito il DARPA, Defense Advanced Research Program Agency) denominato Deep Green, nato nel 2005.

 E’ un sistema AI che intendeva aiutare i capi militari nella valutazione strategica degli scenari, delle possibili opzioni proprie e del nemico e delle proprie potenzialità.

Il tutto a velocità tali da poter contrastare qualsiasi mossa nemica prima che si dispiegasse completamente.

 E la Federazione Russa, infine, cosa sta facendo nel campo della modernizzazione delle sue FF.AA. con il mezzo della Intelligenza Artificiale?

 Molte cose.

  Mosca sta studiando con attenzione, in primo luogo, i veicoli terrestri senza equipaggio, come l’Uran-9, il Nerekhta, il Vir.

 Sono tutti carri corazzati che possono ospitare missili anticarro e cannoni di medio calibro.

 Sin dal 2010, la Russia ha poi privilegiato lo sviluppo delle sue FF. AA. In relazione a quello che la dottrina militare di Mosca definisce come “confronto informativo”.

 Ovvero, si teorizza, nel mondo militare russo, l’idea che sia centrale una superiorità informativa sia in pace che in guerra.

 Superiorità nei confronti della propria popolazione, da proteggere dalla dezinformatsjia altrui; e superiorità rispetto alla propaganda del nemico nei propri Paesi, azione informativa che va dominata, per far sì che la pubblica opinione nemica un universo ideologico favorevole agli interessi russi.

 Tale “confronto” psico-informativo, che ha sempre supporti AI, presuppone strumenti diplomatici, economici, ovviamente militari, politici, culturali, religiosi.

   E si dispiega soprattutto tramite due aree di intervento: quella tecnica- informativa, mediatica e l’altra, più tradizionalmente connessa alla guerra psicologica.

 Peraltro, la Russia sta sviluppando anche un programma per adattare i suoi supercomputer al deep learning, con un sistema AI chiamato, significativamente, iPavlov.

 Il deep learning dei computer da centinaia di petaflop (un petaflop equivale a 1.000.000.000.000.000 operazioni in virgola mobile al secondo) è un sistema AI che permette l’imitazione completa non solo del pensiero “normale” umano, quello che si definisce come “logico”, ma anche delle possibili variazioni statistiche, quelle che sono infatti implicate nella abduzione, di cui abbiamo già parlato.

 L’UE, lo ripetiamo, segue a ruota l’America per quanto riguarda i droni e la loro informatica e sta poi iniziando a finanziare alcuni progetti, anche di rilievo militare, in ambito AI 2.0.

 Ma si tratta comunque di obiettivi tecnologici lontani nel tempo e, in ogni caso, malgrado il sogno, o il mito, di una FF.AA. europea, l’intelligence, le dottrine evolute sul campo di battaglia e le reti neurali informative sono, quando ci sono, strettamente limitate al livello nazionale.

 Con i risultati che si possono facilmente immaginare, soprattutto in carenza, intellettuale e tecnologica, di una dottrina EU sulle “guerre future”.

GIANCARLO ELIA VALORI
Honorable de l’Académie des Sciences de l’Institut de France