Alcuni dati sui big Data.

 Si tratta, come è ormai ben noto, di una tecnologia che si occupa soprattutto di raccogliere, elaborare, selezionare una grandissima massa di dati, diversi tra di loro.

 Qui la quantità diviene, come in certi testi di Hegel, immediatamente Qualità. Cambia la massa dei dati, cambia il nesso tra di loro e, quindi, il loro significato e anche il loro uso.

 Una tecnologia o, meglio, una serie di tecnologie unite insieme, che elaborano molti terabyte (2 alla 40° byte, ovvero 1.048.576 megabyte) contemporaneamente. Una massa immane e, soprattutto, in simultaneità. Altra tipologia di quantità che si trasforma subito in qualità.

 Dopo la creazione della International Telecommunication Union a Ginevra nel 2017, ancor oggi diretta dal cinese Houlin Zhao, abbiamo alcuni elementi in più per valutare la rilevanza straordinaria della Big Data Science.

 Intanto, proprio la elaborazione-raccolta di immani quantità di notizie, tutti i giorni, permette, anche solo per confronto, la scoperta di moltissimi nuovi dati e, spesso, addirittura di segreti industriali o statuali.

 Se, poi, si possono trattare i dati con diverse catene di significato in contemporanea, allora essi si rivelano in tutta la loro importanza e, spesso, in ruoli diversi da quelli in cui siamo soliti interpretarli.

 E ciò è, ovviamente, essenziale per rendere precise e efficaci le analisi e le decisioni dei leader economici, finanziari e politici e militari o di intelligence.

 Circa il 90% dei dati presenti oggi nel mondo è stato generato negli ultimi due anni. Sembra impossibile, ma è così.

 Ogni giorno, poi, si aggiungono alle sole reti di big data 2,5 quintilioni (ogni quintilione è 10 alla tredicesima) di nuove notizie, ma l’80% di questa massa è non-analizzata e, è bene notarlo, non può essere studiata con le consuete tecnologie comparative, qualunque sia la velocità con la quale le applichiamo.

 Secondo altri modelli di analisi dei flussi globali di notizie, nel 2010 erano poi stati prodotti, in un anno, oltre 1,2 zettabytes, 10 alla 21° bytes, ovvero un sestillione di bytes, mentre, nel 2020, arriveremo alla produzione annuale di 35 zettabytes.

 Tanto maggiore è, quindi, la quantità e la forma dei grandi dati, tanto minore la nostra capacità di usarli, se non con tecnologie molto evolute ma, ancora, tanto maggiore è la quantità di big data, tanto maggiore è la necessità di scegliere le politiche da adottare proprio sulla base di tali quantità.

 Se il mondo produce tutti questi dati, allora è inevitabile prendere in considerazione almeno la ragione della dimensione colossale degli stessi. E, quindi, anche i problemi sono grandi quanto i Big Data.

 Si pensi solo alle questioni ecologiche, o alle reti energetiche e a quelle di Internet.

 Sembra quasi un paradosso, ma è inevitabile che, oggi, la decisione politica, militare e strategica sia fondata su una quantità di notizie che supera di gran lunga quanto, nei casi migliori, accadeva anche solo nel XX secolo.

  Per i governi, comunque, serve soprattutto la intrinseca capacità predittiva che hanno queste nuove tecnologie.

 Certo, la big data serve oggi, come esempio, per la predizione-gestione del traffico veicolare nelle grandi aree, per l’organizzazione della salute, per la protezione da atti terroristici, o anche per la tutela ambientale e la protezione dai disastri ecologici.

 Ma è soprattutto utile, la tecnologia Big Data, per la valutazione delle linee di sviluppo di fenomeni di grande complessità, linee che divengono visibili e statisticamente rilevanti e che si generano, comunque, solo sulla base di immani quantità di dati.

 Stiamo andando, comunque, verso la quantificazione del decision making che è possibile, su un piano sia tecnologico che etico, dal fatto che l’immane massa dei dati raccolti è anonima, già strutturata e, soprattutto, viene elaborata a fini strettamente statistici.

 Sul piano della difesa militare e strategica e, soprattutto, dell’intelligence, che sono già da oggi i punti di forza delle tecnologie big data, il progresso della raccolta delle notizie nasce, almeno per quanto riguarda il principale Servizio Usa, la CIA, dalla creazione dell’”incubatore” di nuove imprese In-Q-Tel.

 Che è, lo ricordiamo, la società non-profit che analizza, per poi investire, nei progetti più tecnologicamente avanzati, o almeno in quelli dove vi è un qualche rilievo per l’intelligence.

 L’idea iniziale, almeno per gli Usa e le sue Agenzie, era quella, nell’investire sui Big Data, di evitare gli errori più gravi della Humint, la Human Intelligence.

 Come era già accaduto in Iraq o come, precedentemente, in Libano. Ma i dati vengono catalogati secondo la vecchia tipologia, ancor oggi, che li divide in strutturati, semistrutturati e non-strutturati.

 La prima classe è quella in cui ogni elemento dello storage ha almeno quattro caratteristiche singolari che lo identificano. Il secondo, ha solo alcune caratteristiche di designazione, che non sono mai utilizzate completamente.

 La categoria di notizie che si espande di più oggi è, naturalmente, quella dei dati non-strutturati.

 Ma la sequenza delle notizie da raccogliere è comunque più complessa: oltre alla raccolta, tipica intelligence collection, vi è l’operazione di pulizia, annotazione e rappresentazione dei dati in modo che siano facilmente disponibili per l’analisi. Poi occorre processare i dati, creare gli algoritmi specifici, elaborare meccanismi di similitudine delle notizie in modo da estrarre quelle che servono e che, magari, non sono note all’utente umano.

 Una tecnologia nota come data mining.

 Gli algoritmi operano anche in modo da creare modelli di raccolta dati per i computer, modelli tali da insegnare continuamente ai computer a perfezionare la loro ricerca.

 E’, questo, ciò che si chiama machine learning.

 I computer, qui, imparano da un set di dati, definiti come “esempi”, in un processo automatico chiamato apprendimento; e quindi aggiustano automaticamente i loro algoritmi in modo da assegnare valori e categorie già note a esempi non ancora classificati. Senza cancellare o modificare i dati in entrata.

 In termini più pratici, le raccolte di big data tematici e la creazione di esempi possono rendere possibile l’utilizzazione ad amplissimo spettro della trascrizione automatica delle conversazioni audio, per renderle utilizzabili tramite key words. Si può poi fare una sentiment analysis tramite le reazioni sui social media. Mappare, quindi, la reazione della popolazione ad un evento, ad una posizione, ad una futura legge o a una futura guerra commerciale.

 Vi è poi, tra gli altri, il software Geofeedia, un altro esempio di utilizzazione settoriale e di machine learning nel settore Big Data, che è una piattaforma che abilita gli analisti a verificare i social media in aree geolocalizzate.

 Nel caso del processo analitico, le grandi pesche a strascico dei Big Data servono soprattutto a definire gli scenari strategici più probabili nel futuro, o a creare ipotesi di lavoro più specifico e operativo nell’intelligence, oppure ad analizzare i trend della pubblica opinione e la direzione del dibattito nelle classi dirigenti partitiche e parlamentari.

  Tutto ciò non basta, certamente, perché il dato di intelligence che conta è come la perla nera o il cigno ugualmente nero o, ancora, quella particolare correlazione che, se sperimentata in uno spazio di possibilità, crea la scelta più razionale o, magari, quella perfino più ovvia, per la dirigenza di un Paese avversario.

 Qui non si tratta di collezionare tutti i francobolli della Nuova Guinea, ma di trovare il penny black che nessuno aveva visto finora.

 Ma, certamente, l’analisi del sentiment popolare, o delle linee più ovvie di sviluppo di un fenomeno, sociale, finanziario o naturale, ci garantisce che tali opzioni saranno molto probabili e che, soprattutto, saranno quelle meno inquinate da operazioni avverse.

 O no? In effetti le azioni dei troll sono relative soprattutto alla guerra ibrida e alle grandi operazioni di quella che, ai tempi della guerra fredda, si chiamava dezinformatsjia, letteralmente, in russo, “disinformazione”.

 Ma se, in una fase pre-informatica e precedente alla dimensione mondiale del World Wide Web, fare disinformazione significava mirare un determinato settore dell’avversario per riempirlo-saturarlo di false notizie, che avrebbero portato naturalmente ad una decisione sbagliata (da manipolare come errore, incapacità, del nemico) o a un blocco decisionale, oppure alla decisione che proprio il Nemico vuole che tu compia ma, con i troll, che sono un frutto dei Big Data, tutto cambia.

 Il troll è, comunque, un soggetto che, in Rete, interagisce con gli altri partecipanti senza rivelare la sua identità.

 Opera sempre, quindi con grandi masse di dati, che lo coprono alla vista altrui, si inserisce nei social media di vaste comunità di utenti, reagisce infine in modo da non rivelare mai la sua vera natura e, spesso, si scinde e crea altri troll.

 Quindi, oggi, la dezinformatsjia on line opera con grandi numeri, come i Big Data, e colpisce le grandi masse degli utenti della Rete, per modificare le loro percezioni, la loro azione politica, anche quella nel Web, bloccare ogni reazione nelle masse penetrate da un Nemico e, anzi, creare per loro una nuova immagine di sé.

 Tanti dati, tante caratteristiche con cui ricoprire l’identità nuova degli Utenti-avversari; e tanto più sono sommersi di dati, tanto più dimenticheranno la loro vecchia identità.

 Ed è questa l’azione di un troll nella “guerra ibrida” e, quindi, in quella che potremmo definire oggi una “guerra psicologica di massa” automatizzata.

 Oggi, tra i Big Data di due Paesi avversari, vi è un rapporto speculare e opposto insieme, un po’ come accade con gli affreschi del Buono e del Cattivo Governo di Ambrogio Lorenzetti a Siena, nel Palazzo Pubblico.

 Da un lato gli Angeli che operano la giustizia, tipicamente aristotelica, “commutativa” o “distributiva”, dall’altro il Cattivo Governo, il tiranno demoniaco che, con i simboli rovesciati del Buon Governo, amministra la crudeltà, il tradimento e la frode, opposti delle tre virtù teologali-politiche del governo “bianco”.

 I Big Data, detto in termini più attuali, sono quindi uno straordinario eguagliatore di potenza strategica, non c’è più piccolo o grande Paese, non ci sono più nemmeno comunità non-statuali, rispetto agli Stati tradizionali, che non possano ingaggiare uno scontro, anche invisibile ai più, con le potenze maggiori.

 Ma, tornando alla situazione strategica e tecnologica attuale, i Big Data avranno, sul piano militare e geopolitico, molti effetti imprevisti, che qui riassumiamo e indichiamo: a) tutta la comunicazione, “alta” e “bassa”, diventerà social media, mobile e geolocalizzato.

 Quindi, l’intelligence si occuperà sempre di più, in futuro, della disseminazione selezionata dei propri dati, della loro attenta determinazione spaziale-personale, della loro specificazione secondo aree e recettori.

 Avremo una intelligence sempre più sartoriale. Inoltre, b) la sfida dei Big Data è, per certi versi, rovesciata rispetto alla vecchia tecnologia da guerra fredda.

 Se, prima, le raccolte di dati andavano dal Molto al Poco, cercando l’informazione riservata o segreta che cambiava tutta la prospettiva geopolitica; oggi si va dal Molto al Molto, perché la raccolta di dati non-segretati, se elaborata bene, genera notizie riservate che sono ignote, spesso, anche a chi le ha generate.

 Il segreto è oggi una intera tecnologia, non un semplice dato.

 E una tecnologia che cambia a seconda dei dati che elabora, nel momento stesso in cui li elabora.

 Poi ancora, c), le soluzioni “Big Data” del futuro saranno modellizzate e sempre più user friendly.

  Ovvero, saranno spesso intuitive e, quindi, a disposizione anche di operatori di medio-basso livello che operano sul campo.

 Andrà a cessare la vecchia divisione tra “analisi” o “operazioni”; le notizie, vere o false che saranno, saranno tante e tali da diventare, come tali, azioni di guerra.

 Non più messaggi alle classi dirigenti, ma segnali di massa alle masse, o operazioni selettive per singoli gruppi.

 Poi, d) la onnipervasività della Rete sarà tale da creare sia nuove opportunità informative che inevitabili “buchi”, che il Nemico avrà gioco facile a sfruttare.

 Da non dimenticare nemmeno l’uso di altre nuove tecnologie, come le comunicazioni ottiche spaziali via laser, che renderanno più sicure le comunicazioni militari e di “servizio”; anche se sfide ulteriori, come per esempio la nuova “internet delle cose” cifrata e adattabile saranno già all’orizzonte.

 In sostanza, i Big Data, nell’ambito dell’intelligence, equalizzeranno il potenziale umano analitico degli operatori, rendendoli spesso capaci di operare su aree ristrette e selezionate con rapidità pari a quella della minaccia percepita.

 Una sorta di “artigianalizzazione” dell’analisi dei Servizi, che ingloberà più dati dal terreno d’azione e sarà sempre meno controllabile ex-ante da una qualche autorità politica centrale.

 Vi sarà una integrazione verticale, sempre grazie alle masse di dati in entrata (o diretti verso il Nemico) tra l’analisi strategica e il decision making politico di vertice, mentre le scelte operative, sia analitiche che per le operazioni, saranno demandate alle unità locali, che vedranno una integrazione sempre più spinta tra operatori e analisti.

 Ma non bisogna dimenticare nemmeno le tecnologie militari vere e proprie: l’analisi dei social networks, che può essere automatizzata, almeno all’inizio; e manipolare sia il sentiment popolare che le tecnologie avversarie.

 Poi l’aggiornamento automatico delle reti di sistemi d’arma, sempre più integrate, via “internet delle cose”, all’intelligence, inoltre l’analisi dei trends per le operazioni tattiche, infine  l’activity based intelligence, ovvero una metodologia, sempre supportata da reti IT, che permette l’analisi di comportamenti anche microscopicamente anomali, dei piccoli  patterns of life, del nemico.

 Ci saranno nuove tipologie di analisi; e quindi nuove raccolte per grandi (e nuovi) dati.

 Non solo vecchi Big Data, quindi, ma nuovi storage per nuove categorie di dati.

 E, poi, non bisogna dimenticare una vera e propria rivoluzione culturale che tutto ciò, che è tecnologia comunque molto evoluta, renderà assolutamente necessaria.

 Se, prima, l’area dell’intelligence era ben delimitata, e riguardava una corretta percezione (non sempre facile) dell’interesse nazionale o della posizione delle proprie stabili alleanze internazionali, oggi tutto questo, proprio grazie ai Big Data, diviene non obsoleto, ma comunque ben differente dalla logica degli Stati-Nazione.

 Oggi, per esempio, l’analisi dei Servizi, almeno di quelli più evoluti, sarà diretta sempre più verso la creazione-verifica delle diverse fault-lines delle pubbliche opinioni avversarie, o a un nuovo settore, che potremmo definire “intelligence politica”, che non è più solo la manipolazione delle classi dirigenti nemiche, ma nemmeno l’attuale dezinformatsjia di massa attuata tramite i Big Data.

 Vedo già, in futuro, la creazione dall’esterno di classi dirigenti diversificate, con la distribuzione di tecnologie che viene permessa o interdetta a seconda delle scelte geopolitiche di uno o più avversari; e quindi dovremo immaginare una nuova intelligence che si inserisce, diversamente da quanto oggi accade, nella determinazione delle “catene del valore” internazionali e nella distribuzione globale del lavoro, ma soprattutto delle tecnologie che lo valorizzano.

 Tutto avverrà ex ante, sempre meno accadrà ex post. Ma questo presuppone una trasformazione delle classi politiche e, quindi, una profonda modifica della loro selezione.

GIANCARLO ELIA VALORI
Honorable de l’Académie des Sciences de l’Institut de France