IT come strategia nazionale e non come commodity
Abstract
Dopo la smantellamento del modello olivettiano, in Italia non si sono più fatte strategie politiche di alto profilo per l’IT. Di conseguenza, la tendenza degli ultimi anni è quella di usare infrastrutture IT cloud di importazione, divenute nel frattempo commodity economicamente accessibili. Se questo per un verso ha risolto il nostro problema di incapacità di costruire servizi IT sicuri, scalabili e affidabili, dall’altro espone l’Italia alla espropriazione dei suoi asset informativi, alla esposizione dei dati dei propri cittadini e al controllo da parte di poteri terzi.
Gli strumenti software per costruire infrastrutture IT cloud-native esistono, sono disponibili con licenze Open Source e hanno raggiunto un alto livello di maturità. Occorre investire nelle competenze atte ad impiegare tali strumenti per un rinnovamento delle nostre infrastrutture IT, verso una piena automazione software-defined.
Prendere in corsa il treno della competitività internazionale, dipenderà dalla capacità che avrà l'Italia di sfruttare i fondi speciali del Recovery Fund per dotarsi di proprie Cloud. Bisogna decidersi: l’IT è una merce o è il fondamento dell’economia e delle libertà moderne? Non è necessario attendere la (ben poco) ardua sentenza dei posteri.
Introduzione
In Italia l’IT viene ancora considerato uno strumento atto a migliorare, attraverso la sua applicazione, i “veri” campi di azione umana: la ricerca, il governo, l’industria, il commercio, etc. Non vengono quindi ideate e realizzate politiche specifiche per l’IT, lasciando che il suo sviluppo segua le politiche dei campi a cui va applicato. Questa tendenza è tipica dei paesi economicamente più arretrati, che non dispongono delle risorse e delle competenze necessarie per cambiare passo e si devono quindi limitare ad acquistare quanto necessario, in fatto di IT, da altri paesi.
Le risorse e le competenze per fare IT in Italia ci sarebbero e qualche tentativo, sia pure non impeccabile, è stato fatto. Manca però la mentalità necessaria per dare inizio a processi virtuosi e creare così una “cultura dell’IT”. Questa carenza non è semplicemente un punto di debolezza del nostro Paese: essa traccia un solco via via più incolmabile con i Paesi che si sono attrezzati per tempo, come gli Stati Uniti e la Cina, e che quindi non solo riescono ad innovare, ma acquisiscono anche e soprattutto un ruolo strategico nello scacchiere mondiale, a livello politico, prima ancora che economico. Difficile pensare a qualcosa di diverso dall’IT che dia risultati analoghi nel medio periodo.
Per finanziare i propri investimenti in IT, vengono venduti servizi ai paesi meno attrezzati, tra cui il nostro. Questo fenomeno è noto come “Commoditization”, ossia mercificazione dell’industria dei servizi IT, ed è guidato dall’automazione, in particolare l’automazione delle infrastrutture, del cloud e del data analytics. Con un ritardo accumulato di 20 anni, l’Italia ha ormai la necessità di giocare il ruolo di cliente. Potrebbe essere una scelta industriale persino ragionevole se non ci fosse un macigno che incombe sul nostro futuro: dove finiscono i dati? Per questo tra le proposte di progetti per la trasformazione digitale nell’ambito del Recovery Fund sono stati inserite le Private Cloud.
Servizi IT per una nuova umanità
La centralità dell’IT nella vita delle persone è stata intuita in tempi non sospetti. Agli inizi degli anni ‘80 del secolo scorso, il movimento del Cyberpunk aveva creato nell’immaginario collettivo elementi visionari di vita in rete, di intrusioni, di controllo, di estensioni di capacità umane in un cyberspazio non ancillare allo spazio fisico, ma con un senso per sé. Oggi si parla di IT per progetti molto concreti, come Industria 4.0, che mira a migliorare drasticamente l’efficienza e l’automazione nella produzione industriale, per ridurre al minimo gli interventi umani di carattere cognitivo e ritagliare un nuovo ruolo ad Homo Sapiens. Un ruolo più qualificato, volto alla qualità, al controllo, non sottoposto alla brutalità fisica o mentale tipica del lavoro nel contemporaneo. Si pensa di produrre just-in-time, delocalizzato, distribuito, per produrre dove serve, quando serve, in piccolissima scala - si pensi ad esempio ai FabLabs e alle varie amenità maker. Con l’IT inoltre si progettano Smart Cities, per migliorare la mobilità, l’organizzazione e i processi tipici del vivere cittadino.
Se tutto diventa più semplice e immediato, l’uomo può tornare a curare se stesso e le sue relazioni, invece di sprecare tempo nella barbarie dei procedimenti o degli spostamenti indesiderati. L’accesso alla sanità e la sua gestione, ad esempio, potrebbero finalmente essere semplici e non mediati da lavoro umano organizzativo, che dilapida il tempo dei lavoratori e degli utenti senza valore aggiunto. Ridurre la complessità per Homo Sapiens, affidare compiti cognitivi alle macchine, libererebbe risorse per attività più soddisfacenti. La logistica sta già beneficiando dell’IT automation e sempre di più diventerà un problema non umano. Insomma, inutile dilungarsi oltre in esempi ben noti, limitiamoci ad astrarre il concetto che l’IT è organizzato in servizi che miglioreranno la vita di tutti e tutte, se saremo in grado di dispensare l’essere umano dal lavoro per farlo dedicare alla contemplazione e ai frutti che essa inevitabilmente creerà in termini di attività in cui realizzare la pienezza dell’esistenza.
I tre capisaldi dei servizi IT (o erano quattro?)
Per poter realizzare servizi IT degni di questo nome, si devono garantire tre proprietà imprescindibili: sicurezza, scalabilità e affidabilità. Definiamo queste proprietà i tre capisaldi dei servizi IT e descriviamo brevemente il loro significato.
Un servizio è sicuro se il suo utilizzo non produce danni, perdite o effetti indesiderati. Più precisamente, devono essere minimizzati al di sotto di una soglia di tolleranza tali rischi, definiti come prodotto di impatto per probabilità di accadimento. La cybersecurity è la disciplina che si occupa di abilitare e valutare questa proprietà.
La scalabilità, invece, ha a che fare con la gestione dei picchi di utilizzo. Un servizio deve poter funzionare con le stesse caratteristiche e prestazioni al crescere dell’utenza. La containerizzazione e il cloud sono stati introdotti per facilitare la progettazione e la conduzione di sistemi scalabili.
Ultima, ma non certo per importanza, è l’affidabilità, che include le due precedenti proprietà, e aggiunge molto di più: la certezza del raggiungimento dell’obiettivo durante tutto il tempo di funzionamento (tipicamente senza soluzione di continuità). È considerato affidabile un servizio la cui disponibilità è garantita per il 99,999% del tempo (five nines, in inglese) corrispondenti a 5 minuti di downtime complessivi in un anno.
Poiché soddisfare i tre capisaldi è difficile e costoso, in Italia abbiamo fatto finora finta che non fossero necessari. Ma in mancanza di queste proprietà non si può dire di aver realizzato dei servizi IT, esattamente come non si può definire abitabile un luogo privo di robustezza strutturale, di protezione da agenti esterni o di salubrità degli ambienti.
In questo momento in Italia non siamo in grado di creare un servizio IT con caratteristiche di servizio adeguate, come ben sanno tutti i cittadini che usano abitualmente i servizi online nostrani e li confrontano con quelli fatti bene, prodotti dai Big Tech (come Google, Amazon, Microsoft, Apple, Facebook, Alibaba o Tencent). Quella di ricorrere ai servizi Cloud di paesi terzi è molto più che una tentazione: nelle attuali condizioni è una necessità. C’è però una quarta caratteristica che dovrebbero avere i servizi, raramente percepita come fondamentale, che risponde al nome di privacy, ossia la capacità di mantenere i dati riservati e in sicurezza. Tale caratteristica deve essere necessariamente sacrificata quando si fanno funzionare i servizi IT su Cloud non gestiti in proprio.
No autonomia, no privacy
Da un punto di vista tecnologico la privacy dell’utente non può essere garantita in alcun modo dal fornitore del servizio, neanche se il dato viene cifrato, poiché per effettuare operazioni sui dati, occorre decifrare gli stessi.
La crittografia omomorfica (Homomorphic Encryption mira a risolvere questo problema, facendo in modo che le informazioni memorizzate nel Cloud non debbano mai essere decifrate e quindi siano sempre al sicuro. Sono allo studio particolari tecniche di manipolazione di dati in forma cifrata, ma siamo ancora nel campo della ricerca pura, molto distante dal poter essere effettivamente utilizzata con prestazioni adeguate. E forse c’è anche scarso interesse a finanziarne lo sviluppo da parte di chi ha impostato il proprio successo sull’inesistenza di simili meccanismi di protezione dei dati.
Al momento, l’unico modo per garantire la privacy dei dati manipolati nei sistemi che realizzano un servizio IT è possedere in proprio tali sistemi. Questo è il tema dei temi della diplomazia internazionale contemporanea. All’interno di un quadro nazionale di riferimento, i servizi offerti al cittadino devono necessariamente garantire riservatezza, sia nell’interesse del cittadino o della cittadina, sia nell’interesse della sicurezza nazionale e della competitività del sistema Paese. Pensare di modulare il livello di tale riservatezza, attraverso un impianto normativo via via più articolato, è poco più di un atteggiamento attendista. È la politica del cavillo, che tenta - invano - di imbrigliare i Big Tech in un complesso di norme e regolamenti, che forse serve a prendere tempo, ma non risolve certo il problema. Se proprio si vuole attuare una strategia progressiva, si può pensare di sacrificare alcune categorie di dati e proteggerne solo altre. Tenendo sempre presente però che la ricchezza si trova spesso molto più nei metadati che nei dati ed è praticamente impossibile individuare la detenzione e men che meno l’utilizzo di metadati. In generale, non si può parlare di privacy nazionale se i dati sono presenti su un sistema su cui ha accesso un soggetto terzo allo Stato. Dotarsi di sistemi atti ad erogare servizi IT che rispettino i tre capisaldi dei servizi IT e garantiscano anche il quarto, la privacy, è l’unico modo per affrontare il tema.
Il possesso dei mezzi di produzione e gestione dei servizi IT non è necessariamente riconducibile ad un approccio statalista. Può essere riferito in generale ad una comunità che è in grado di conseguire autonomia per se stessa e per i propri membri. che nel caso di studio è nazionale, ma può essere, ad esempio, anche transnazionale o locale. Anche rispetto alla gestione formale i modelli attuabili sono diversi: può essere pubblica, privata, mista, ma può essere affidata anche ad un soggetto di terzo settore, finanziato pubblicamente o privatamente, che non fa lucro, mantiene un livello più o meno elevato di indipendenza e ha per mission la garanzia di elevati standard di vita per i beneficiari del servizio. Già oggi il terzo settore è impegnato, ad esempio, in progetti di abbattimento del Digital Divide. Ma potrebbero anche essere libere associazioni di cittadini, più o meno formali, a gestire in proprio le infrastrutture abilitanti di alcuni servizi IT e anche questo non sarebbe una novità. Insomma, la parola d’ordine è Sovranità digitale e la sua declinazione è un esercizio politico che lasciamo agli esperti di governance o a qualcuno che si faccia venire una buona idea.
Infrastrutture come codice per una piena automazione
Per dotarsi di un proprio IT in grado di erogare servizi rispondenti alle esigenze di sicurezza, scalabilità e affidabilità, sono necessari tre ingredienti: hardware, software e competenze. Il software deve essere eseguito sull’hardware (processing), per produrre dati che devono essere contenuti nell’hardware (storage) e inviati verso gli utenti o altri sistemi di processamento (networking). Processing, storage e networking sono i tre tipi fondamentali di risorse hardware che devono essere messe al servizio del software per realizzare effettivamente i servizi IT. Si dice che i servizi IT poggiano su infrastrutture IT. Questa associazione tra il software e l’insieme delle risorse hardware necessarie per il suo funzionamento è difficile da realizzare in tempo reale al mutare delle condizioni di utilizzo dei servizi se l’adattamento è effettuato da lavoro umano. Diventa invece possibile se l’infrastruttura viene resa manipolabile attraverso delle direttive software. Questo è il principio dell’Infrastructure-as-code ossia le risorse IT dei sistemi coinvolti devono poter essere messe a disposizione dei servizi IT come se fossero software (ossia codice) e in quanto tali orchestrabili attraverso una logica di automazione. Si parla di software-defined IT proprio ad indicare che a definire quante e quali risorse IT usare in ogni istante di tempo ci pensa un software.
Non basta quindi costruire nuovi Data Center gestiti in modo tradizionale. Sarebbe come dire che per eseguire un’opera sinfonica è sufficiente comprare gli strumenti musicali e metterli in un auditorium. Ottenere i tre capisaldi con i paradigmi dell’IT tradizionale è estremamente oneroso, per non dire impossibile, perché senza software-defined IT, ci vorrebbe una quantità straordinaria di risorse umane qualificate che si turnano 24 ore su 24, 7 giorni su 7. Per questo è stata inventata l’IT automation, o per meglio dire senza IT automation non ci sarebbe stato nulla di tutto quello che c’è lì fuori in termini di servizi IT che soddisfano i tre capisaldi.
Quando si pensa ai servizi IT, generalmente si pensa al software applicativo, che è quello con cui interagisce direttamente l’utente e che quindi può essere apprezzato per le sue funzionalità. Ma le applicazioni hanno un’importanza marginale in questo discorso. Grazie alle diverse modalità di distribuzione Open Source, il software applicativo è disponibile in enorme quantità, non serve svilupparne di nuovo, o occorre farlo molto meno rispetto alla necessità - questa sì, fondamentale - di integrare adeguatamente quello esistente, configurarlo a dovere e, al limite, evolverlo. Ma la vera sfida è far funzionare il software, ossia eseguire il software e metterlo effettivamente a disposizione dell’utente rispettando i tre capisaldi. La gestione del runtime del software è il principale punto di criticità da affrontare con urgenza.
Per una gestione facile ed efficace del runtime è richiesto l’utilizzo di strumenti moderni, che sono anch’essi basati su software Open Source (manco a dirlo) e che presuppongono conoscenze, abilità e competenze che sono al momento molto rare e quindi, nel nostro paese, da costruire. In particolare, occorre inserire il software in container (ad esempio Docker), orchestrare questi container (usando Kubernetes, ad esempio attraverso Rancher o OpenShift) e farli girare in ambienti Cloud (ad esempio tramite OpenStack). Occorre gestire il ciclo di vita del software, creando in particolare catene di Continuous Integration / Continuous Deployment (CI/CD), ossia percorsi controllati per mandare in esecuzione rapidamente modifiche al codice (ad esempio usando GitLab), gestendo con meccanismi automatici gli ambienti di sviluppo, test e produzione. Dulcis in fundo, la gestione di tutte le configurazioni va fatta con un Configuration Management (ad esempio Ansible), che consente di trattare anche le configurazioni come se fossero codice e dunque poterle condividere, evolvere, testarle e migliorarle nel tempo.
Se poi vogliamo proprio parlare di come dovrebbe essere fatto il software applicativo a tendere (posto che comunque al momento non è questa la priorità), aggiungiamo solo che andrebbe organizzato a microservizi, in modo che ogni microservizio possa essere inserito in un container (o per meglio dire in un Pod che è l'entità utilizzata dagli orchestratori per gestire uno o più container che implementano un microservizio). In questo modo si può tenere sotto controllo selettivamente l’esecuzione di singole componenti software sull’infrastruttura, automatizzando le procedure che mantengono disponibile il microservizio a dispetto dei fallimenti fisiologici del runtime (in ottica di High Availability, Load Balancing, automazione dei processi di reborn), dei problemi di sicurezza (attraverso pratiche di DevSecOps, image scanning, container auditing), delle impennate dell’utilizzo (automatizzando lo scaling orizzontale e verticale). Ecco spiegato come i tre capisaldi dei servizi IT possono essere realizzati in pratica.
Il veleno del Public Cloud esterofilo e l’antidoto CNCF / Open-Infra
Se non costruiamo infrastrutture con questi criteri, non ci resta che ricorrere al Public Cloud, ossia dobbiamo affittare infrastrutture di altri che sono costruite così e che funzionano molto bene rispetto ai tre capisaldi, ma che non possono garantire il quarto. È un affitto un po’ particolare, in cui il proprietario ha le chiavi di casa e può costantemente tenerci sotto osservazione, conservando i video tratti dal nostro uso dell’immobile ed elaborarli per suoi fini i più vari. Se pensiamo di affidare i dati degli utenti a Public Cloud esteri, entriamo in un buco nero da cui non si torna più indietro. Saremo per sempre schiavi dei Big Tech, buoni solo per la mungitura di dati, senza prospettive di sviluppo e autonomia.
In assenza di sovranità digitale si decade rapidamente verso l’irrilevanza. Occorre fermare il processo mortifero che ci spinge verso il Public Cloud esterofilo, dobbiamo pretendere le nostre Private Cloud, e pretendere che siano sicure, scalabili e affidabili come i servizi IT che vogliamo costruire. Costerà molto, è bene dirlo, moltissimo. E non saranno costi ammortizzabili se non in tempi medio-lunghi. Ma questo non può più essere un alibi e certo non ora che i soldi del Recovery Fund sono in arrivo. Dobbiamo ragionare come “per l’elettrificazione di una nazione: soltanto uno Stato se lo può permettere misurandola come utile di comunità” .
Uno dei pochi vantaggi di essere in ritardo nello sviluppo di un proprio IT consiste nel poter disporre di strumenti e sistemi di automazione già più che rodati, distribuiti con licenze Open Source dalla Linux Foundation, che negli ultimi 10 anni ha fatto un lavoro formidabile di standardizzazione industriale, da cui dovremmo prendere spunto (AgID in primis). In particolare la Cloud Native Computing Foundation e la OpenStack Foundation (con il recente re-branding dell’Open Infrastructure).
Verso la sovranità digitale
Disporre del software è un vantaggio enorme, ma non è ovviamente sufficiente. È necessario un rinnovamento culturale e una volontà progettuale. Occorre capire l’importanza strategica di queste competenze da un punto di vista politico (difficile in un paese dove la classe politica è priva del minimo delle conoscenze necessarie per comprendere il risvolto sociale di tali temi tecnologici), e occorre investire in progettualità (difficile in un paese dove queste competenze tecniche non sono sufficientemente diffuse). È necessario procedere quindi a tappe forzate, con risorse economiche e impegno incondizionato. I costi considerevoli vanno però considerati un investimento in cultura che guarda al futuro del paese e al suo posizionamento nello scacchiere mondiale. Se si lavora bene, non si spreca, ma si investe in efficienza e progresso. Il calcolo degli utili dovrebbe tenere in conto l’effetto moltiplicatore della diffusione della conoscenza.
Analisi SWOT
FATTORI INTERNI |
|
PUNTI DI FORZA |
PUNTI DI DEBOLEZZA |
Preparazione di base ottima (i nostri ingegneri sono molto apprezzati all’estero) |
Si fa poco e quel poco lo si fa in modo inadeguato o superato. Problema culturale: i decision makers hanno una impostazione lontanissima dalla tecnologia. Non si lascia spazio alle competenze, in quanto sussiste una logica di conservazione dello status quo funzionale alle rendite di posizione. Pochi dirigenti sono ingegneri (maggioranza di giuristi ed economisti) |
|
|
FATTORI ESTERNI |
|
OPPORTUNITÀ |
MINACCE |
La Linux Foundation ha già software maturo per la gestione moderna dell’IT, in particolare le community CNCF e Open Infra. |
Public Cloud |
Le competenze tecnico/politiche a cui mirare per una rinascita post-olivettiana dell’IT Italiano riguardano tecnologie e processi Open Source fondamentali come i sistemi distribuiti (es., OpenStack), Source Code Management (es., GitLab), database relazionali (es., PostgreSQL) e non relazionali (es., MongoDB), Configuration Management e automazione (Ansible), Container orchestration (es., Kubernetes), architetture a microservizi (usando linguaggi come Node.js, Python o GoLang). Sono questi alcuni esempi di un repertorio tecnologico che i giovani italiani dovrebbero possedere per elevare la conoscenza IT a livello di Paese. Non si pensi solo agli studi universitari, questi concetti possono essere introdotti a livello di scuole superiori come si fa con la fisica, del resto, e si può pensare ad un percorso propedeutico che parta già dalla scuola elementare.
La conoscenza è l'unica arma in grado di permettere agilità e adattabilità richieste nell’odierno mondo "VUCA" (Volatility, Uncertainty, Complexity and Ambiguity), dove l'innovazione accelera continuamente il tasso di cambiamento e dove distribuire e decentralizzare renderebbe efficiente il processo decisionale strategico.
Le risorse del Recovery Fund vanno certamente impiegate per costituire una solida base di risorse infrastrutturali, ossia per costruire Data Center moderni. È stato proposto anche di farli ambientalmente sostenibili by-design (Green Data Center). Per non sprecare soldi, però, occorre progettarli cloud-native by-design. Per questo è stato proposto di costruire “Private Cloud OpenStack su Green Datacenter, 100 + 100 nodi, alta efficienza energetica,
alimentato con rinnovabili, per applicazioni cloud-native a container, orchestrate con Kubernetes”. Costi: 24 milioni di euro. Si tratta di una proof-of-concept, evidentemente. Per servire tutte le necessità attuali del nostro paese servirebbero Data Center in quantità maggiore di uno o due ordini di grandezza. Ad esempio, l’attuale cloud OpenStack di GARR al momento eroga 150 Kilowatt. Parlando solo di teledidattica, se volessimo dare a tutte le scuole italiane un'alternativa reale alle piattaforme dei Big Tech ai quali si sono rivolte in massa durante il lockdown, servirebbero 32 Megawatt di energia. Fortunatamente, però, sempre grazie alle tecnologie cloud per sistemi distribuiti e al paradigma dell’Infrastructure-as-code, si può procedere progressivamente annettendo nuove risorse hardware e nuovi Data Center via via che si rendono disponibili. Per questo il progetto si è limitato ad un caso che funga da apripista.
Non solo Data Center: rete e dispositivi personali
Non abbiamo preso in considerazione la rete, che è evidentemente un altro tema centrale e che merita una trattazione a sé di eguale approfondimento. L’arretramento culturale del nostro Paese è meno grave in questo contesto e non mancano esperienze realizzative di buon livello, sebbene ancora ci sia da fare molto per migliorare. Anche nel contesto del networking esistono approcci moderni software-defined che vale la pena introdurre il prima possibile. Ma l’urgenza è minore e la classe imprenditoriale senz’altro meglio organizzata (il che è tutto dire…).
Infine, non dobbiamo dimenticare i dispositivi in uso agli utenti, sui quali pure esiste un tema di diffusione e di qualità, in parte legato a questioni di classe sociale, in parte a questioni culturali. Un supporto alla disponibilità economica delle famiglie viene fornito da iniziative come il bonus per PC, tablet e Internet voluto dalla ministra Paola Pisano.
Ma esiste anche un tema culturale: In Italia ci sono più smartphone che televisori, ben 44 milioni di persone posseggono uno smartphone, includendo quindi anche fasce di reddito vicine o al disotto della soglia di povertà. Siamo il terzo paese al mondo per numero di telefonini, dopo Corea del Sud e Hong Kong. Il tablet ha una diffusione sicuramente minore, viene scelto per la sua comodità e determina una fruizione più passiva dei contenuti. Invece il PC è quello che può fare la differenza rispetto alle competenze digitali da sviluppare e al raggiungimento della sovranità digitale ed è su quello che bisogna puntare decisamente. Occorre spendere soprattutto per aumentare drasticamente la presenza del PC nelle case degli italiani, rimuovendo l’alibi della “spesa insostenibile”, che evidentemente non vale per il telefono.
Come elemento qualificante dell’iniziativa, andrebbe infine considerato il sistema operativo di questi dispositivi per l’utente finale. Se si scegliesse GNU/Linux si innescherebbe una reazione a catena irrefrenabile nella strada verso l’innovazione e la sovranità digitale. Se vogliamo fare un favore ai nostri figli, se vogliamo farli crescere culturalmente, dargli una palestra in cui far proliferare le proprie abilità, scegliamo il sistema operativo del pinguino. I bambini hanno capacità di apprendimento che superano qualunque nostra immaginazione. Se a noi GNU/Linux sembra troppo difficile o noioso o scomodo, se siamo troppo pigri per sceglierlo, oltre al fatto che forse non sappiamo di cosa stiamo parlando, ciò non significa che la scelta giusta per un bambino sia un sistema operativo chiuso e ottuso, come quelli maggiormente in circolazione. Mettiamo da parte il nostro egocentrismo e facciamo una scelta intelligente per le future generazioni. Scegliamo la cultura e non la commodity, forniamo strumenti per poter domani non subire ma essere protagonisti del proprio destino .
Non è un caso che il sistema operativo delle piattaforme che abilitano il paradigma del Cloud Computing autoctono sia proprio GNU/Linux. Avremmo sia nelle case, sia dentro i server lo stesso sistema operativo, moltiplicando esponenzialmente la nostra capacità di realizzare giorno dopo giorno una piena Sovranità digitale.