La virtualizzazione delle risorse IT ha segnato un punto di svolta fondamentale nel panorama dell’informatica, accelerando in maniera sostanziale i processi di trasformazione digitale che le aziende stanno affrontando per innovare i loro processi ed acquisire una rinnovata competitività sui mercati.

Grazie alle tecnologie e alle applicazioni legate alla virtualizzazione, il mercato dell’information technology ha visto l’avvio di una nuova stagione di opportunità, i cui effetti sono probabilmente ancora agli albori rispetto a quanto vedremo nei prossimi anni. La pandemia Covid-19 ha reso il lavoro da remoto una realtà concreta, che sta obbligando a ripensare integralmente i modelli organizzativi, con il ricorso a soluzioni in cloud e ad ambienti di sviluppo interamente astratti rispetto ai sistemi fisici su cui sono implementati.

Nella nostra quotidianità, anche nelle applicazioni più comuni, utilizziamo sempre più spesso soluzioni virtualizzate senza esserne direttamente consapevoli, grazie alla trasparenza e al livello di diffusione che questa tecnologia ha ormai raggiunto, rendendo di fatto possibile la maggioranza dei servizi cui accediamo nell’era di internet. La virtualizzazione è infatti una tecnologia abilitante del cloud computing, per cui, come vedremo, molte delle caratteristiche e dei vantaggi che le aziende incontrano nella sua adozione coincidono in buona parte con quelli che si ottengono esternalizzando i servizi in cloud.

Tuttavia, in questo servizio ci focalizzeremo sul lavoro di astrazione svolto a livello di risorse IT proprietarie, pur consapevoli che, utilizzando i servizi in cloud, le opportunità e i vantaggi offerti dalla virtualizzazione potrebbero risultare ben maggiori rispetto a quanto possibile facendo riferimento alle dotazioni hardware e software presenti nei data center aziendali. Questi ultimi potrebbero infatti essere addirittura del tutto eliminati, esternalizzando del tutto l’infrastruttura IT.

Vediamo pertanto in cosa consiste la virtualizzazione, quali sono le ragioni per suo straordinario successo, entrando nello specifico delle principali tipologie oggi diffuse nel mercato informatico.

Cos’è la virtualizzazione

Nei suoi termini più generalisti e concettuali la virtualizzazione consiste nell’astrazione delle risorse fisiche dell’IT (es. hardware, software, rete, dati, storage, ecc.) per rendere disponibili dei pool di risorse virtuali, funzionanti come quelle fisiche su cui si basano. Per l’utilizzatore finale, il fatto di disporre di una risorsa logica diventa un processo del tutto trasparente, che lo rende quasi del tutto indistinguibile rispetto all’impiego della risorsa fisica corrispondente.

A livello concettuale la virtualizzazione è nata, con ogni probabilità, quando negli anni ’60 vennero introdotte le prime macchine virtuali, o virtual machine (VM) che ancora oggi, grazie a tecnologie decisamente più moderne, costituiscono un caposaldo su cui si basa l’astrazione dei server.

I primi hypervisor, tecnologie che, come vedremo, consentono l’astrazione delle risorse fisiche, consentivano di un accesso simultaneo di più utenti ai computer per pianificare ed elaborare le cosiddette operazioni batch, ossia dei veri e propri modelli di calcolo che consentono di mettere in coda ed eseguire in automatico centinaia e migliaia di attività di routine.

Si tratta di qualcosa di molto distante dalla virtualizzazione come la intendiamo oggi, ma anticipava un’esigenza tuttora attuale, relativa alla necessità da parte di più utenti di utilizzare i servizi erogati da un unico server. Il fatto che le tecnologie di virtualizzazione non fossero ancora sufficientemente mature ha fatto sì che questo problema comune fosse affrontato e parzialmente risolto con altri metodi, almeno fino agli anni ’90, quando la crescente diffusione dei sistemi server ha reso irrimandabile il fatto di affrontare in maniera efficiente il tema dello sfruttamento delle costose risorse su di essi presenti.

La virtualizzazione rappresenta la tecnologia ideale per ovviare al sottoutilizzo di un server, che invece di essere dedicato ad una singola attività, può essere impiegato in condizioni di carico elevato per supportare numerosi carichi di lavoro, attraverso la distribuzione di più pool di risorse condivise a livello virtuale. Se nell’approccio tradizionale per soddisfare le funzioni di un mail server ed un webserver avremmo utilizzato due macchine fisiche, con un’occupazione delle risorse molto limitata, ad esempio nell’ordine del 20% grazie alla virtualizzazione, il concetto viene ribaltato, per cui, posso collocare su un’unica macchina più server virtuali, ognuno dei quali può ad esempio ospitare il mail server ed il web server di cui sopra. Lo stesso hardware viene utilizzato in maniera più efficiente, interessando il 40% delle proprie capacità computazionali. Sempre a livello puramente esemplificativo, il server fisico in questione potrebbe supportare altre attività, sempre grazie all’esecuzione di altrettanti server virtuali, fino a saturare la propria capacità elaborativa.

La virtualizzazione dei server ha quindi introdotto aspetti estremamente innovativi, che hanno consentito di utilizzare in maniera efficiente e sostenibile le risorse IT a disposizione di un’azienda. Se prima per supportare un determinato numero di processi era necessario avere altrettanti server, grazie alla virtualizzazione è infatti possibile ridurre sensibilmente la quantità di risorse hardware necessaria per garantire gli stessi identici servizi in maniera virtualizzata.

I vantaggi per le aziende

La virtualizzazione dei server consente come abbiamo visto di ottimizzare l’investimento utile per erogare i servizi richiesti, in altri termini, una riduzione del Total Cost of Ownership, che dipende sia dal costo nudo delle macchine e dei software, che dalle spese necessarie a garantire il loro funzionamento, in cui rientrano, a pieno titolo, anche i consumi energetici e il personale IT. È infatti evidente che se venisse ridotto il numero delle macchine fisiche necessarie per erogare i servizi virtualizzati, ne conseguirebbe un notevole risparmio nell’alimentazione, considerato che si tratta di sistemi progettati per funzionare in condizioni 24/7, con tutto quel che comporta anche a livello di gruppi di continuità e impianti necessari per garantire la resilienza dei server. Tuttavia, i vantaggi non si limitano all’economia generale del data center, ma comportano implicazioni ben più profonde.

Tale approccio, se analizzato da un punto di vista aziendale, pone facilmente in evidenza ulteriori benefici per le realtà che intendono avvalersi della virtualizzazione, tra cui riscontriamo:

  • Scalabilità delle risorse: gli aspetti che garantiscono una fruizione più razionale ed efficiente delle risorse IT si basano su un modello facilmente scalabile rispetto ai sistemi tradizionali. Nel caso in cui i carichi di lavoro aumentassero o diventassero più gravosi in termini di richiesta di risorse di elaborazione, sarebbe infatti possibile aumentare il numero di macchine virtuali utili ad eseguirle, piuttosto che incrementare le specifiche dei pool di risorse delle stesse, incrementando quindi CPU, memoria, storage, ecc. fino a trovare la condizione ideale;
  • Provisioning più veloce delle risorse: naturale conseguenza del precedente punto, anche in funzione del fatto che la configurazione delle risorse virtuali avviene a livello software, attraverso l’impiego di semplici pannelli di controllo, senza richiedere una riconfigurazione delle macchine fisiche, ben più gravosa in termini di tempi e competenze IT. Se occorrono più o meno risorse, è possibile raggiungere il nostro obiettivo in maniera pressoché istantanea, nel giro di pochi click sulle interfacce di software predisposti per la gestione dei pool virtualizzati;
  • Maggior continuità di business: la possibilità di virtualizzare tutti gli elementi IT consente di mantenerli in efficienza in maniera più agile, anche di fronte a potenziali problemi che potrebbero causare downtime e disservizi di varia natura. Si pensi soltanto alla rapidità con cui è possibile effettuare backup di interi ambienti virtualizzati, piuttosto che dover procedere granularmente a copie di file e cartelle sparsi su più server.
  • Maggior sicurezza: la separazione del software dall’hardware fisico e, in alcune circostanze, dai sistemi operativi host, consente ad esempio di creare istanze hardware-software isolate rispetto al sistema principale. Se una minaccia o un errore umano causasse un’infezione o un danno ad un’applicazione virtualizzata, il sistema host che la esegue non dovrebbe subire alcun danno, al che sarà sufficiente chiudere e rimuovere l’istanza corrotta per aprirne una nuova, dotata delle medesime caratteristiche;
  • Miglior gestione dei dati: la virtualizzazione consente una gestione più agile e veloce di grandi quantità di dati, strutturati e non strutturati, con l’opportunità di automatizzare anche i processi di backup and recovery fondamentali per la loro sicurezza. La virtualizzazione consente inoltre di attenuare i rischi derivanti dalla cosiddetta data gravity, per cui i dati tendono a seguire le applicazioni, e viceversa, creando delle pericolose situazioni di concentrazione. Il fatto di gestire su differenti istanze virtualizzate dati ed applicazioni, consente una gestione più sicura a livello di design, dal momento che un problema lato utente renderà il dato estremamente meno sensibile a possibili perdite, furti o corruzioni;
  • Miglior retrocompatibilità: la possibilità di virtualizzare i vecchi sistemi operativi consente di eseguire in qualsiasi momento anche quei software legacy di cui si dispone di regolari licenze d’uso, ma ormai abbandonati dalle pipeline di produzione. Si tratta di una condizione in grado di semplificare parecchio la vita di un’azienda quando si manifesta l’esigenza di recuperare vecchi dati o riaprire progetti ormai giunti a fine vita;
  • Possibile riduzione di vincoli con i fornitori: se supportata da un’abile strategia generale, la virtualizzazione consente di svincolarsi dai servizi che obbligano in qualche modo a far riferimento ad un hardware specifico, con il bonus operandi di poter rinnovare la propria linea di server cambiando fornitore, nel caso in cui sul mercato si presentassero soluzioni più convenienti o efficaci a livello tecnico. Anche nel caso in cui l’azienda decidesse di affidarsi a soluzioni cloud, si rende possibile quelle che viene definita strategia multicloud, che consente di avvalersi di più servizi offerti da differenti provider, scongiurando anche in questo caso i rischi di lock-in;
  • Gestione più semplice a livello generale: il fatto di disporre di risorse virtualizzate a livello software consente una miglior visibilità generale, con la possibilità di utilizzare software di gestione che consentono di avere letteralmente tutto sotto controllo attraverso un’unica interfaccia, senza dover gestire singolarmente ogni server, condizione inevitabile nel caso di un ambiente fisico. Tale aspetto si traduce in una gestione più agile, semplice e veloce, con tutti i vantaggi che ne derivano.

Quando virtualizzare

Alla luce dei vantaggi che la virtualizzazione è in grado di consentire rispetto al tradizionale utilizzo delle risorse IT, è possibile identificare una serie di situazioni che potrebbero rendere decisamente consigliabile valutarne l’effettivo impiego. Quando si intende operare a livello di organizzazione IT, ricordiamo come sia decisamente auspicabile formare una visione strategica unificata, grazie all’apporto di consulenti ed esperti IT capaci di analizzare gli obiettivi di business e tradurli operativamente in soluzioni IT capaci di soddisfarli.

La virtualizzazione è utile in varie circostanze e tende a diventare indispensabile per le aziende medio-grandi, dove risultano operative molte linee di business con un numero di attività complessivamente elevato. In tali circostanze, gestione e costi di mantenimento possono essere ottimizzati in maniera evidente, rendendo al tempo stesso più efficiente l’operatività generale dell’azienda.

Alcuni tra i fattori che potrebbero far propendere l’IT aziendale verso soluzioni basate sulla virtualizzazione delle risorse sono:

  • Adozione di un workplace ibrido: lo smart working ha reso evidente la necessità di accedere in remoto alle risorse aziendali. In questo contesto appare scontato come la virtualizzazione, essendo una tecnologia nata per fare in sostanza proprio questo, agevoli la distribuzione dei servizi ben più di quanto possa farlo il semplice accesso via desktop remoto ad una macchina fisica presente in ufficio;
  • Utilizzo di più sistemi operativi: le aziende possono ritrovarsi a dover implementare servizi e prodotti su vari sistemi operativi: Windows, Linux, MacOS, iOS, Android, ecc. La virtualizzazione dei sistemi operativi consente di avviare istanze preconfigurate in cui godere di ambienti separati senza dover ricorrere all’adozione di molte macchine fisiche, la cui configurazione tradizionale sarebbe estremamente più lenta, tante più sono le modifiche da fare;
  • Utilizzo di ambienti di sviluppo differenti: Lo stesso concetto espresso per i sistemi operativi vale naturalmente per gli ambienti di sviluppo in cui avviene l’intero ciclo di vita dei prodotti informatici, dal concept iniziale fino alla manutenzione e al rilascio di nuove versioni;
  • Testing e innovazione: un ambiente virtualizzato consente di fare test in maniera più veloce, pratica ed economica, grazie alla facilità di creare istanze multiple nelle varie condizioni previste. Tale approccio consente di ottimizzare tempi e costi di sviluppo, favorendo in senso ampio l’innovazione dei processi, con un solido impulso alla ricerca e sviluppo aziendale.

I diversi tipi di virtualizzazione

La possibilità di astrarre gran parte delle risorse IT disponibili ha progressivamente dato luogo ad una serie di tecnologie, anche piuttosto differenti tra loro, capaci di rendere disponibile in forma logica tutti i sistemi e i componenti informatici più diffusi. Ciò è avvenuto sia virtualizzando direttamente le controparti fisiche per disporne in maniera più efficiente e flessibile, che dando luogo a nuovi prodotti, capaci di innovare in maniera significativa. Si pensi ad esempio ai container e ai sistemi di orchestrazione che caratterizzano i moderni ambienti di sviluppo.

Vediamo dunque alcune tra le principali tecnologie di virtualizzazione, in modo da identificarne le logiche di base e i vantaggi pratici delle loro applicazioni.

Virtualizzazione di hardware

Il caso di virtualizzazione hardware più frequente è costituito dalle macchine virtuali (VM), computer su cui è possibile installare un sistema operativo e tutte le applicazioni necessarie, in maniera analoga rispetto a quanto avverrebbe su una macchina fisica.

La macchina virtuale agisce come un sistema guest, laddove l’host è caratterizzato da un server su cui vengono eseguite più VM in contemporanea. Il livello di astrazione tra risorse fisiche e i pool di risorse che caratterizza il sistema virtuale si ottiene utilizzando un hypervisor, o virtual machine monitor (VMM), software che consente di eseguire più sistemi guest su un singolo sistema host.

Quando l’hypervisor si configura quale layer immediatamente sull’hardware host, si parla di hypervisor di tipo 1, o bare metal. Esiste inoltre un hypervisor di tipo 2, che consiste in un software installato nel sistema operativo host, con cui condivide l’impiego dei driver e dei software che consentono di gestire e virtualizzare le risorse hardware della macchina fisica.

Il tipo determina le modalità d’azione, ma il concetto operativo degli hypervisor è il medesimo: gestire le risorse hardware del sistema host (CPU, RAM, storage, rete, ecc.) per creare dei sistemi guest caratterizzati da pool di risorse virtuali che vengono utilizzati dagli utenti finali in maniera il più possibile trasparente.

Tale configurazione risulta ottimale per gestire dei picchi di utilizzo sfalsati. Per esempio, se noi avessimo configurato cinque macchine virtuali su un server fisico, i cinque utenti potrebbero utilizzare le singole VM in momenti differenti, piuttosto che in maniera simultanea. Ovviamente i carichi di lavoro vengono gestiti dall’hypervisor, ed è opportuno verificare che il sistema host disponga delle risorse necessarie per soddisfarli tutti, altrimenti si potrebbe facilmente andare incontro a rallentamenti generali. Gli strumenti di gestione dei VMM consentono di analizzare i carichi di lavoro assegnati alle VM e distribuirli in maniera ottimale sui vari sistemi host di cui si dispone, in modo da trovare su ognuno il miglior bilanciamento possibile tra lo sfruttamento generale delle risorse e le performance garantite agli utenti finali. Inutile dire che entrambi questi parametri dovrebbe essere più elevati possibili.

Un’ulteriore qualità della virtualizzazione hardware è garantita dalla sicurezza per design, dal momento che il sistema guest è eseguito in maniera isolata rispetto al sistema host, che rimane al sicuro nel caso anche nel caso in cui una macchina virtuale dovesse essere infettata da un virus o altre minacce informatiche. La virtualizzazione hardware consente dunque di ottenere più computer su una singola macchina fisica, con significativi vantaggi in termini gestione e risparmio energetico, a patto di bilanciare i carichi di lavoro in modo da non avere delle situazioni di sovraccarico o favorire eccessivamente una VM rispetto alle altre attive sul medesimo host.

Virtualizzazione di software

L’applicazione hardware costituisce la base più ampia e generalista del concetto di virtualizzazione, ma non è certamente l’unica, dal momento che è possibile agire anche a livello software, virtualizzando l’intero desktop, piuttosto che a livello del sistema operativo o delle singole applicazioni.

La virtualizzazione del desktop mira a garantire l’impiego di un sistema completo attraverso una rete. Il caso più ricorrente avviene quando un’azienda si ritrova a dover fornire ai suoi utenti condizioni dei pc molto simili per quanto riguarda la configurazione, il sistema operativo e le applicazioni installate. Anziché investire su un numero di macchine fisiche pari a quello degli utenti ed avventurarsi in onerose pratiche di installazione e configurazione per ognuna di esse, è infatti possibile virtualizzare i desktop e renderli disponibili attraverso connessioni RDP (remote desktop protocol). Esistono moltissime varianti di virtualizzazione del desktop, basate sia sul differente rapporto tra sistemi host e guest che sulle tecnologie proprietarie implementate sui vari software disponibili sul mercato, con cui è in ogni caso possibile avvalersi di quella gestione centralizzata indispensabile per soddisfare gli accessi di un numero di utenti che, nel caso delle grandi aziende, può essere decisamente elevato. La virtualizzazione del desktop risulta particolarmente funzionale all’adozione di un workplace ibrido per lo smart working, in quanto gli utenti possono accedere da remoto attraverso vari device, anche molto meno performanti a livello hardware rispetto all’ambiente virtualizzato. Tale modello consente inoltre un’agevole organizzazione del sistema di backup a livello centralizzato.

La virtualizzazione a livello del sistema operativo sfrutta la proprietà di eseguire in parallelo varie istanze isolate dello spazio utente, quali ambienti di runtime virtuali. È il caso dei container, particolarmente diffusi nell’ambito dello sviluppo, che contengono tutte le dipendenze necessarie per effettuare il deploy delle applicazioni, come avviene nel caso delle architetture a microservizi, scalabili singolarmente e gestite attraverso degli strumenti di orchestrazione come Kubernetes. Tale approccio risulta più leggero rispetto alla virtualizzazione hardware. Non è infatti necessario un hypervisor, in quanto a differenza delle macchine virtuali, i container non necessitano ognuno di un sistema dedicato, in quanto sono ambienti di runtime isolati che possono essere eseguiti sullo stesso sistema operativo. Tale soluzione, rispetto alla VM classica, risulta più flessibile nella gestione ma al tempo stesso gode di un livello di isolamento inferiore rispetto al sistema host, risultando nel complesso più vulnerabile. Si dà per scontato che il ricorso alla tecnologia basata sui container sia finalizzata a supportare lo sviluppo con metodologie moderne come DevOps o Agile, in quando risulterebbe del tutto sacrificata nel caso di applicazioni monolitiche tradizionali. I container godono di un ottimo supporto da parte della community degli sviluppatori, al punto che in rete è semplice trovarne di già pronti per le principali tipologie di applicazioni.

La virtualizzazione delle applicazioni astrae le stesse dal sistema operativo, attraverso l’esecuzione di software in ambienti di runtime isolati, distribuiti su più sistemi senza la necessità di installarli. È infatti possibile creare degli eseguibili autonomi, comprendenti tutti i file necessari per eseguire le applicazioni sfruttando l’hardware di sistema senza interessare nello specifico il sistema operativo, che rimane isolato e protetto anche nel caso in cui si verificassero dei problemi di sicurezza. Tale approccio consente di gestire centralmente il software e di rimuoverlo in qualsiasi momento dal sistema senza lasciare alcuna traccia. Logicamente non è possibile virtualizzare tutte le applicazioni, in quanto alcune necessitano per design di un minimo di integrazione con il sistema operativo, il che vanificherebbe del tutto il concetto di isolamento su cui si basano. È inoltre opportuno ricordare come la virtualizzazione delle applicazioni non esonera in alcun modo dal possesso e dal rispetto delle condizioni d’uso della licenza software.

Virtualizzazione di memoria

La virtualizzazione della memoria (o storage) si basa su un pool di archiviazione basato sulla distribuzione di varie risorse di storage aziendali, a prescindere dalla loro tipologia (hard disk, NAS, memorie flash, unità a nastro, ecc.). L’obiettivo è astrarre possibilmente un’unica risorsa di archiviazione astraendo tutte quelle fisicamente presenti nei sistemi informatici dell’azienda.

I software di virtualizzazione storage consentono di creare dei pool da assegnare alle applicazioni che richiedono i file necessari al loro funzionamento. Le unità logiche possono ad esempio superare la capienza dei supporti di archiviazione fisici, il che consente una flessibilità più elevata nella soddisfazione delle esigenze attraverso la suddivisione delle risorse di archiviazione, ai fini di sfruttarlo nella maniera più efficiente possibile.

I dischi virtuali possono essere formati in maniera analoga a quanto avviene nel caso della virtualizzazione dell’hardware, utilizzando uno storage hypervisor che consente, tra l’altro, di gestire lo scambio dei file, le tabelle di mapping e la ricerca dei metadati.

Esiste inoltre la possibilità di virtualizzare lo storage utilizzando i disk array con le tecnologie RAID (Redundant Array of Independent Disks). In questo caso è attivo uno storage controller generale che si occupa di gestire gli storage controller presenti sui singoli dispositivi di archiviazione connessi. Si tratta del metodo utilizzato nei NAS (Network Attached Storage).

Esiste infine la possibilità di avvalersi dell’archiviazione basata sulla rete, come nel caso dei SAN (Storage Area Network) che uniscono le risorse di memoria presenti in rete per dare luogo ad un unico pool di archiviazione virtuale. L’elemento decisivo in questo caso è costituito da un controller centrale di rete, come uno switch, che definisce il livello di astrazione rispetto alle unità fisiche connesse alla rete stessa. Il vantaggio sostanziale dell’archiviazione basata sulla rete consiste nella gestione di molte unità fisiche attraverso un unico pannello di controllo, per semplificare tutte le operazioni relative allo storage management. Pur basandosi sul medesimo concetto, i vari provider offrono tecnologie differenti, basate sulla virtualizzazione simmetrica, piuttosto che su quella asimmetrica, con i relativi pro e contro in termini di impiego di software specifici e latenze generali, che vanno valutati caso per caso ai fini di configurare il SAN più adatto per le esigenze aziendali.

Virtualizzazione di dati

Nel caso della virtualizzazione dei dati si assiste ad una varietà di soluzioni che impiega una copia master per creare una riproduzione virtuale dell’insieme di dati, ai fini di potervi accedere in modo astratto, senza modificare la posizione dei file originali. In questo modo è possibile estrarre i dati da varie fonti per strutturarli in veri e propri database.

I software di virtualizzazione dei dati effettuano questa operazione attraverso un accesso in tempo reale ai dati fisici, in modo da avere una situazione sempre aggiornata. L’aggregazione operata da tali software sfrutta i dati distribuiti sui data warehouse o sui data lakes, con la capacità di ridurre anche sensibilmente lo spazio di archiviazione necessario. I dati virtualizzati sono predisposti alla gestione e all’analisi da parte di altri software, come quelli basati sull’intelligenza artificiale, come nel caso dei Big Data & Analytics.

Virtualizzazione di reti

In maniera del tutto simile all’hardware, la virtualizzazione di reti astrae le risorse rispetto ai sistemi fisici, con il generico obiettivo di aggregare le risorse di rete per creare delle singole unità virtuali, piuttosto che suddividere le risorse di rete fisiche in varie unità da distribuire per soddisfare, in ogni caso, le esigenze puntuali da parte degli utenti.

Le risorse di rete possono essere pertanto amministrate centralmente e scalate in maniera dinamica in funzione dei carichi di lavoro attivi sul sistema. I tre esempi di virtualizzazione di rete più diffusi sono con ogni probabilità:

  • Le Virtual Private Network (VPN): nella sua definizione più semplice è una rete virtuale basata su una rete fisica ai fini di creare connessioni sicure. Il caso ricorrente di VPN, divenuto molto celebre nel lavoro in remoto, si ha per garantire ad un utente in remoto di accedere attraverso un “tunnel” alla rete privata aziendale, per accedere ai dati presenti sui server o sui pc in ufficio. La sicurezza della connessione, di base non sicura, soprattutto se attiva attraverso la rete internet, viene garantita da appositi sistemi di crittografia e autenticazione via software.
  • Le Virtual Local Area Network (VLAN): virtualizza il funzionamento di una rete connessa ad un router/switch, con logiche che consentono ai dispositivi connessi di comunicare soltanto all’interno della stessa VLAN. Non è infatti possibile connettere VLAN differenti, del resto nemmeno nel caso di una rete LAN fisica.
  • I Software-Defined Networking (SDN): utilizza il disaccoppiamento del piano di controllo virtuale dalla rete fisica, che viene utilizzata per l’inoltro dei pacchetti di dati in rete.