Professionisti europei dei settori IT e cybersecurity identificano i rischi AI-driven, specificamente i deepfake, il social engineering potenziato da modelli generativi e l'avvento di agenti autonomi malevoli, quale principale fonte di preoccupazione per il 2026


Nel contesto europeo della sicurezza informatica, l’Intelligenza Artificiale emerge certamente come forza abilitante la cybersecurity ma, al tempo stesso, come un “nuovo” fattore di esposizione al rischio. Le evidenze più recenti mostrano un salto qualitativo nella percezione delle minacce: oltre la metà dei professionisti IT e cybersecurity in Europa individua i rischi AI-driven (in particolare deepfake, social engineering potenziato da modelli generativi e l’emergere di agenti autonomi malevoli) come la principale preoccupazione per il 2026. Eppure, soltanto una minoranza dichiara di sentirsi davvero pronta a governarne gli impatti. Il dato è nitido: nella nuova indagine ISACA, solo il 14% degli intervistati afferma che la propria organizzazione sia “molto preparata” a gestire i rischi associati all’IA generativa; il resto si colloca tra una preparazione “parziale” o “insufficiente”.

Questa discrepanza tra l’intensità percepita della minaccia e le capacità organizzative di risposta non costituisce un fenomeno isolato. Le analisi condotte dall’Agenzia dell’Unione Europea per la cybersicurezza (ENISA) confermano l’accelerazione nell’utilizzo dell’intelligenza artificiale come strumento di ottimizzazione delle campagne ostili. Secondo le sintesi pubblicate nel 2025, il phishing (nelle sue diverse manifestazioni, includendo malspam, vishing e malvertising) rappresenta circa il 60% dei casi osservati, mentre l’intelligenza artificiale viene impiegata sia per la generazione di contenuti persuasivi sia per l’automazione di componenti dell’attacco. Parallelamente, ENISA segnala come le campagne di social engineering supportate da IA abbiano raggiunto, all’inizio del 2025, quote predominanti dell’attività malevola osservata a livello globale.

Minacce AI-driven: nuove dimensioni del rischio

L’impatto dell’intelligenza artificiale sulle minacce digitali non può essere ridotto a una mera dimensione quantitativa, caratterizzata da un incremento nel volume degli attacchi. Emerge invece una trasformazione qualitativa che si manifesta attraverso tre direttrici principali.

Plausibilità dei contenuti sintetici. La capacità di generare contenuti audio e video di elevata fedeltà rappresenta un salto paradigmatico nella credibilità degli artefatti digitali malevoli. La difficoltà nel distinguere contenuti autentici da quelli sintetizzati introduce una frattura epistemologica nella fiducia verso i media digitali, con implicazioni profonde per i processi decisionali aziendali che si basano su comunicazioni remote.

Scalabilità delle operazioni di inganno. L’automazione della generazione di messaggi iper-personalizzati, testati e ottimizzati attraverso cicli iterativi su vasti dataset, permette agli attaccanti di condurre campagne di ingegneria sociale con un rapporto costo-efficacia precedentemente inaccessibile. Questa caratteristica abbassa significativamente la soglia di investimento necessaria per condurre attacchi sofisticati.

Autonomia operativa degli strumenti offensivi. L’emergere di agenti autonomi capaci di esplorare superfici di attacco, orchestrare tecniche di prompt-injection, e “ragionare” sui log tecnici per mantenere la persistenza, rappresenta un’evoluzione verso sistemi offensivi auto-adattivi. Questa autonomia riduce la necessità di competenze tecniche specializzate da parte degli attaccanti e incrementa il tasso di successo delle fasi iniziali della kill chain, in particolare ricognizione, ingegneria sociale e accesso iniziale.

Modello di comprensione del “preparation gap”

Il divario di preparazione emerso dall’indagine ISACA (con appena il 14% delle organizzazioni che si dichiara “molto preparata”) può essere interpretato attraverso un modello multifattoriale che identifica almeno tre frizioni sistemiche.

Frizione di governance. Si osserva una prevalente focalizzazione sulla dimensione dell’adozione di casi d’uso dell’intelligenza artificiale, a scapito di un approccio strutturato al risk engineering e ai controlli “by design”. Questa asimmetria riflette una maturità organizzativa ancora orientata all’innovazione tecnologica come fine, piuttosto che all’integrazione sistemica di sicurezza e innovazione.

Asimmetria di competenze. Emerge una separazione tra team di sviluppo e innovazione da un lato, e funzioni di sicurezza dall’altro, con processi di modellazione del rischio specifici per l’IA generativa non ancora pienamente istituzionalizzati. Questa frammentazione organizzativa ostacola l’emersione di una cultura condivisa della gestione del rischio AI-driven.

Complessità della supply chain digitale. L’adozione crescente di servizi AI-as-a-Service e l’impiego di modelli “black box” complicano significativamente i processi di due diligence e la verifica dei controlli implementati dai fornitori. L’opacità dei meccanismi di funzionamento dei modelli generativi e la distribuzione geografica delle catene di fornitura introducono ulteriori elementi di incertezza nella valutazione del rischio.

Analisi di mercato complementari, condotte da società di consulenza globali come Accenture, confermano questa difficoltà strutturale: meno di una organizzazione su dieci si dichiara effettivamente pronta a proteggersi contro minacce cyber “aumentate” dall’intelligenza artificiale, evidenziando una sfida che trascende i confini geografici e settoriali.

Alle PMI europee è richiesto pragmatismo e sequenzialità

Per le organizzazioni di piccola e media dimensione, spesso caratterizzate dall’assenza di funzioni di Security Engineering dedicate, la chiave per una strategia di cyber resiliece efficace risiede nella capacità di sequenziare strategicamente gli interventi. L’approccio raccomandato prevede di iniziare dall’hardening dei meccanismi di identità e dall’awareness orientata al riconoscimento di deepfake, per poi consolidare le capacità di e-mail e web security e implementare controlli di Data Loss Prevention, prima di scalare verso piattaforme più complesse di governance.

I riscontri macroeconomici e settoriali (dal quadro tracciato da ENISA alle survey condotte da ISACA) suggeriscono che gli attacchi continuano prevalentemente a sfruttare l’anello umano e le vulnerabilità di base nei processi organizzativi. Concentrare gli investimenti iniziali su queste dimensioni produce il miglior ritorno in termini di riduzione del rischio. Soprattutto alla luce del fatto che l’anno 2026 si configura non semplicemente come “un ulteriore anno di cybersecurity”, ma come un banco di prova critico della maturità con cui le organizzazioni europee sapranno integrare innovazione e sicurezza. Le questioni fondamentali che emergeranno riguardano la capacità di progettare casi d’uso di intelligenza artificiale includendo a priori requisiti di affidabilità e difendibilità; la capacità di ri-addestrare persone e processi a riconoscere segnali sintetici di credibilità crescente; e la capacità di istituzionalizzare cicli di apprendimento rapido tra l’evoluzione della minaccia e l’adattamento dei controlli. La sfida che si pone di fronte alla comunità professionale europea non è quella di arrestare o limitare l’adozione dell’intelligenza artificiale, ma di accompagnarla con un livello di rigore nella gestione del rischio che sia commensurato alla profondità della trasformazione in atto.