Shadow AI in azienda: il problema è già qui, cosa fare
Mentre il consiglio di amministrazione discute la "strategia AI 2026", la commerciale al primo piano ha appena incollato l'offerta tecnica per un cliente da 200.000 euro dentro ChatGPT versione gratuita. Vuole che gliela renda "più persuasiva". Tre minuti di lavoro, problema risolto, scadenza rispettata.
Quei dati ora vivono sui server di OpenAI, in un paese che non sapete, con regole di retention che non avete letto, in un account personale collegato all'email privata della vostra dipendente. Tecnicamente: avete appena trasferito a un fornitore terzo non autorizzato dati sensibili dei vostri clienti, senza base giuridica, senza valutazione d'impatto, senza tracciatura.
È Shadow AI. E secondo l'Osservatorio Artificial Intelligence del Politecnico di Milano, su dieci dipendenti che usano l'AI in azienda, otto la usano così.
01 ·Cos'è la Shadow AI (e perché non è "Shadow IT con l'AI dentro")
La Shadow AI è l'utilizzo non autorizzato e non tracciato di strumenti di intelligenza artificiale generativa da parte dei dipendenti per svolgere attività lavorative. ChatGPT versione free aperto da account personale, Copilot installato su un browser non gestito, un chatbot trovato su LinkedIn che "filtra i CV", l'estensione del browser che "riassume le mail" — sono tutti casi.
Il termine deriva dallo Shadow IT classico, ma il salto di rischio è qualitativo, non quantitativo. Lo Shadow IT tradizionale è una Dropbox personale aperta da un commerciale: i dati vengono spostati, ma restano dati. La Shadow AI è diversa per tre ragioni precise.
Primo, gli strumenti di AI generativa trattengono e rielaborano i contenuti. Quello che incollate in un prompt può finire nei dataset di addestramento, nei log di debugging, nei sistemi di moderazione del fornitore. Anche quando il fornitore dichiara di non usare i dati per il training, la garanzia è contrattuale e spesso scompare nei piani gratuiti.
Secondo, l'AI generativa interviene direttamente sui processi decisionali. Un dipendente che usa Dropbox sposta documenti già scritti. Un dipendente che usa ChatGPT genera l'output che il cliente legge, il manager firma, l'azienda invia. La superficie di responsabilità è completamente diversa.
Terzo, la Shadow AI scala in modo invisibile. Un'app non autorizzata installata da uno è un evento. ChatGPT usato da venti persone in cinque reparti, ognuna in modo leggermente diverso, è uno standard de facto che si è formato senza che IT, Legale o la Direzione lo sapessero. Il momento in cui ve ne accorgete è quasi sempre il momento in cui è già successo qualcosa.
02 ·I numeri italiani: chi la usa, perché, dove
I dati pubblicati nel primo trimestre 2026 mostrano un fenomeno trasversale e già radicato.
Il dato che spesso sorprende: non è un fenomeno solo delle grandi aziende. La grande azienda spesso ha un account ChatGPT Enterprise visibile e governato. La PMI sotto i 50 dipendenti, invece, non ha ancora un account aziendale dichiarato — e in quel vuoto i dipendenti si organizzano da soli.
Le motivazioni sono note. Una ricerca pubblicata nel 2025 su un campione globale di 6.000 impiegati ha rilevato che chi usa Shadow AI lo fa per tre ragioni quasi sempre combinate: il 36% lo considera un "vantaggio segreto" rispetto ai colleghi; il 30% teme che la posizione sia a rischio se si scoprisse l'uso di AI; il 27% soffre di imposter syndrome ed evita di parlarne. Non si tratta di malafede. Si tratta di uno strumento che funziona troppo bene per non usarlo, in un contesto dove parlarne apertamente è percepito come rischioso.
Il punto operativo: il vostro dipendente non vi sta mentendo per nascondere qualcosa di brutto. Sta usando ChatGPT perché funziona meglio del processo aziendale che gli avete dato. Se non risolvete il secondo problema, il primo non andrà via.
03 ·Cosa rischiate davvero: i 4 livelli di esposizione
I rischi della Shadow AI si stratificano in quattro piani, ognuno con un quadro normativo e sanzionatorio diverso.
1. Privacy e GDPR
Caricare dati personali (di clienti, dipendenti, fornitori) su una piattaforma AI di terze parti non autorizzata costituisce, nella maggior parte dei casi, un trasferimento illecito di dati ai sensi del Regolamento (UE) 2016/679. Manca la base giuridica, manca la valutazione d'impatto, manca spesso il trasferimento extra-UE conforme. Le sanzioni GDPR nei casi più gravi arrivano fino a 20 milioni di euro o al 4% del fatturato mondiale annuo, applicando il valore maggiore tra i due. Il Garante italiano ha già aperto procedimenti su casi analoghi, a partire dal provvedimento d'urgenza contro OpenAI del 2023.
2. Proprietà intellettuale e segreto industriale
Il contratto da rivedere, il listino prezzi caricato per "fare un confronto", la bozza di strategia che il direttore commerciale ha "ottimizzato" con un chatbot. Tutto questo, in alcuni scenari contrattuali, può non rimanere riservato. Il tema è particolarmente acuto per i settori dove il know-how tecnico è il vero valore: studi di progettazione, manifatturiero specialistico, alimentare con ricette proprietarie. Una formulazione finita su un dataset pubblico è praticamente irrecuperabile.
3. Cybersecurity
La Shadow AI amplia la superficie di attacco: account personali non protetti da SSO, autenticazioni deboli, plug-in del browser di provenienza incerta, sessioni che restano aperte su computer condivisi. A questo si aggiungono attacchi specifici come la prompt injection, dove un input malevolo nascosto in un documento o in un'email può manipolare il comportamento di un agente AI per fargli rivelare informazioni o eseguire azioni non autorizzate.
4. Compliance NIS2 e AI Act
Le PMI nel perimetro NIS2 hanno l'obbligo di valutare la sicurezza dei propri fornitori di tecnologia. Un dipendente che usa autonomamente ChatGPT introduce un fornitore non valutato nella vostra supply chain, potenzialmente violando i requisiti di gestione del rischio dell'art. 21 del D.Lgs. 138/2024. Sul fronte AI Act, l'art. 4 (in vigore dal 2 febbraio 2025, controlli ACN pienamente operativi dal 2 agosto 2025, regime completo per i sistemi ad alto rischio dal 2 agosto 2026) impone l'obbligo di "alfabetizzazione AI" per chiunque usi sistemi di AI per conto dell'azienda — anche se l'uso è informale o non autorizzato. L'art. 4 in sé non genera una sanzione autonoma, ma la mancata formazione documentata diventa aggravante in caso di altre violazioni (data breach, uso scorretto di sistemi ad alto rischio, ecc.). Per il quadro completo vedi l'articolo dedicato all'Art. 4 AI Act e formazione obbligatoria.
Una singola violazione di dati riconducibile all'uso improprio di AI può costare a una PMI italiana tra 1 e 3 milioni di euro, considerando: sanzioni GDPR, spese legali, danno reputazionale, interruzione dell'attività, costi di notifica al Garante e ai soggetti interessati.
A questo va aggiunto il rischio di responsabilità extracontrattuale verso clienti i cui dati sono stati esposti, e — per le aziende nel perimetro NIS2 — possibili sanzioni dell'ACN per gestione inadeguata del rischio supply chain. Nei settori regolati c'è anche il rischio di perdita di certificazioni e abilitazioni a fornire enti pubblici.
04 ·Perché vietare non funziona (e cosa hanno scoperto chi ci ha provato)
La reazione istintiva del management — "vietiamo tutto, mandiamo una circolare, sanzioniamo chi non rispetta" — è dimostrabilmente la peggiore. Non per ragioni morali, ma per ragioni statistiche.
I dati Polimi 2026 mostrano che il 24% delle grandi aziende italiane ha vietato l'uso di GenAI non aziendale. Nelle stesse aziende, però, l'utilizzo dei dipendenti continua — semplicemente si sposta su dispositivi personali (smartphone, laptop privati), su account creati con email personali, su strumenti meno noti che il filtro aziendale non blocca. Il risultato netto: l'uso continua, ma diventa completamente invisibile e quindi più rischioso.
Le aziende che hanno provato il blocco totale lo descrivono in modo simile: nei primi 30 giorni l'uso ufficiale crolla, nei successivi 60 emerge un canale parallelo che IT non vede, dopo 6 mesi l'azienda è esposta come prima ma senza più alcun segnale di monitoraggio. La differenza tra prima e dopo è solo che adesso, quando succederà l'incidente, nessuno saprà spiegare come.
La logica è semplice: un dipendente che usa l'AI per fare meglio il suo lavoro non ha incentivi razionali a smettere. Ne ha solo a nasconderlo meglio. La via che funziona è opposta: rendere l'uso sicuro più facile dell'uso non sicuro.
05 ·Il piano in 60 giorni: governance Shadow AI per una PMI
Fase 1 — Mappatura non punitiva (giorni 1-15)
Obiettivo: capire cosa si usa davvero, in quali reparti, per quali compiti. Senza nomi, senza colpe, senza disciplinare.
Strumenti:
- Survey anonima distribuita a tutti i dipendenti con 8-10 domande chiuse: quali tool usate, quante volte alla settimana, per quali attività, quali dati inserite, quali vantaggi percepite
- Analisi del traffico di rete su DNS aziendale per identificare i domini AI più visitati (chatgpt.com, claude.ai, gemini.google.com, perplexity.ai, ecc.) con numero di sessioni e volume di traffico
- Interviste informali con i responsabili dei reparti più attivi per capire perché lo strumento aziendale non basta
Output atteso: un documento di 3-4 pagine con la mappa reale dell'uso AI in azienda, classificato per reparto, frequenza, sensibilità dei dati coinvolti.
Fase 2 — Policy AI aziendale (giorni 16-30)
Obiettivo: scrivere e diffondere una policy AI breve, chiara, applicabile. Non un trattato di 40 pagine.
I capitoli essenziali:
- Strumenti approvati (cosa potete usare e con quale account)
- Classificazione dati (cosa potete inserire nei prompt: dati pubblici, dati interni non sensibili, dati riservati)
- Casi d'uso vietati in modo esplicito (es: contratti firmati, dati personali identificabili, codice sorgente proprietario, dati finanziari non pubblici)
- Processo di approvazione veloce per nuovi tool (massimo 5 giorni lavorativi di valutazione)
- Conseguenze disciplinari in caso di violazione, inserite nel sistema disciplinare aziendale ai sensi dell'art. 7 dello Statuto dei lavoratori
La policy deve essere firmata da ogni dipendente e inserita nei contratti di lavoro futuri. Senza questi due passi è solo un PDF nel server condiviso.
Fase 3 — Tooling alternativo (giorni 31-45)
Obiettivo: dare ai dipendenti uno strumento aziendale che funzioni almeno come quello che usavano di nascosto. Senza questa fase, le prime due sono inutili.
| Soluzione | Costo indicativo /utente/mese | Residenza dati | Adatta a |
|---|---|---|---|
| Microsoft Copilot Microsoft 365 | 30 € | EU (con configurazione data residency) | Aziende già su ecosistema Microsoft 365 |
| ChatGPT Business / Enterprise | 25-60 € | USA (con clausola di non-training) | Aziende generaliste, esigenze flessibili |
| Claude for Work | 25-60 € | USA / EU (selezionabile) | Compiti complessi, scrittura, ragionamento |
| LLM on-premise (Mistral, Llama, Qwen) | Solo costo infrastruttura | Server aziendale | Settori regolati, dati altamente sensibili |
Per le PMI con dati particolarmente sensibili (sanitario, legale, manifatturiero specialistico) la soluzione on-premise sta diventando una scelta accessibile. Modelli open-weight di qualità (Mistral, Llama 3, Qwen) girano su hardware da 10.000-25.000 euro e mantengono il dato dentro il perimetro aziendale. Per il dettaglio operativo vedi l'approccio descritto in Constitutional AI e dati ERP.
Fase 4 — Formazione documentata (giorni 46-60)
Obiettivo: l'art. 4 dell'AI Act richiede formazione documentata per ruolo. Coincide perfettamente con quello che serve per la governance Shadow AI.
I tre livelli da erogare:
- Base (tutti i dipendenti): cos'è l'AI generativa, cosa può e non può fare, cosa NON inserire nei prompt, casi d'uso aziendali approvati. 2-3 ore.
- Funzionale (per reparto): prompt engineering specifico per il reparto (commerciale, marketing, HR, amministrazione), uso degli strumenti aziendali, casi numerici. 4-6 ore per reparto.
- Avanzato (per chi gestisce AI): governance, valutazione di nuovi strumenti, gestione incidenti. 8-12 ore per 1-2 persone.
Tutta la formazione deve essere registrata (firma, data, contenuti, attestato), perché in caso di controllo è la prova primaria della compliance art. 4.
06 ·Come finanziare il programma con i bandi 2026
Il punto che pochi articoli sulla Shadow AI affrontano: il programma di governance + tooling + formazione si può finanziare in larga parte con strumenti pubblici. I canali variano per area geografica e settore.
Fondimpresa, Avviso 4/2025 — copre formazione AI fino al 100% per le aziende aderenti (l'adesione al fondo è gratuita e si attiva con una dichiarazione in Uniemens). Aperto a tutte le aziende italiane indipendentemente dalla regione. Scadenza: ore 13:00 del 28 maggio 2026.
Fondi interprofessionali e Fondo Nuove Competenze — Fondir, Forte, Fondoprofessioni e gli altri fondi paritetici settoriali offrono finanziamenti su formazione digitale e AI literacy per le aziende aderenti al rispettivo fondo. Il Fondo Nuove Competenze (Anpal/INPS) ha sportelli che vengono riaperti periodicamente e copre il costo del personale durante le ore di formazione. Le finestre cambiano per fondo: vanno verificate al momento della pianificazione.
Bando MIMIT Formazione PMI 2026 — fino al 70% delle spese di formazione digitale, incluse competenze AI. Riservato esclusivamente alle PMI con sede operativa nelle regioni del Mezzogiorno (Basilicata, Calabria, Campania, Molise, Puglia, Sardegna, Sicilia). Per le PMI del Nord e del Centro Italia non è applicabile. Scadenza: 23 giugno 2026 (data prorogata).
Iperammortamento 2026 (L. 199/2025) — il software aziendale di AI generativa interconnesso ai processi è ammissibile alla maggiorazione fiscale fino al 180%. Aperto a tutte le aziende italiane senza limite geografico. Vedi la guida Iperammortamento 2026 per software e infrastruttura IT per il dettaglio dei beni ammissibili.
In uno scenario tipico — PMI da 30 dipendenti, programma completo (mappatura + policy + tooling Microsoft Copilot Business + formazione 3 livelli) — il costo totale lordo è tra 18.000 e 28.000 euro. Per una PMI del Nord aderente a Fondimpresa, con copertura piena della formazione e iperammortamento sul software, il costo netto effettivo per l'azienda scende sotto i 6.000-9.000 euro. Per una PMI del Sud che combina MIMIT al 70% e iperammortamento, il netto è ancora più basso. La differenza non è marginale.
07 ·I 5 errori da evitare
1. Vietare senza fornire alternative. Sposta solo il problema da visibile a invisibile. Sempre.
2. Comprare il tool aziendale prima di aver fatto la mappatura. Senza sapere cosa usano davvero i dipendenti, comprerete ChatGPT Enterprise mentre tutti hanno già adottato Claude. Risultato: paghi una licenza che non viene usata, lo Shadow AI continua.
3. Scrivere una policy di 40 pagine in legalese. Nessuno la leggerà, nessuno la rispetterà, in tribunale non vi tutelerà perché non sarà stata "adeguatamente comunicata". Una policy AI efficace sta in 4-6 pagine.
4. Considerare la formazione un evento una tantum. I modelli AI cambiano ogni 3-6 mesi, con loro cambiano le funzionalità e i rischi. Serve un refresh annuale documentato, altrimenti la compliance art. 4 decade.
5. Trattare la Shadow AI come problema solo dell'IT. È un problema trasversale: HR (per il sistema disciplinare), Legale (per privacy/IP), Direzione (per il rischio strategico), reparti (per i casi d'uso). Senza un comitato che attraversi le funzioni, il programma si arena al primo conflitto di priorità.
08 ·Domande frequenti sulla Shadow AI
Governare la Shadow AI non è un'azione tecnica isolata. È un cantiere che attraversa policy, tooling, formazione, contrattualistica giuslavoristica e — se fatto bene — finanziamento pubblico. Per le PMI senza un IT strutturato, la mossa razionale è coordinare le quattro fasi in modo unitario invece di affrontarle a pezzi separati. È esattamente il tipo di coordinamento per cui un Fractional CTO o un consulente tecnico senior fa la differenza, lavorando in tandem con il consulente del lavoro per la parte disciplinare e con il commercialista per i bandi e l'iperammortamento.
Volete partire dalla mappatura?
Il primo passo è capire cosa si usa davvero in azienda e con che livello di rischio. Una conversazione di 30 minuti è sufficiente per definire il perimetro e i prossimi passi concreti.
Prenota una call conoscitiva