Art. 4 AI Act: 100 giorni per formare chi usa ChatGPT in azienda (e chi lo usa di nascosto)
01 ·Tre scene che succedono ogni giorno nelle PMI italiane
Il commerciale incolla l'offerta appena uscita dall'ufficio gare (prezzi, sconti, margine) dentro ChatGPT versione gratuita, e chiede "rendimelo più persuasivo".
La responsabile HR carica venti curriculum su un tool di screening automatico che ha scoperto su LinkedIn tre settimane fa, per avere una shortlist "veloce".
Il capo reparto manutenzione condivide con un chatbot pubblico la configurazione di una macchina CNC, incluse le password di accesso al PLC, per capire un errore ricorrente.
Nessuno di questi tre ha chiesto il permesso. Nessuno di loro è un "tecnico AI". Nessuno di loro, probabilmente, sa neanche cosa sia l'AI Act.
Ma tutti e tre sono, ai sensi dell'Articolo 4 del Regolamento (UE) 2024/1689, "persone che si occupano del funzionamento e dell'utilizzo dei sistemi di IA per conto" della vostra azienda. E se la vostra azienda non ha documentato la loro formazione, dal 2 agosto 2026 siete nel perimetro delle sanzioni. Mancano meno di 100 giorni.
Questo articolo spiega esattamente cosa dice l'Art. 4, cosa rischiate, perché la Shadow AI rende il problema molto peggiore di quello che sembra. E, fatto pratico, come coprire il costo della formazione con i due bandi pubblici in scadenza a maggio e giugno 2026.
02 ·Cosa dice davvero l'Art. 4 (e perché riguarda anche chi non "sviluppa AI")
L'Articolo 4 è una delle norme più brevi e più ignorate dell'intero Regolamento. Il testo ufficiale:
"I fornitori e i deployer di sistemi di IA adottano misure per garantire, nella misura del possibile, un livello sufficiente di alfabetizzazione in materia di IA del proprio personale e di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto, tenendo conto delle conoscenze tecniche, dell'esperienza, dell'istruzione e della formazione di tali persone e del contesto in cui i sistemi di IA devono essere utilizzati."
Due parole contano: fornitori e deployer. I fornitori sono quelli che sviluppano o commercializzano sistemi di IA (tipicamente, non siete voi). I deployer sono quelli che li usano in un contesto professionale. Deployer lo è chiunque adoperi ChatGPT per scrivere una mail al cliente, Copilot per sistemare un Excel, un chatbot per rispondere alle FAQ del sito.
La Commissione Europea ha tagliato corto qualsiasi dubbio nelle FAQ del 12 maggio 2025: l'obbligo di AI literacy si applica a tutte le organizzazioni i cui dipendenti usano ChatGPT, incluse quelle che non sviluppano alcun sistema proprietario. La soglia è l'uso, non lo sviluppo.
Ma cosa conta come "sistema di IA"?
L'Art. 3, n. 1 definisce il sistema di IA come "un sistema automatizzato progettato per funzionare con livelli di autonomia variabili [...] che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni".
Tradotto senza burocratese: rientra nell'AI Act qualsiasi strumento che prende un input e, in modo non deterministico, produce un output. ChatGPT, Microsoft Copilot, Claude, Gemini, i generatori di immagini, i software di screening CV automatizzato, i sistemi di credit scoring, i chatbot evoluti, la manutenzione predittiva: sono tutti dentro.
Il foglio Excel con le macro no. L'ERP che calcola la giacenza no. Il gestionale che spedisce la fattura no. Ma appena c'è un modello che "deduce", ci siete dentro.
Per il quadro completo sull'AI nelle PMI vedi il pillar "AI per PMI: come integrare l'intelligenza artificiale nei processi".
03 ·La timeline che conta (e i 100 giorni che vi restano)
Ci sono sei date nell'AI Act. Per il vostro problema specifico, la formazione, ne servono due:
La Commissione Europea ha chiarito nelle stesse FAQ del 12 maggio 2025 un punto che molti consulenti stanno comunicando male: l'obbligo esiste da febbraio 2025, le sanzioni scatteranno da agosto 2026. Non significa che potete aspettare fino a fine luglio 2026. Significa che chi arriva al 2 agosto 2026 senza aver fatto nulla è immediatamente esposto, dal giorno 1 dell'enforcement.
E significa anche che, al netto del ferragosto e della chiusura estiva tipica delle PMI italiane, i giorni utili reali per organizzare inventario, policy, formazione e documentazione sono tra i 60 e i 90.
04 ·Le multe: 15 milioni di euro, con attenuazione per le PMI
L'Articolo 99 del Regolamento stabilisce tre scaglioni sanzionatori:
| Tipo di violazione | Sanzione massima | % fatturato globale |
|---|---|---|
| Pratiche AI vietate (Art. 5) | 35.000.000 € | 7% |
| Violazione obblighi generali (incl. Art. 4) | 15.000.000 € | 3% |
| Informazioni false alle autorità | 7.500.000 € | 1% |
La mancata formazione ricade nel livello intermedio: fino a 15 milioni di euro o il 3% del fatturato mondiale annuo, a seconda di quale dei due importi è più alto.
Prima di andare nel panico: l'Art. 99(6) stabilisce che le sanzioni devono essere "effettive, proporzionate e dissuasive" e che gli Stati membri devono tenere conto della situazione specifica di PMI e startup. Per le imprese sotto i 50 milioni di fatturato si applica la soglia inferiore tra importo fisso e percentuale sul fatturato. Una PMI manifatturiera da 20 milioni di fatturato non rischia 15 milioni di multa: rischia, realisticamente, il 3% di 20M = 600.000 euro nel caso peggiore, con margini di negoziazione in funzione della gravità e della cooperazione.
Non è comunque una cifra che si assorbe facilmente a bilancio. Ed è più di quanto costi, oggi, tutta la compliance.
Casi di enforcement finora
Al momento della stesura di questo articolo (aprile 2026) non risulta ancora alcun procedimento sanzionatorio formale per violazione dell'AI Act in Europa, sia per la recente entrata in vigore del regime, sia perché l'enforcement pieno parte il 2 agosto 2026. Le autorità (in Italia ACN e AgID, vedi oltre) stanno però già facendo mappatura preparatoria.
La storia del GDPR dovrebbe insegnare qualcosa: nel 2018 anche allora "non era successo ancora niente". Le prime multe milionarie sono arrivate entro 18 mesi.
Per il quadro più ampio sull'AI Act e le sue scadenze vedi il pillar AI Act agosto 2026: è scattata la deadline.
05 ·Il nesso che nessuno sta guardando: Shadow AI + Art. 4
Qui arriviamo al punto che pochi articoli sull'AI Act stanno trattando seriamente. L'Art. 4 obbliga a formare "qualsiasi altra persona che si occupa del funzionamento dei sistemi di IA per conto" dell'organizzazione. Non dice "solo se li avete autorizzati voi".
Nel frattempo, dentro le vostre aziende:
E il dato che cambia tutto, per chi guida una PMI del Nordest:
Solo l'8% delle PMI italiane ha avviato almeno un progetto AI strutturato, contro il 71% delle grandi imprese (Osservatorio AI, Politecnico di Milano, 2025).
Leggeteli insieme. Il 68% dei dipendenti usa AI di nascosto. L'8% delle PMI ha una strategia AI. La differenza, sessanta punti percentuali di vuoto, è esattamente lo spazio in cui sta crescendo la Shadow AI. I dipendenti hanno capito che l'AI serve; l'azienda no; quindi si organizzano da soli, senza formazione, senza policy, senza log.
Un caso reale successo 5 giorni fa: il breach di Vercel
Mentre scrivo questo articolo, Vercel, una delle piattaforme cloud più usate dalle aziende tech mondiali, sta gestendo un incidente di sicurezza che è un esempio da manuale di cosa succede quando la Shadow AI non viene governata.
La catena degli eventi, ricostruita dal report ufficiale:
- Febbraio 2026: un dipendente di Context.ai, società che sviluppa un tool AI di terze parti, è infettato da un malware dopo aver scaricato uno script non lavorativo. Le sue credenziali Google Workspace aziendali finiscono nelle mani di un attaccante.
- Marzo 2026: Context.ai rileva un'attività anomala nel proprio ambiente AWS e la blocca. Ma non si accorge che, nello stesso periodo, sono stati esfiltrati token OAuth legati a integrazioni Google.
- Aprile 2026: un dipendente di Vercel aveva installato per uso personale l'app Context.ai sul proprio account Google Workspace aziendale, concedendole permessi "Allow All" inclusa la lettura di Google Drive. Un'app AI, installata autonomamente, senza policy aziendale. Shadow AI da manuale.
- 19 aprile 2026: l'attaccante usa quei permessi OAuth per prendere il controllo dell'account Google del dipendente Vercel, e da lì pivotta dentro l'infrastruttura Vercel per leggere environment variables dei clienti.
Il risultato: un numero limitato ma non trascurabile di clienti Vercel si ritrova esposto, con credenziali e API key di produzione potenzialmente leggibili da terzi. Vercel ha notificato gli affetti e ha spinto un rollout massivo di feature di cifratura. Il danno di reputazione e il lavoro di incident response costeranno milioni.
La causa prima di questa catena? Un'app AI installata da un dipendente, senza autorizzazione aziendale, con permessi eccessivi. Esattamente la situazione che l'Art. 4 dell'AI Act impone di prevenire con formazione strutturata e policy.
Se succede a Vercel, che ha un team di sicurezza dedicato, ISO 27001 in corso, processi maturi, può succedere a chiunque. La vostra PMI da 40 dipendenti, che non ha neanche un referente IT a tempo pieno, è più esposta di loro.
Il costo reale di una violazione
Una singola violazione dati legata a uso improprio di AI può costare a una PMI italiana tra 1 e 3 milioni di euro, sommando sanzioni GDPR, spese legali, danno reputazionale e interruzione delle attività (stima Confindustria su casi 2024–2025). Aggiungete sopra la potenziale sanzione AI Act sull'Art. 4 e siete sopra il milione di euro di esposizione per un singolo incidente.
E la beffa è che il vostro commerciale, quando incolla l'offerta in ChatGPT, sta agendo in buona fede. Pensa di lavorare più in fretta. Non sta sabotando nessuno. Ma giuridicamente, se succede qualcosa, il deployer (voi) risponde perché non l'ha formato.
06 ·Cosa deve includere davvero la formazione
La Commissione Europea non ha definito un syllabus obbligatorio. Ha fatto una cosa peggiore: ha lasciato il criterio come "proporzionato e personalizzato". Significa che non potete cavarvela con un corso generico da 30 minuti comprato online.
Le FAQ del 12 maggio 2025 indicano quattro dimensioni che la formazione deve coprire:
- Comprensione generale dell'AI: cos'è, come funziona, a cosa serve, quali sono i limiti e i rischi tipici.
- Calibrazione sul ruolo dell'organizzazione: siete fornitori o deployer? Quasi sempre deployer, ma cambia l'enfasi del programma.
- Comprensione dei rischi e delle misure di mitigazione: rischi specifici rispetto all'uso concreto in azienda (dati sensibili, decisioni automatizzate, bias).
- Personalizzazione per ruolo e contesto: contenuti diversi per responsabile IT, responsabile HR, operatore di produzione, commerciale.
Generica o per ruolo?
La risposta normativa è netta: per ruolo. Il Regolamento richiede esplicitamente di tener conto di "conoscenze tecniche, esperienza, istruzione e formazione" di ciascuna persona. Un unico corso uguale per tutti non è conforme, anche se è la scorciatoia che molti stanno vendendo.
La strutturazione minima che funziona:
- Livello base (tutti): consapevolezza sull'AI, rischi elementari, policy aziendale. 45–60 minuti.
- Livello funzionale (HR, finanza, produzione, commerciale): casi d'uso specifici del reparto, dati che non possono uscire, processi di approvazione. 60–90 minuti per funzione.
- Livello avanzato (IT, chi supervisiona sistemi AI): documentazione tecnica, supervisione umana, incident response, classificazione del rischio ex Allegato III.
Per riferimento concreto: il programma che PwC ha adottato internamente è articolato in quattro moduli (Introduzione all'AI, Limitazioni tecniche, AI Act Overview, Valutazione rischi) per una durata totale intorno ai 90 minuti. È un buon benchmark per il livello base, da estendere poi sui livelli funzionale e avanzato.
Un punto critico che viene sempre sottovalutato: la formazione deve coprire anche gli aspetti etici e legali, incluso l'AI Act stesso. Non è sufficiente mostrare come si apre ChatGPT e dove si clicca.
07 ·La documentazione che vi protegge
Non esiste un template ufficiale obbligatorio dell'EU AI Office. Ma la Commissione raccomanda esplicitamente di tenere un registro interno con questi elementi:
- AI inventory: registro di tutti i sistemi AI adottati in azienda (autorizzati e, dove emerge, non autorizzati).
- Attestati nominativi di partecipazione con: contenuti del corso, durata, data, ruolo del partecipante, nome del formatore.
- Verbali di eventuali sessioni di aggiornamento. La compliance non è "una tantum": quando introducete un nuovo strumento AI, scatta formazione specifica.
- Policy aziendale sull'uso degli strumenti AI, esplicita sulla Shadow AI: quali strumenti sono autorizzati, con quali dati si possono usare, cosa è vietato, procedura di richiesta per strumenti nuovi.
- Log dei sistemi AI conservati almeno 6 mesi (obbligo per sistemi ad alto rischio, buona pratica per tutti).
Chi controlla la compliance
Tre livelli:
- ACN (Agenzia per la Cybersicurezza Nazionale) e AgID (Agenzia per l'Italia Digitale), designate come autorità competenti dalla Legge 132/2025 (in vigore dal 10 ottobre 2025; l'Italia è stato il primo Paese UE a dotarsi di legge nazionale di raccordo all'AI Act). Dal 2 agosto 2026 possono fare ispezioni con poteri coercitivi.
- Auditor esterni e certificazione volontaria: non sono obbligatori, ma stanno diventando un segnale competitivo, soprattutto verso clienti corporate.
- La vostra supply chain B2B. È qui che arriverà probabilmente la pressione vera prima dell'enforcement pubblico. I grandi committenti (corporate e PA) stanno già inserendo nei capitolati la richiesta di evidenza di compliance AI Act. Se siete fornitori di secondo o terzo livello nella filiera di un'azienda soggetta a NIS2 o di una società quotata, ve lo chiederanno entro l'anno.
Se vi siete già scontrati con la complessità di gestire insieme NIS2 e AI Act, vedi il pillar "NIS2: cosa fare entro ottobre 2026": l'autorità (ACN) è la stessa, ma gli obblighi si sommano.
08 ·Sessanta giorni per pagare la compliance con soldi altrui
Arriviamo alla parte che quasi nessun articolo sull'AI Act sta trattando: in questo momento sono aperti due bandi pubblici con scadenza ravvicinata che coprono esattamente la formazione richiesta dall'Art. 4. Sono soldi a fondo perduto, non prestiti, non crediti d'imposta. Soldi che non tornano indietro.
Fondimpresa, Avviso n. 4/2025
- Dotazione totale: 5 milioni di euro
- Copertura: percorsi formativi su adozione e utilizzo dell'AI nei processi aziendali
- Modalità: fondo perduto
- Requisito: essere azienda aderente a Fondimpresa (adesione gratuita e veloce)
- Scadenza: ore 13:00 del 28 maggio 2026
Bando MIMIT 2026, Formazione PMI
- Copertura: fino al 70% delle spese di formazione digitale (incluse competenze AI e STEP)
- Modalità: contributo a fondo perduto
- Requisito: essere PMI secondo la definizione UE
- Scadenza: 23 giugno 2026 (data prorogata)
Cosa significa in pratica
Un piano formativo strutturato AI literacy per una PMI da 30 dipendenti, con livello base + livello funzionale per 3 reparti + livello avanzato per 2 persone IT, costa tra 8.000 e 15.000 euro di consulenza + erogazione, a seconda della personalizzazione. Fondimpresa può coprire fino al 100% per le aziende aderenti. MIMIT copre fino al 70%.
Scenario peggiore: pagate il 30% di 15.000 = 4.500 euro netti per essere in regola con l'Art. 4. Scenario migliore (Fondimpresa pieno): pagate zero, a parte il tempo dei vostri dipendenti.
Attenzione alle date. Entrambe le finestre si chiudono prima del 2 agosto 2026. Se perdete queste scadenze, la formazione va fatta comunque, ma la paga interamente l'azienda. È la differenza tra una compliance che costa 4k e una che ne costa 15.
09 ·Piano in 5 passi per una PMI del Nordest
Tenendo conto delle scadenze normative e delle finestre di finanziamento, la sequenza operativa che consigliamo ai nostri clienti è questa:
Passo 1. Entro maggio 2026: AI inventory
Mappare tutti gli strumenti AI in uso: quelli autorizzati (licenze Microsoft 365 Copilot, account ChatGPT Business, etc.), e soprattutto quelli non autorizzati. Un questionario anonimo ai dipendenti, fatto bene, tira fuori la Shadow AI senza colpevolizzare. Classificare ogni strumento per livello di rischio AI Act (minimo / limitato / alto).
Passo 2. Entro maggio 2026 (in parallelo): Policy uso AI
Scrivere un regolamento interno di 3–5 pagine massimo: quali strumenti sono autorizzati, per quali dati si possono usare, chi li supervisiona, procedura per richiederne di nuovi. È la misura a minore investimento e massimo impatto immediato. Fate firmare e allegate al contratto di lavoro.
Passo 3. Entro 28 maggio 2026: Presentazione domanda Fondimpresa
Se siete aderenti, è l'azione a più alto ritorno di questa sequenza. Se non siete aderenti, valutare l'adesione e virare su MIMIT (scadenza 23 giugno).
Passo 4. Entro luglio 2026: Erogazione della formazione
Programma strutturato su tre livelli (base / funzionale / avanzato). Documentare tutto con attestati nominativi, firma di presenza, contenuti del corso. Tenere le registrazioni o le slide: il registro interno deve ricostruire il "cosa è stato fatto, da chi, quando".
Passo 5. Entro agosto 2026: Registro e documentazione di conformità
AI inventory aggiornato, tutti gli attestati raccolti, policy firmata da tutti i dipendenti, log dei sistemi AI ad alto rischio impostati per la conservazione minima di 6 mesi. Questo è il plico che, se arriva un'ispezione ACN nel 2027, vi tiene fuori dalla sanzione.
E dopo?
Monitoraggio continuativo. L'AI Act non è un'etichetta "fatto". Ogni volta che introducete un nuovo strumento AI, scatta: aggiornare inventory, aggiornare policy, erogare formazione specifica, aggiornare registro. I vostri clienti B2B inizieranno a chiedervi evidenza di compliance nei capitolati entro fine 2026.
10 ·In sintesi
L'Art. 4 dell'AI Act è una norma breve, già in vigore da oltre un anno, che diventa sanzionabile il 2 agosto 2026. Riguarda tutte le PMI i cui dipendenti usano ChatGPT, Copilot o qualunque strumento AI, anche quelli che usano di nascosto. Non c'è esenzione per dimensione. C'è proporzionalità per le PMI, ma la sanzione teorica arriva al 3% del fatturato.
Le tre cose da fare non sono complicate: inventario, policy, formazione. E per 60 giorni ancora ci sono fondi pubblici che coprono fino al 100% del costo della formazione. Dopo, paga l'azienda.
La domanda che consigliamo di porsi non è "dobbiamo farlo?" (la risposta è sì, dal 2 febbraio 2025). La domanda è: lo facciamo con 4.500 euro netti sfruttando Fondimpresa entro il 28 maggio, oppure con 15.000 pagati interamente a settembre perché abbiamo aspettato?
Fonti principali
- Regolamento (UE) 2024/1689: Art. 3, Art. 4, Art. 5, Art. 62, Art. 99, Art. 113, Considerando 22
- Commissione Europea, FAQ sull'AI literacy, 12 maggio 2025
- Legge 23 settembre 2025, n. 132: "Disposizioni e deleghe al Governo in materia di intelligenza artificiale" (in vigore dal 10 ottobre 2025)
- Osservatorio AI, Politecnico di Milano, Rilevazione 2025 su adozione AI nelle imprese italiane
- Microsoft / LinkedIn, Work Trend Index 2024
- Confindustria / Un-Industria, Rilevazione Shadow AI 2025
- Gartner, Survey su 302 cybersecurity leader, novembre 2025
- Fondimpresa, Avviso n. 4/2025 (scadenza 28 maggio 2026)
- MIMIT, Bando formazione PMI 2026 (scadenza 23 giugno 2026)
- Vercel, Security Incident Report del 19 aprile 2026 (Context.ai OAuth supply chain attack)
Articolo pubblicato il 25 aprile 2026. Ultima verifica normativa: 25 aprile 2026. Aggiorneremo in caso di pubblicazione di decreti attuativi della Legge 132/2025 o di nuove FAQ della Commissione.