C'è una cosa che molti titolari di PMI italiane mi dicono in privato, di solito a metà di un caffè dopo una riunione: "non so cosa stiano combinando i miei con ChatGPT, ma qualcosa stanno combinando". Hanno ragione. E di solito stanno sottostimando la portata del fenomeno.
Lo Shadow AI è la nuova Shadow IT. Ricordi quando i dipendenti caricavano file aziendali su Dropbox personali perché il sistema interno era lento? Stessa identica dinamica, ma con un dettaglio che cambia tutto: il dato non viene solo archiviato altrove, viene anche dato in pasto a un modello che lo elabora, lo riformula e in alcuni casi lo riusa per addestrare versioni successive. Il bilancio del trimestre, la lista clienti, il contratto in negoziazione, la mail che il commerciale stava preparando per il fornitore difficile.
Tutto materiale che, in teoria, non dovrebbe mai uscire dal perimetro aziendale. In pratica, esce ogni giorno.
Una ricerca di Cyberhaven pubblicata a inizio 2025 indicava che circa l'11% dei dati che i dipendenti incollano su strumenti di AI generativa contiene informazioni sensibili. Su scala media azienda, parliamo di centinaia di episodi al mese. E sono solo quelli misurabili: i tool di osservabilità non vedono cosa succede sui telefoni personali, sui PC casalinghi durante lo smart working, sugli account che il dipendente ha creato con la mail privata.
Non è un problema teorico. È un problema operativo, e ti tocca gestirlo adesso, non a regolamento europeo recepito.
Perché succede in Italia in modo particolare
Il contesto italiano ha alcune caratteristiche che peggiorano la situazione. La prima è la dimensione media delle imprese: tante PMI sotto i 50 dipendenti, senza un IT manager dedicato, con sistemi informativi accumulati negli anni e mai davvero coordinati. Quando un commerciale apre ChatGPT per riassumere un capitolato, nessuno gli ha mai detto se può o non può farlo. Spesso nessuno ci ha pensato.
La seconda è la pressione produttiva. Le aziende italiane lavorano con margini stretti, scadenze serrate e team sottodimensionati. Se un'AI ti fa risparmiare quaranta minuti su una traduzione tecnica o due ore su un'analisi di mercato, la tentazione di usarla è enorme. E qui sta il punto che molti dirigenti non vogliono sentirsi dire: i tuoi dipendenti la stanno usando perché funziona, e perché tu non hai dato loro un'alternativa decente.
La terza è la formazione. Il livello di alfabetizzazione sull'AI in Italia, anche tra impiegati con titoli di studio elevati, è ancora basso. Molti pensano che incollare un documento su ChatGPT sia equivalente a usare Google Translate. Non lo sanno, e di solito nessuno glielo ha mai spiegato in modo semplice.
Risultato: hai uno strumento potente, una pressione produttiva alta, una formazione assente e zero policy. È esattamente la condizione per generare un disastro silenzioso.
I tre segnali che dovresti riconoscere
Non sto per darti una checklist da consulente. Ti dico cosa ho visto in concreto in aziende italiane di varia dimensione, e che ti permette di capire in pochi giorni se hai un problema di Shadow AI sotto il tappeto.
Segnale 1: documenti aziendali con stile "troppo pulito"
Inizia da una cosa banale. Vai a leggere alcune mail interne, alcune relazioni, alcuni capitolati che girano nel reparto commerciale o marketing. Se trovi testi con una struttura sospettosamente perfetta, transizioni levigate, frasi prive di errori ma anche di personalità, hai probabilmente individuato output di un LLM passato attraverso un copia-incolla.
Il punto non è il fatto in sé. Un dipendente che usa l'AI per migliorare la forma di una mail in inglese sta facendo una cosa sensata. Il punto è capire cosa è entrato in input. Se la mail interna che ti suona "strana" parla di un cliente con nome e cognome, di importi specifici, di clausole contrattuali, è quasi certo che quel materiale sia stato incollato dentro un prompt.
Domanda da farsi: dove è finito quel testo? In quale account? Su quale piattaforma? Con quale informativa privacy? Nove volte su dieci nessuno saprà rispondere.
C'è un modo pratico per verificare. Chiedi al dipendente, senza fare l'inquisitore, "questa parte qui l'ho trovata ben scritta, l'hai fatta tu o ti sei aiutato con qualche tool?". La risposta sincera arriva quasi sempre. Le persone non nascondono di usare ChatGPT, lo dicono volentieri. Sono i dirigenti che non glielo chiedono.
Segnale 2: spike sospetti nei log di rete o nelle policy DNS
Se hai un firewall serio, anche un Fortinet o un Sophos di fascia media, puoi guardare il traffico in uscita verso domini come chat.openai.com, claude.ai, gemini.google.com, perplexity.ai, copilot.microsoft.com e una decina di altri. Quasi sempre il volume è molto più alto di quanto i responsabili IT immaginino.
Non sto dicendo di mettere in piedi un sistema di sorveglianza sui dipendenti. Sto dicendo che, prima di scrivere policy, ti serve una baseline di realtà. Quanti utenti unici accedono a strumenti AI durante l'orario di lavoro? Per quanto tempo? Con che frequenza?
Una PMI italiana di 35 persone con cui abbiamo lavorato pensava di avere "due o tre persone curiose" che usavano l'AI. Quando hanno guardato i log, erano ventidue. Su trentacinque. Tutti, ogni giorno, con account personali registrati su mail private.
Il dato di partenza ribalta la conversazione. Non stai più discutendo se il tema sia rilevante, stai discutendo come gestirlo.
Segnale 3: i dipendenti chiedono "posso usarlo?" o, peggio, smettono di chiederlo
Questo segnale è più psicologico e per questo molti lo ignorano. Se nei mesi scorsi qualcuno ti ha chiesto "posso usare ChatGPT per il mio lavoro?" e tu hai risposto in modo vago o evasivo, oggi quel dipendente lo sta usando. Lo sta usando senza dirtelo perché ha capito che non vuoi affrontare il discorso.
C'è anche il caso opposto, ancora più diffuso: nessuno ti chiede niente. Non perché non ne facciano uso, ma perché lo considerano normale come aprire Google. Se nelle riunioni di team non sentirai mai nominare ChatGPT, Claude o Copilot, non significa che non lo usano. Significa che lo usano in clandestinità, e che la cultura aziendale non offre uno spazio per parlarne.
Una piccola prova: nella prossima riunione di staff, chiedi apertamente, senza tono accusatorio, "qualcuno qui usa AI per il proprio lavoro? Mi interessa capire come". Se ottieni silenzio o risposte imbarazzate, hai un problema di trasparenza. Se ottieni una conversazione vivace con esempi concreti, sei in una posizione migliore di quanto pensassi.
Perché vietare non funziona (e quasi sempre peggiora le cose)
C'è una reazione tipica del dirigente italiano davanti a questo problema: "allora blocchiamo tutto, vietiamo l'uso, mettiamo una circolare".
È la cosa peggiore che tu possa fare, e te lo spiego senza sconti.
Primo motivo: non puoi davvero bloccarlo. Anche se filtrassi i domini noti dei modelli AI dal firewall aziendale, i dipendenti userebbero il telefono personale durante la pausa pranzo, l'hotspot mobile, il PC di casa la sera. Hai trasformato un comportamento visibile in un comportamento invisibile, e l'hai reso peggiore.
Secondo motivo: i divieti generano risentimento. Le persone capaci, quelle che ti servono di più, sentono il blocco come una sfiducia o, peggio, come un ostacolo alla loro produttività. Alcuni cominciano a pensare che l'azienda sia in ritardo. Qualcuno comincia a guardarsi intorno.
Terzo motivo: stai rinunciando a un vantaggio competitivo reale. L'AI generativa, usata bene, abbassa i costi operativi del 15-30% in molti processi white collar. Se la blocchi senza darti un'alternativa, stai regalando margine ai concorrenti più rapidi. E ti garantisco che ce ne sono.
Quarto motivo: il divieto fa male alla cultura aziendale. Trasforma il tema "come usiamo questi strumenti" da conversazione adulta a gioco del gatto e del topo. Il giorno in cui scopri un incidente serio, scoprirai anche che era prevedibile da mesi e che nessuno te ne aveva parlato perché aveva paura.
Esiste un caso, e uno solo, in cui ha senso un divieto temporaneo: quando lo accompagni a una roadmap chiara di "ecco cosa faremo nei prossimi sessanta giorni per darvi gli strumenti giusti". Senza quella roadmap, il divieto è inutile. Anzi, è dannoso.
Cosa fare invece: la strategia in tre livelli
Qui passo da diagnosi a ricetta. Non è una ricetta universale, ma è quella che ho visto funzionare in aziende italiane sotto i 250 dipendenti, dove di solito non hai un CISO e non hai mezzo milione da buttare in consulenze.
Livello 1: una policy AI scritta in italiano comprensibile
Una policy di due pagine, non venti. Scritta in modo che la legga davvero un commerciale o un addetto amministrazione. Deve rispondere a queste domande:
Cosa è permesso fare. Esempio concreto: "puoi usare ChatGPT per riformulare una mail, riassumere un articolo pubblico, generare bozze di testo che poi rivedi tu". Cosa è vietato fare. Esempio concreto: "non puoi incollare dentro ChatGPT documenti che contengano nomi di clienti, importi, dati personali di colleghi, contratti, file su cui hai dubbi". Cosa fare in caso di dubbio. Punto di contatto interno (un nome, una mail), tempi di risposta ragionevoli.
La policy deve essere firmata, ma non come adempimento burocratico. Deve essere accompagnata da un'ora di formazione live, fatta da qualcuno che sappia di cosa parla, con esempi pratici tratti dal lavoro reale dei dipendenti. Non un PDF mandato per mail, mai.
Livello 2: tooling autorizzato e di qualità
Questa è la parte che le aziende sbagliano più spesso. Pensano che basti la policy. Non basta. Se non offri ai tuoi un'alternativa AI seria, sicura e davvero utile, torneranno alla versione personale di ChatGPT entro tre settimane. È inevitabile, e te lo dice uno che lo ha visto succedere più volte.
Cosa significa "tooling autorizzato"? Almeno una di queste opzioni, scelta in base al tuo budget e alla criticità dei dati:
Account aziendali ChatGPT Team o Enterprise (oppure Claude for Work, o Copilot for Microsoft 365 se sei già in casa Microsoft). Il punto chiave è la clausola contrattuale "no training", che impedisce al fornitore di usare i tuoi dati per addestrare i modelli. Su questo non si discute, deve esserci, scritto e nero su bianco.
Una soluzione self-hosted o tramite endpoint privato (Azure OpenAI Service, AWS Bedrock, modelli open weight serviti su infrastruttura tua) per i casi in cui hai dati molto sensibili o vincoli di compliance specifici (sanità, finanza, pubblica amministrazione).
Strumenti verticali integrati nei tuoi software gestionali. Molti CRM e ERP stanno integrando funzionalità AI native con garanzie di data residency e segregazione. Se il tuo CRM ne offre una decente, di solito è la prima cosa da abilitare, perché evita il copia-incolla.
Costi indicativi per una PMI di 30-50 persone: dai 20 ai 60 euro per utente al mese, a seconda della soluzione. È una cifra ridicola rispetto al costo di un singolo data leak gestito male.
Livello 3: monitoraggio leggero e cultura della trasparenza
Monitoraggio pesante, in stile DLP enterprise, di solito è oltre le possibilità di una PMI. Però puoi fare qualcosa di più leggero e ugualmente efficace.
Configurare il browser aziendale (su PC corporate) per registrare i domini AI visitati, senza loggare il contenuto. Ti dà una baseline aggregata, non identifica il singolo, non viola lo statuto dei lavoratori se lo fai con le procedure giuste e con accordo sindacale dove richiesto.
Definire alert su volumi anomali di upload verso domini AI noti, gestiti da un firewall di nuova generazione. Anche qui parliamo di metriche aggregate, non di sorveglianza individuale.
Soprattutto, costruire una cultura in cui i dipendenti possono dire "ho usato AI per fare questa cosa" senza paura. Una review interna mensile, anche di mezz'ora, dove qualcuno racconta un caso d'uso utile, vale più di tre policy. Le aziende dove l'AI viene discussa apertamente sono le aziende dove se ne fa un uso più sicuro.
Un cenno al quadro normativo
Senza fare un trattato di diritto: l'AI Act europeo, che entra progressivamente in vigore tra il 2025 e il 2027, introduce obblighi specifici per i datori di lavoro che usano sistemi AI nei processi HR e in alcuni contesti decisionali. Il GDPR, per quanto pre-AI, si applica eccome a tutti i casi di trattamento dati personali tramite LLM. Se un dipendente incolla in ChatGPT un elenco con nomi e cognomi di clienti, sei tu, come azienda, a essere titolare del trattamento e a doverne rispondere.
Il problema pratico è che la maggior parte delle aziende italiane non ha mai mappato i flussi di dati verso strumenti AI. Lo scopre il giorno di un'ispezione o di un incidente. Anticiparla richiede poco: una mappatura fatta una volta sola, mantenuta aggiornata, costa qualche giornata di lavoro e ti toglie un rischio enorme.
Il tema su cui non vuoi sbagliare: il cliente
C'è un aspetto che spesso passa in secondo piano nelle discussioni interne, e che secondo me dovrebbe essere il primo. Cosa direbbe il tuo cliente più importante se sapesse che la sua proposta commerciale, la sua mail riservata, il suo contratto in negoziazione, sono finiti dentro un prompt su un account ChatGPT personale di un tuo impiegato?
In molti settori (legale, sanitario, finanziario, consulenza) la risposta è molto semplice: ti perde. Subito. E forse fa pure causa.
Anche fuori da quei settori, la fiducia è un asset che si costruisce in dieci anni e si perde in dieci minuti. La conversazione sull'AI in azienda, alla fine, è una conversazione su come continuare a meritare la fiducia di chi ti paga.
Che cosa fare lunedì mattina
Se sei arrivato fin qui, immagino tu voglia un piccolo elenco di azioni pratiche. Te lo do, ma in formato discorsivo perché odio i bullet point in chiusura.
La prima cosa, lunedì mattina, è una riunione di trenta minuti con chi gestisce IT (anche se è un fornitore esterno) e con il responsabile commerciale o operativo. Non per scrivere policy. Per fare una domanda: "abbiamo idea di chi e come stia usando AI in azienda?". Se la risposta è "non lo sappiamo bene", quella è la priorità delle prossime due settimane.
La seconda è una mappatura veloce, qualche giorno di lavoro al massimo. Quali strumenti AI girano. Su quali dispositivi. Con quali account. Per fare cosa. La fai parlando con le persone, non spiandole.
La terza è una scelta strategica. Decidi se introdurre un tool aziendale autorizzato, e quale. Anche una scelta imperfetta è meglio del nulla. Puoi sempre cambiare in sei mesi.
La quarta è la policy, che a quel punto scrivi in mezza giornata perché hai già tutto il contesto.
La quinta, e qui mi gioco un consiglio personale, è non delegare interamente la cosa. Non firmare un mandato a un consulente che ti porti un PDF di settanta pagine. Ti serve qualcuno che ti aiuti a impostare le scelte e poi ti lasci una struttura snella che puoi davvero gestire.
Su questo tema in particolare, in Bajara abbiamo affiancato diverse PMI italiane nella mappatura dello Shadow AI e nella scelta di soluzioni AI integrate nei loro software gestionali. Quello che vediamo di più non sono problemi tecnici. Sono aziende che hanno smesso di parlare con i propri dipendenti del modo in cui lavorano davvero. Risolvere quella parte, di solito, risolve metà del problema.
Una domanda finale, più scomoda
Te la lascio come ultima riga, perché secondo me è la più importante. Se domani il tuo principale cliente ti chiedesse, in modo diretto, "come gestite l'uso di strumenti AI con i nostri dati?", sapresti rispondere con qualcosa di credibile?
Se la risposta è no, sai cosa fare questa settimana.

