Un bambino di otto anni apre YouTube per guardare un tutorial su Minecraft. Dieci minuti dopo sta guardando un video con contenuti che nessun genitore vorrebbe mai vedere sullo schermo di suo figlio. Non è un caso isolato, non è un’esagerazione: è quello che succede ogni giorno, in milioni di case, in tutto il mondo.
In occasione del Safer Internet Day 2026, Google ha annunciato una serie di nuovi strumenti pensati per la protezione dei minori online: filtri più granulari su YouTube Kids, controlli parentali potenziati su Android e nuove funzionalità di SafeSearch. Ma queste novità, per quanto benvenute, sollevano una domanda più profonda. Quanto può fare la tecnologia da sola? E chi è davvero responsabile della sicurezza digitale dei più giovani?
Il problema è più grande di un filtro
I numeri parlano chiaro. Secondo i dati Eurostat più recenti, oltre il 90% dei bambini europei tra i 7 e i 12 anni usa regolarmente internet. In Italia, l’età media del primo smartphone personale si aggira intorno ai 10 anni. E il tempo medio di esposizione agli schermi per i minori è quasi raddoppiato rispetto al periodo pre-pandemia.
Il punto non è demonizzare la tecnologia. Internet è un posto straordinario per imparare, creare, connettersi. Il punto è che gli ambienti digitali vengono progettati, nella maggior parte dei casi, pensando a utenti adulti. Le interfacce, gli algoritmi di raccomandazione, i meccanismi di engagement: tutto è ottimizzato per massimizzare il tempo di permanenza, non per proteggere un tredicenne dalla pressione sociale o da contenuti inappropriati.
Google, con i suoi ultimi aggiornamenti, sta provando a intervenire su questo fronte. I nuovi controlli permettono ai genitori di impostare limiti di tempo più precisi, di filtrare categorie specifiche di contenuti e di ricevere report settimanali sull’attività online dei figli. È un passo avanti. Ma resta il fatto che stiamo parlando di cerotti su un sistema che, alla base, non è stato pensato per i minori.
La responsabilità di chi scrive codice
Chi sviluppa software ha una responsabilità che va oltre la funzionalità del prodotto. Quando crei un’app, una piattaforma, un servizio digitale che verrà usato anche da minorenni (e diciamocelo: quasi tutti lo saranno), le scelte di design diventano scelte etiche.
Prendiamo la moderazione dei contenuti. Per anni è stata trattata come un problema da risolvere a posteriori, con team di moderatori umani sottopagati che passavano ore a guardare i peggiori contenuti immaginabili. Oggi le aziende più strutturate usano sistemi di AI per il filtraggio automatico, ma la realtà è che molte startup e PMI che sviluppano prodotti digitali non hanno né le risorse né le competenze per implementare sistemi di moderazione efficaci.
E poi c’è la questione della privacy. Il GDPR e il più recente Digital Services Act europeo impongono standard precisi per il trattamento dei dati dei minori. Ma la compliance legale è una cosa, la protezione reale è un’altra. Quante app chiedono l’età dell’utente con un semplice campo di testo dove chiunque può scrivere “18”? Quanti servizi raccolgono dati comportamentali di minorenni senza che i genitori ne siano consapevoli?
In Bajara lavoriamo quotidianamente con aziende che ci chiedono di sviluppare piattaforme e applicazioni. E una delle domande che poniamo sempre, fin dalla fase di progettazione, è: “Questo prodotto potrebbe essere usato da un minore? Se sì, come lo proteggiamo?” Non è una domanda retorica. È una scelta di design che influenza l’architettura del software, la gestione dei dati, le interfacce utente.
Privacy by design: non è solo un termine alla moda
Il concetto di privacy by design esiste da decenni, ma è diventato un obbligo legale con il GDPR. L’idea è semplice: la protezione della privacy non deve essere un’aggiunta successiva, ma un principio fondamentale della progettazione del software.
Per i prodotti usati dai minori, questo significa diverse cose concrete.
La raccolta dei dati deve essere minimale. Se un’app per bambini non ha bisogno della geolocalizzazione per funzionare, non deve chiederla. Punto. Non “potrebbe servirci in futuro per funzionalità aggiuntive”, non “ci aiuta a migliorare il servizio”. Se non serve, non si raccoglie.
Le impostazioni predefinite devono essere le più restrittive possibile. Un profilo creato da un minore dovrebbe partire con la massima privacy attiva, non il contrario. Sembra ovvio, eppure la maggior parte delle piattaforme social fa esattamente l’opposto: profili pubblici di default, messaggi aperti a tutti, geolocalizzazione attiva.
I meccanismi di consenso devono essere reali, non teatrali. Un popup con un muro di testo legale e un bottone “Accetto” non è consenso informato, men che meno quando l’utente ha dodici anni. Servono spiegazioni chiare, in linguaggio adatto all’età, con la possibilità concreta di dire no senza perdere l’accesso al servizio.
Gli algoritmi non sono neutri
C’è un elefante nella stanza di cui si parla ancora troppo poco: gli algoritmi di raccomandazione. Quei sistemi che decidono cosa vedrai dopo, cosa apparirà nel tuo feed, quali contenuti ti verranno suggeriti.
Per un adulto, un algoritmo che ti spinge verso contenuti sempre più estremi per tenerti incollato allo schermo è fastidioso. Per un adolescente in un momento di fragilità, può essere pericoloso. Le inchieste degli ultimi anni, da quelle del Wall Street Journal ai documenti interni di Meta resi pubblici, hanno dimostrato che le piattaforme social sono perfettamente consapevoli dell’impatto dei loro algoritmi sulla salute mentale dei giovani utenti.
Google, con le ultime modifiche a YouTube, ha introdotto la possibilità di disattivare l’autoplay per gli account minori e di limitare le raccomandazioni a canali verificati. È un inizio. Ma la vera domanda è: perché queste opzioni non erano attive di default fin dal primo giorno?
La risposta, ovviamente, è economica. Meno tempo sullo schermo significa meno pubblicità visualizzata, meno dati raccolti, meno ricavi. E qui sta il nodo: finché il modello di business delle piattaforme digitali sarà basato sulla cattura dell’attenzione, ci sarà sempre un conflitto di interessi tra profitto e protezione dei minori.
Cosa possono fare concretamente i genitori
Parliamo anche dell’altro lato della medaglia. Le aziende tech hanno le loro responsabilità, ma i genitori non possono delegare completamente la sicurezza digitale dei figli alla tecnologia.
Il primo passo, e probabilmente il più importante, è la conversazione. Parlare con i figli di cosa fanno online, di cosa vedono, di come si sentono quando usano certi servizi. Non in modo inquisitorio, ma con curiosità genuina. I ragazzi che sentono di poter parlare apertamente con i genitori delle loro esperienze online sono molto più protetti di quelli che hanno il parental control più sofisticato del mondo ma nessuno con cui confrontarsi.
Il secondo passo è conoscere gli strumenti. I controlli parentali esistono su praticamente ogni dispositivo e piattaforma: Family Link di Google, Screen Time di Apple, le impostazioni famiglia di Microsoft. Non sono perfetti, ma sono un buon punto di partenza. Il problema è che molti genitori non sanno nemmeno che esistono, o non sanno come configurarli.
Il terzo passo è dare l’esempio. Un genitore che sta costantemente con lo smartphone in mano, che controlla le notifiche durante la cena, che scorre i social prima di dormire, sta insegnando ai figli che quel comportamento è normale. I bambini imparano più da quello che vedono che da quello che sentono.
E poi c’è la questione dell’età. Non esiste un’età giusta universale per dare uno smartphone a un bambino, ma esiste un principio ragionevole: aspettare che il bambino abbia sviluppato un minimo di pensiero critico e capacità di autoregolazione. Un bambino di sette anni non ha gli strumenti cognitivi per gestire un feed infinito di contenuti. Un ragazzino di undici probabilmente nemmeno, anche se i suoi compagni di classe ce l’hanno tutti.
Il ruolo della scuola e delle istituzioni
C’è un terzo attore che spesso viene dimenticato in questa conversazione: la scuola. L’educazione digitale dovrebbe essere parte integrante del curriculum scolastico, non un’ora opzionale gestita dall’insegnante di tecnologia che per caso sa usare un computer meglio degli altri.
In Italia qualcosa si muove. Il Piano Nazionale Scuola Digitale esiste da anni, ma la sua implementazione è stata disomogenea. Alcune scuole hanno programmi di media literacy eccellenti, altre sono ancora ferme alle slide di PowerPoint. La formazione degli insegnanti su questi temi è ancora carente, e spesso i docenti si trovano a dover affrontare situazioni di cyberbullismo o esposizione a contenuti inappropriati senza avere gli strumenti per farlo.
Le istituzioni europee, dal canto loro, stanno spingendo forte sulla regolamentazione. Il Digital Services Act impone alle piattaforme online obblighi specifici per la protezione dei minori, inclusa la valutazione dell’impatto dei loro servizi sui giovani utenti. Il Children’s Code britannico, anche se post-Brexit, ha fatto scuola a livello internazionale con i suoi 15 standard per la progettazione di servizi digitali usati dai bambini.
Ma le leggi, per quanto ben scritte, funzionano solo se vengono applicate. E l’applicazione richiede risorse, competenze tecniche e volontà politica.
Verso un internet più sicuro (davvero)
Non esiste una soluzione unica al problema della sicurezza online dei minori. Serve un approccio che coinvolga tutti: le aziende tech che progettano i prodotti, gli sviluppatori che li costruiscono, i genitori che li mettono nelle mani dei figli, le scuole che formano i cittadini digitali di domani, le istituzioni che scrivono le regole.
Il Safer Internet Day serve proprio a questo: a ricordarci che la sicurezza digitale non è un problema di qualcun altro. È un problema di tutti.
Per chi sviluppa software, il messaggio è chiaro: pensare alla sicurezza dei minori non è un extra, non è una feature da aggiungere alla versione 2.0. È un requisito fondamentale, al pari della sicurezza informatica o dell’accessibilità. Ogni decisione di design, dalla scelta di quali dati raccogliere a come funziona l’algoritmo di raccomandazione, ha un impatto potenziale sulla vita di un bambino.
Per i genitori, il messaggio è altrettanto diretto: gli strumenti tecnologici sono utili, ma non sostituiscono la presenza, il dialogo, l’esempio. La migliore protezione per un bambino online è un adulto attento offline.
E per tutti noi, come società, il messaggio è forse il più scomodo: finché accetteremo un modello di internet basato sulla monetizzazione dell’attenzione senza porci domande su chi paga il prezzo più alto, i passi avanti saranno sempre insufficienti. I nuovi filtri di Google sono benvenuti.
Che tipo di internet vogliamo costruire per chi verrà dopo di noi?

