01 %
AiI ragazzi europei e l’AI: sanno usarla. Non sanno capirla. E noi adulti?

I ragazzi europei e l’AI: sanno usarla. Non sanno capirla. E noi adulti?

Ogni volta che esce un report sull’AI e i giovani, il copione è lo stesso: titoli allarmistici, qualche esperto che chiede più controlli, qualche genitore preoccupato, e poi tutto torna come prima.

Il report EU Kids Online 2026 è diverso. Non perché sia più drammatico degli altri — anzi, i dati raccontano una realtà molto più sfumata di quello che i media tendono a costruire. È diverso perché per la prima volta abbiamo una fotografia seria, comparativa, costruita su 25.000 interviste in 20 paesi europei, e quella fotografia mostra qualcosa che chi fa formazione digitale dovrebbe avere sotto gli occhi.

I ragazzi l’AI la usano già. Sono loro a insegnare ai genitori come funziona. E stanno aspettando che qualcuno — un adulto, una scuola, un’istituzione — li aiuti a capirla davvero.

Nessuno lo sta facendo in modo sistematico.

I numeri, senza filtri

In Europa il 72% dei ragazzi tra 9 e 16 anni ha usato strumenti di AI generativa nell’ultimo mese. In Italia la percentuale sale all’89% — seconda solo alla Repubblica Ceca. Quasi un dato di massa.

Non stiamo parlando di teenager nerd con un PC potente. Stiamo parlando di bambini di 10 anni che aprono ChatGPT sul telefono per fare i compiti, di ragazze di 14 che usano Canva AI per i progetti scolastici, di quindicenni che chiedono a Gemini di spiegare un concetto di fisica che il libro di testo ha reso incomprensibile.

Lo strumento più usato è ChatGPT, quasi ovunque. Seguono Gemini, CoPilot e MyAI — l’assistente integrato in Snapchat, che molti ragazzi si sono ritrovati tra le mani senza nemmeno averlo cercato: era già lì, nell’aggiornamento dell’app.

E quasi tutti usano le versioni gratuite. Non per scelta ideologica — semplicemente perché per quello che gli serve, bastano.

Perché la usano: molto più di “fare i compiti”

La risposta più diffusa è semplice: risparmia tempo. Il 43% dei ragazzi che la usa lo dice esplicitamente. Ma sarebbe riduttivo fermarsi qui.

Ascoltando le loro parole nelle interviste qualitative, emerge qualcosa di più interessante. Molti descrivono ChatGPT come “un professore sempre disponibile” — uno che non si stanca, non giudica, risponde alle 23 quando il manuale è incomprensibile e il giorno dopo c’è un’interrogazione. Per chi ha difficoltà di apprendimento, come i ragazzi con dislessia citati nel report, questa accessibilità vale oro.

C’è poi un uso che si tende a sottovalutare: l’AI come compagno di noia. Non come strumento produttivo, ma come qualcosa con cui passare il tempo, fare domande strane, testarne i limiti, giocare. È un comportamento che il report documenta con chiarezza, e che dice qualcosa su come questa tecnologia si stia integrando nella vita quotidiana — non solo in quella scolastica.

E poi c’è l’uso emotivo: una minoranza, ma non trascurabile, si rivolge ai chatbot quando è sola, preoccupata, o ha bisogno di sfogarsi senza essere giudicata. In Italia questa percentuale è la più alta d’Europa — 24% dei ragazzi dice di aver usato l’AI per condividere preoccupazioni o chiedere supporto.

“Mi ruba il lavoro” — la paura giusta, la risposta sbagliata

Tra le preoccupazioni che i ragazzi esprimono sul futuro, la perdita del lavoro è una delle prime. Non è una paura irrazionale. Il report la riporta con chiarezza, e sarebbe disonesto minimizzarla.

Ma c’è un modo di leggere questa paura che porta da una parte morta, e un modo che apre una strada.

Il modo che porta da una parte morta è quello del tifo: l’AI ci distrugge oppure l’AI ci salva. Dibattiti da convegno che lasciano il tempo che trovano.

Il modo che apre una strada è più scomodo ma più onesto: chi conosce l’AI e sa usarla bene avrà un vantaggio enorme su chi la subisce passivamente o la teme senza capirla. Non è una promessa pubblicitaria. È già visibile oggi, in qualsiasi settore professionale.

I ragazzi del report lo intuiscono. Alcuni lo dicono esplicitamente: vogliono imparare a usarla, non che venga vietata. Vogliono capire quando fidarsi degli output e quando no. Vogliono sapere come si fa una buona domanda, come si verifica una risposta, come si usa lo strumento senza diventarne dipendenti.

Quello che chiedono, in sostanza, è formazione. Non protezione dall’AI — formazione per navigarla.

Il vero problema: il vuoto formativo

Qui il report smette di essere un insieme di statistiche interessanti e diventa uno specchio scomodo.

Le famiglie. L’85% dei genitori non pone restrizioni sull’uso dell’AI da parte dei figli. Il dato in sé non è necessariamente negativo — i divieti non sono la risposta. Il problema è quello che c’è dietro quel numero: in molti casi i genitori non pongono restrizioni perché non sanno bene cosa stiano usando i figli, né come. Nelle interviste emerge spesso il contrario della situazione attesa: sono i ragazzi a spiegare ai genitori cos’è ChatGPT, come si usa, cosa può fare. Gli adulti in casa sono fuori dal loop.

La scuola. Le regole sull’AI in classe sono quasi inesistenti oppure affidate alla sensibilità del singolo insegnante. C’è chi vieta tutto, chi incoraggia tutto, chi fa finta che la questione non esista. Nessuna linea comune, nessun curricolo strutturato, nessuna formazione sistematica per i docenti. Il risultato è che i ragazzi imparano l’AI dai compagni di classe, da TikTok, da YouTube — non da qualcuno che li guidi a usarla bene.

Il paradosso è che i ragazzi stessi lo vedono. Nelle interviste chiedono regole chiare, non assenza di regole. Chiedono che qualcuno spieghi loro quando usarla e quando no, come distinguere un’informazione affidabile da un’allucinazione, cosa significa cedere i propri dati a un chatbot. Non chiedono che l’AI venga spenta — chiedono di non essere lasciati soli davanti a qualcosa che cambia come imparano, come si informano e come comunicano.

Il dato che dovrebbe fermarci tutti

Il 43% dei ragazzi intervistati non sa cosa pensare del proprio futuro con l’AI. Non è pessimismo. Non è ottimismo. È disorientamento puro.

Quando quasi la metà di una generazione che già usa quotidianamente uno strumento non riesce a costruirsi un’opinione sul suo impatto futuro, il problema non è lo strumento. È che mancano gli adulti che aiutino a dargli un senso.

Cosa serve, concretamente

Il report non lascia spazio a molte interpretazioni. I ragazzi chiedono cose precise: che l’AI sia spiegata a scuola, non solo usata o vietata. Che i genitori siano più presenti, anche quando si sentono meno competenti dei figli. Che le piattaforme siano più trasparenti su come funzionano e cosa fanno con i dati.

Tutto questo si chiama formazione. Non nel senso di corsi obbligatori e slide noiose — nel senso di adulti che accompagnano, che fanno domande, che mostrano come si ragiona davanti a uno strumento nuovo invece di lasciare che i ragazzi lo scoprano per tentativi su TikTok.

Il report EU Kids Online 2026 è uscito il 6 febbraio 2026, in occasione del Safer Internet Day. Il tema scelto quest’anno era: “Smart tech, safe choices — Exploring the safe and responsible use of AI.”

Scelta giusta. Adesso bisogna che qualcuno la prenda sul serio.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Scroll up Drag View