• it
Ricerca per l'innovazione della scuola italiana

indireinforma

29 Novembre 2025

AI a scuola: tra accelerazioni cognitive e nuovi rischi

IA

L’analisi OCSE al Congresso “Un nuovo umanesimo nell’era digitale”

di Giuseppina Rita Mangione, Elisabetta Mughini

Dal 27 al 29 novembre, presso l’Istituto degli Innocenti di Firenze, INDIRE e il Collaborative Knowledge Building Group (CKGB), hanno organizzato il Congresso nazionale Educazione e Creazione di Valore nell’Era Digitale: Competenze per un umanesimo trasformativo, con un focus sul ruolo delle nuove tecnologie nella costruzione di una società più sostenibile, equa e pacifica. Al Congresso hanno partecipato studiosi provenienti dall’Italia e dall’estero, chiamati a riflettere sulle competenze necessarie nell’era digitale e sulla costruzione di un nuovo umanesimo.

L’intelligenza artificiale sta trasformando l’educazione in modo così rapido da alterare non soltanto gli strumenti a disposizione di studenti e insegnanti, ma l’architettura cognitiva stessa dell’apprendimento. È il quadro, insieme rigoroso e inquieto, che è emersa nella prima giornata del Congresso tramite le parole del keynote Stéphan Vincent-Lancrin, Deputy Head dell’OECD-CERI.

Un intervento che intreccia numeri, sperimentazioni e modelli di governance, offrendo una sintesi rara nel dibattito internazionale su AI e scuola.

Già dall’introduzione del chair Giuseppina Rita Jose Mangione, Ricercatrice INDIRE, è apparso evidente che il tema oltrepassa la sfera tecnica: l’AI entra nella scuola come una presenza cognitiva, capace di ridefinire la relazione educativa, l’idea di autorialità e la natura stessa della conoscenza. Ed è proprio questa rivoluzione silenziosa che la ricerca OCSE oggi permette di osservare con dati concreti, difficili da ignorare.

I numeri delineano una trasformazione culturale prima ancora che tecnologica. In Francia, il 55% degli studenti universitari dichiara di utilizzare l’AI, ma i loro docenti stimano che la percentuale reale arrivi fino all’88%; un divario che rivela quanto l’AI sia già profondamente integrata nelle pratiche quotidiane degli studenti. Nelle scuole statunitensi, tra il 2023 e il 2024, l’uso della GenAI è cresciuto rapidamente, coinvolgendo fasce sempre più ampie di studenti e insegnanti. E una vasta indagine europea su 7.000 adolescenti tra i 12 e i 17 anni (Vodafone Foundation, 2025) mostra che oltre la metà utilizza applicazioni di AI per studiare fuori da scuola, soprattutto per recuperare informazioni e non per interagire con la macchina come partner cognitivo

Dalla Cina arriva un altro segnale rivelatore. In un RCT su 38 studenti universitari, coloro che interagivano con un LLM per revisionare un testo mostravano meno domande diagnostiche, meno valutazione del feedback e un processo di revisione più “circolare”, rapido ma meno profondo, rispetto a chi dialogava con un esperto umano. L’AI, insomma, rischia di ridurre le attività metacognitive più complesse.

E negli Stati Uniti, uno studio recente con tecniche di neuro-imaging su un pilota di 54 studenti rende ancora più chiaro questo slittamento. Durante la scrittura assistita da AI:

  • la maggioranza degli studenti non ricordava neppure una frase del testo prodotto,
  • la capacità di sintetizzare la propria argomentazione diminuiva,
  • e si registrava una riduzione significativa della connettività nelle aree del cervello deputate alle funzioni esecutive, con uno spostamento dall’elaborazione alla supervisione della macchina

È uno dei dati forse più forti: la GenAI non cambia solo i compiti degli studenti, cambia il loro modo di pensare.

Accanto ai rischi, tuttavia, emergono opportunità importanti. Nel trial indonesiano su apprendimento collaborativo, cinque settimane di uso integrato della GenAI hanno migliorato la capacità argomentativa, la collaborazione e il pensiero critico, con effetti particolarmente positivi per gli studenti di livello linguistico medio-alto. In un esperimento britannico con 293 autori, l’accesso alle idee generate dall’AI ha portato a racconti valutati come più creativi, più fluidi e meglio scritti, pur con una minore varietà complessiva nei prodotti. E in Slovenia, un corso universitario di programmazione ha dimostrato che, se riprogettati in modo rigoroso, compiti e valutazioni possono neutralizzare l’effetto “scorciatoia” della GenAI: i risultati degli studenti con ChatGPT e senza ChatGPT sono identici, pur con la percezione soggettiva, nel primo gruppo, di aver imparato di più.

Da questo panorama emerge una distinzione concettuale decisiva, che Vincent-Lancrin enfatizza: la differenza tra AI generalista e AI educativa. I modelli general-purpose – come ChatGPT, Gemini o Copilot – migliorano la performance immediata, ma non sempre facilitano l’apprendimento profondo. Gli strumenti educational GenAI, progettati insieme a insegnanti e ricercatori e allineati alla scienza dell’apprendimento, mostrano risultati più robusti, coerenti e pedagogicamente sicuri

Non tutte le AI sono educative; non tutte producono valore cognitivo.

In questo quadro si inserisce il nuovo AI Literacy Framework dell’OCSE, presentato per la prima volta a Firenze. Pensato per guidare le competenze necessarie nell’era dell’intelligenza artificiale e già collegato al futuro PISA 2029, il framework si articola in quattro domini che ridefiniscono la nozione stessa di alfabetizzazione digitale.

Engaging with AI riguarda la capacità di usare sistemi intelligenti per accedere a informazioni e contenuti, sviluppando un approccio critico e consapevole. Creating with AI invita a collaborare con la macchina in processi di problem solving e creatività. Managing AI introduce la competenza del decidere: quando utilizzare l’AI, perché, con quali obiettivi e quali limiti, mantenendo il controllo umano sulle decisioni. Designing AI, infine, è la dimensione più trasformativa: propone che gli studenti comprendano come funzionano i modelli, quali dati li alimentano, quali bias incorporano e come le logiche dell’AI possano essere orientate e, almeno in parte, progettate in modo critico

È una visione potente, che colloca la AI Literacy non tra le competenze tecniche, ma tra le competenze democratiche del XXI secolo: necessarie per esercitare autonomia nella vita algoritmica.

La conclusione del keynote è stata dedicata alla governance, ambito in cui l’OCSE propone un modello chiaro: Shared Responsibility. L’adozione della GenAI non può essere lasciata solo agli insegnanti, né alle famiglie, né al mercato. Deve fondarsi su:

  • equità di accesso e infrastrutture solide,
  • agency e benessere professionale dei docenti,
  • co-creazione di strumenti educativi insieme a chi insegna e a chi apprende,
  • trasparenza, explainability, e soprattutto
  • il diritto all’alternativa umana, come sottolineano le linee guida OCSE–Education International

Il messaggio è inequivocabile: la GenAI è già parte della scuola, ma il suo valore dipenderà non dalla potenza degli algoritmi, bensì dalla capacità dei sistemi educativi di governarla con visione, rigore e responsabilità. La tecnologia da sola non crea apprendimento; lo fa quando incontra una pedagogia capace di orientarla. È questo, più di ogni altro, il contributo che il lavoro di Vincent-Lancrin consegna oggi al dibattito italiano e che può orientare le policy globali.