Italia

Educazione all’intelligenza artificiale: l’antidoto a fake news e disinformazione tra i giovani

educazione digitale, disinformazione

Il sito web, i social media e il browser su cui leggi questa analisi hanno qualcosa in comune: sono tutti strumenti digitali e tutti utilizzano sistemi di intelligenza artificiale. Si discute spesso di come gli strumenti digitali contribuiscano all’insegnamento e portino benefici agli studenti, che ne sono i maggiori utilizzatori. Ma per comprenderli e saperli usare serve una vera e propria educazione all’intelligenza artificiale. In sua assenza si rischia di polarizzare l’apprendimento e di lasciare spazio alla disinformazione, mettendo a dura prova il sistema democratico.

In questa pubblicazione si propone un resoconto degli strumenti utili agli studenti per un uso etico dei sistemi digitali e dell’IA.

Fine della democrazia nella post-truth era?

Partiamo dalla fine. La velocità e l’accessibilità delle notizie non sono mai state così elevate. Ma anche la diffusione di contenuti falsi, volti a colpire attori politici e intere società, non è mai stata così ampia.

La comunicazione di oggi si basa sulle emozioni: se un contenuto rilascia il giusto livello di dopamina e scatena una reazione nel lettore, ha già ottenuto ciò che il suo autore voleva. Rabbia, dolore, amore, compassione: tutto serve a far arrivare la mente a conclusioni affrettate. La mente umana, infatti, ragiona spesso senza filtrare la veridicità dei contenuti. Ne derivano azioni anche violente, di sopruso verbale e fisico, capaci di destabilizzare il governo di un intero Paese e indebolirne la democrazia.

Il caso Romania e i deepfake in Germania

Nel novembre 2024 la Corte costituzionale romena ha annullato il primo turno delle elezioni presidenziali. Documenti desecretati hanno indicato una massiccia campagna coordinata su TikTok a favore del candidato di estrema destra Călin Georgescu. La Commissione europea ha inquadrato il caso come manipolazione informativa con sospetta interferenza estera, aprendo un procedimento formale contro la piattaforma ai sensi del Digital Services Act. È la prima volta che uno Stato membro dell’Unione europea annulla un voto nazionale per ragioni legate alla disinformazione online.

Pochi mesi prima, durante le elezioni europee e quelle nazionali in Germania, deepfake audio e video di leader politici – da Olaf Scholz a Ursula von der Leyen – erano circolati su X e Telegram. Le autorità sono state costrette a interventi di fact-checking in tempo reale. Il Global Risks Report 2024 del World Economic Forum ha collocato la disinformazione potenziata dall’IA al primo posto tra i rischi globali di breve termine, davanti a eventi climatici estremi e conflitti armati.

Giovani, algoritmi e eco-chambers

Le nuove generazioni sono il bersaglio più esposto alla disinformazione. Il 51% dei giovani italiani utilizza WhatsApp, Instagram e TikTok come fonti primarie di informazione. Il 70% è convinto di saper distinguere le fake news. Il Flash Eurobarometer Youth Survey 2024 conferma il quadro: il 76% degli intervistati tra i 16 e i 30 anni dichiara di essersi imbattuto in contenuti falsi nella settimana precedente. I giovani italiani si allineano alla media europea con il 75%.

Il problema è proprio di consapevolezza. Meno di un giovane su due (il 44%) sa cosa sia realmente un deepfake e soltanto il 37% di chi afferma di saperlo ne ha davvero compreso il significato. Non aiuta il fatto che gli algoritmi premino l’engagement, carichi di emotività e polarizzanti. Spingono gli utenti verso il confirmation bias, cioè la visione di notizie coerenti con le opinioni pregresse, limitando l’orizzonte informativo in queste bolle. Quando entra in gioco l’IA generativa, i contenuti manipolati aumentano in modo esponenziale, a costo rasente lo zero.

Infodemia e post-truth

Non è solo un tema politico. Dal 2020 l’Organizzazione mondiale della sanità parla esplicitamente di infodemic: un eccesso di informazioni false o fuorvianti che erode la fiducia nelle istituzioni sanitarie e alimenta l’esitazione vaccinale. La disinformazione è un rischio per la salute pubblica a tutti gli effetti, che arriva a costare vite umane.

Il termine post-truth, parola dell’anno 2016 per l’Oxford Dictionary, descrive un contesto in cui i fatti oggettivi pesano meno, nel formare l’opinione pubblica, dell’emotività e delle convinzioni personali. È il prodotto di un’era digitale in larga parte deregolamentata. L’economia dell’attenzione ha trasformato l’indignazione in un modello di business e la verifica dei fatti in un lusso cognitivo sempre meno praticato.

Studenti e docenti alle prese con l’IA: il quadro europeo

La risposta istituzionale a questi fenomeni passa da un pilastro preciso: l’educazione all’intelligenza artificiale. A livello europeo, il riferimento storico è il DigComp, il quadro di competenze digitali per i cittadini elaborato dal Joint Research Centre della Commissione europea.

Nella sua versione 3.0, pubblicata nel 2025, il framework integra in modo trasversale le competenze sull’IA. Il 14% degli enunciati di competenza è esplicitamente legato a sistemi di IA. Un ulteriore 68% li chiama in causa in modo implicito, segno di quanto questi sistemi siano ormai attraversati in ogni dimensione del digitale. Il DigComp 3.0 riprende inoltre la definizione di IA dell’AI Act europeo (regolamento 2024/1689), prima legislazione organica al mondo sull’intelligenza artificiale. L’articolo 4 dell’AI Act impone a fornitori e distributori – incluse le scuole – di garantire un livello adeguato di alfabetizzazione all’IA del proprio personale.

Il Digital Education Action Plan e l’AILit Framework

A fare da cornice è il Digital Education Action Plan 2021-2027, che individua nel contrasto alla disinformazione e nell’alfabetizzazione all’IA due azioni specifiche, tradotte nel 2025 in quattro linee guida rivolte agli insegnanti di primaria e secondaria.

Il mandato politico è chiaro: secondo l’Eurobarometro, l’81% dei cittadini dell’Unione europea ritiene che i docenti debbano saper usare e comprendere l’IA e quasi il 90% che debbano aiutare gli studenti a riconoscere la disinformazione online.

In parallelo, Commissione europea e Ocse stanno sviluppando l’AILit Framework, con bozza iniziale pubblicata nel maggio 2025 e in arrivo in versione definitiva nel 2026: organizza l’AI literacy in quattro domini — Engaging with AI, Creating with AI, Managing AI, Designing AI — e confluirà nella rilevazione Pisa 2029 dedicata a Media and AI Literacy, prima valutazione internazionale di queste competenze. Tra le sue competenze esplicite c’è quella di “valutare se gli output dell’IA debbano essere accettati, rivisti o rifiutati”, riconoscendo proprio i rischi di disinformazione e deepfake. I dati che giustificano l’urgenza sono nello stesso framework: il 49% dei giovani tra 17 e 27 anni fatica a valutare criticamente i limiti dell’IA, per esempio, fatica a riconoscere quando il sistema inventa fatti.

Il quadro internazionale: UN e OCSE

Il rapporto OCSE-Agnelli e i dati italiani

In questo contesto si colloca il rapporto AI Adoption in the Education System, pubblicato nel dicembre 2025 da Ocse e Fondazione Agnelli. Nell’indagine Talis Ocse 2024, soltanto il 25 % dei docenti italiani della secondaria di primo grado ha dichiarato di aver usato strumenti di IA nella didattica nei dodici mesi precedenti, contro una media Ocse del 37 % e punte del 75 % a Singapore. Chi la utilizza la impiega soprattutto per riassumere argomenti (70 %) e generare piani di lezione (64 %), molto meno per analizzare dati sulle performance degli studenti (31 %).

Le preoccupazioni sono diffuse: il 67 % teme un aumento del plagio, il 32 % l’amplificazione di bias algoritmici. Soprattutto, il rapporto di Osce mette in guardia sul rischio che senza regolamentazione e formazione coordinate la sperimentazione si concentri nelle scuole già meglio attrezzate, replicando la frattura Nord-Sud che la stessa Fondazione Agnelli certifica ogni anno nei risultati di apprendimento – con gli studenti del Mezzogiorno già in ritardo di circa due anni in matematica rispetto ai coetanei del Nord.

Il caso italiano: le linee guida 2025 e la leva dell’educazione civica

Sul versante italiano, il primo documento rilasciato sul tema sono le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche, allegate al decreto ministeriale 166 del 9 agosto 2025. Il Ministero dell’Istruzione e del Merito ne ha fatto uno dei primi riferimenti al mondo elaborati dal sistema scolastico per il sistema stesso, in linea con la Raccomandazione UNESCO 2021 sull’etica dell’IA.

Il testo, nella sua prima versione, individua cinque principi: centralità della persona, equità, innovazione responsabile, sostenibilità, tutela dei diritti e sicurezza dei sistemi. E compie una scelta metodologica importante. Le competenze sull’IA non saranno una disciplina a sé. Entreranno in modo trasversale nei curricoli: dalla matematica all’informatica per i fondamenti algoritmici, dalle scienze umane per le implicazioni etiche, fino alle lingue e agli ambiti artistici.

La leva dell’educazione civica

Proprio l’educazione civica, rilanciata dalla legge 92/2019, rappresenta la leva più coerente per tradurre in pratica queste indicazioni. È all’interno delle sue 33 ore annue obbligatorie che il pensiero critico sui media, la cittadinanza digitale e il riconoscimento della disinformazione possono trovare uno spazio curricolare stabile. Si evita così di restare confinati a progetti episodici.

L’approccio italiano si basa sull’implementazione di progetti e iniziative che dovrebbero partire direttamente dalle singole scuole. Si sposa con la logica delle competenze trasversali richiamata dalle linee guida. Permette di unire alfabetizzazione tecnica e riflessione etica in un unico percorso.

Nodi aperti e diseguaglianze

Restano però nodi aperti. Il Pnrr ha stanziato circa 800 milioni di euro per la formazione digitale e oltre 800mila tra docenti, dirigenti e personale hanno partecipato a percorsi formativi, superando i target previsti.

Quasi la metà delle scuole italiane cita l’IA nel proprio Piano triennale dell’offerta formativa. Ma – come rileva il rapporto Ocse-Agnelli – il comitato che ha redatto le linee guida ministeriali non ha incluso una rappresentanza diretta dei docenti, e progetti di ricerca-azione come ImparIAmo a scuola (Impara Digitale-Edulia Treccani), pur formando 328 insegnanti in 50 scuole e coinvolgendo 1.800 studenti, restano esperienze pilota. Il rischio è quello già denunciato: una sperimentazione diffusa, ma a macchia di leopardo che, in assenza di governance di sistema, amplifica invece di ridurre le disuguaglianze.

Educazione all’IA come presidio democratico

L’educazione all’intelligenza artificiale non è un tema tecnico né una semplice questione di aggiornamento digitale: è un presidio democratico. Se la disinformazione mina la formazione del consenso, allora costruire cittadini capaci di riconoscere un deepfake, di interrogare una fonte, di leggere criticamente l’output di un sistema generativo è una delle politiche costituzionali più concrete che la scuola possa mettere in campo.

L’Italia ha quasi tutti i pezzi sul tavolo – linee guida ministeriali, fondi del Pnrr, allineamento con DigComp e con i framework Unesco e Ocse, presenza dell’IA nei piani triennali – ma manca l’orchestrazione: un coinvolgimento reale dei docenti nella scrittura delle policy, un coordinamento tra acquisti e formazione, una valutazione d’impatto territoriale e soprattutto una valutazione migliore nell’implementazione di questi progetti. Troppe volte le scuole non hanno le risorse umane e logistiche per poter aderire ai progetti nazionali ed europei nell’ambito della disinformazione.

L’IA può ridurre o amplificare il divario Nord-Sud, può rafforzare il pensiero critico o sostituirlo: dipende da chi governa la transizione. La vera posta in gioco non è se l’intelligenza artificiale entrerà nelle scuole, poiché lo sta già facendo, ma se entrerà come strumento di emancipazione critica o come ennesimo acceleratore delle disuguaglianze che già conosciamo. Sarebbe opportuno favorire, al più presto, di un intervento statale diretto e su larga scala nell’aiutare scuole, docenti e studenti.

*immagine di copertina: [Foto di Tima Miroshnichenko via Pexel]
Condividi:

Post correlati