Intelligenza artificiale a scuola
  • Intelligenza artificiale
  • Approfondimenti e didattica
  • Formazione
  • Modelli di IA
Picture

Conversare con l’IA per educare e sviluppare il pensiero critico

Giovanni Adorni, Angela Maria Sugliano
Associazione Italiana per l'Intelligenza Artificiale
​​
Articolo tratto da SCUOLA E DIDATTICA
Rubrica: PaideIA: AIxIA
In una scuola attraversata dall’Intelligenza Artificiale (IA) generativa, il punto non è “se” usare i chatbot, ma come trasformarli in alleati del pensiero critico. L’articolo propone di leggere la conversazione con l’IA come palestra di cittadinanza algoritmica: non risposte perfette, ma domande migliori, confronto di fonti, consapevolezza di limiti e bias. Il docente diventa regista di un nuovo dialogo uomo-macchina, dentro l’orizzonte delle Cyber Humanities, dove le tecnologie sono infrastrutture culturali da abitare e orientare. Framework europei come DigComp 3.0 ed esperienze di certificazione come EPICT offrono la cornice per riconoscere e valorizzare questa evoluzione della professionalità docente.

​Parole chiave
  • Cittadinanza algoritmica
  • Cyber Humanities
  • Educazione civica digitale
  • IA generativa conversazionale
  • Pensiero critico
  • Professionalità docente

L’IA entra in classe: dal sospetto al progetto

Sempre più spesso gli insegnanti si trovano davanti a testi “perfetti”, traduzioni impeccabili o esercizi svolti in modo insolitamente elegante. Il sospetto è immediato: «Questo l’ha fatto un chatbot di intelligenza artificiale». Vietarli è una tentazione comprensibile, ma rischia di lasciare studentesse e studenti soli di fronte a tecnologie che comunque useranno a casa e nel loro futuro di studio e lavoro.

Le istituzioni internazionali sono concordi nel ritenere che non si tratti di una moda passeggera. La Commissione Europea, all’interno dell’AI Act, introduce esplicitamente il concetto di AI Literacy come insieme di conoscenze, abilità e atteggiamenti necessari per usare e governare i sistemi di Intelligenza Artificiale in modo consapevole.

UNESCO, con le Guidance for Generative AI in Education and Research, sottolinea il carattere “condiviso” della responsabilità nell’uso dell’IA generativa: governi, scuole, sviluppatori, insegnanti, studenti e l’intera comunità educante sono chiamati non solo a proteggere i più giovani da disinformazione, bias e dipendenza cognitiva, ma anche a prepararli a partecipare in modo attivo, consapevole e critico a una società in cui l’IA sarà sempre più pervasiva.

Il World Economic Forum, che monitora l’evoluzione delle competenze richieste nel mondo del lavoro, considera l’AI literacy una competenza fondamentale del XXI secolo, al livello della lettura e della scrittura: un richiamo importante per la scuola, che prepara gli studenti ad affrontare questa trasformazione.

Queste premesse sgombrano il campo dall’idea che i chatbot generativi siano strumenti da cui difendersi e forniscono al mondo della scuola il contesto che giustifica l’attenzione pedagogica e l’uso didattico di tali strumenti che possono diventare veri e propri laboratori di pensiero critico, luoghi cognitivi dove imparare a porre domande, smontare risposte, confrontare punti di vista, discutere le fonti.

L’attenzione al mondo della scuola è significativa nel discorso generale sull’uso dell’IA: sono a disposizione degli insegnanti (e a disposizione dei formatori di insegnanti per strutturare formazioni specifiche da erogare nelle scuole) sia modelli di Generative AI Literacy, cioè quadri di riferimento che individuano le competenze necessarie per interagire in modo responsabile con l’IA generativa, sia guide operative e percorsi di certificazione digitale che sostengono in modo strutturato il percorso di avvicinamento all’uso efficace dell’IA.

La transizione necessaria è passare dalla preoccupazione che l’IA possa sostituire gli studenti nella realizzazione dei compiti alla progettazione di attività in cui “conversare con l’IA” diventa un esercizio di cittadinanza digitale e algoritmica: dall’imparare a strutturare prompt (domande) a comprendere limiti e bias dei sistemi, valutare criticamente i contenuti generati e rispettare aspetti etici, legali e di responsabilità. Tutti i modelli e gli strumenti operativi sono citati nelle note per un approfondimento.

Questo articolo, in continuità con il precedente contributo dedicato all’AI Literacy, prova a fare un passo ulteriore: mostrare, con esempi e proposte operative per la scuola, come i docenti possano usare in modo guidato l’IA conversazionale per sostenere lo sviluppo del pensiero critico, mantenendo saldo il proprio ruolo educativo e preparandosi a un quadro di competenze, come quello di DigComp 3.0, in cui l’uso critico dell’IA sarà parte integrante della professionalità docente.

Dalla “risposta pronta” al dialogo critico

Quando pensiamo all’uso dell’IA generativa a scuola, la prima immagine è quella dello studente che chiede al chatbot di “fare il compito al suo posto”. In questo modello l’IA è una macchina delle risposte pronte: produce un tema, una traduzione, una sintesi, e lo studente si limita a copiare. In termini di AI literacy, siamo di fronte a un uso passivo: non si comprende come funziona il sistema, non se ne mettono in discussione i limiti, non si esercita il proprio giudizio.
​
Le principali linee guida internazionali propongono invece un’altra immagine: l’IA come partner di dialogo. UNESCO, nella citata guida all’uso dell’IA Generativa a scuola, invita a un cambio di paradigma nella proposta di attività di apprendimento per gli studenti con l’integrazione dell’IA in attività che stimolino gli studenti a interrogare, verificare e discutere le risposte del modello, non limitandosi all’uso acritico dello strumento.

La stessa posizione è sostenuta nelle Ethical Guidelines on the Use of Artificial Intelligence and Data in Teaching and Learning for Educators1 della Commissione europea, che sottolinea la necessità per i docenti di impegnarsi in modo positivo, critico ed etico nell’uso dell’IA, per promuovere comprensione e riflessione, non per sostituire l’apprendimento.

Come anticipato, l’uso dell’IA non come macchina dalla risposta pronta ma come partner di dialogo presuppone/comporta un cambio di paradigma didattico: nel primo caso, il chatbot è un “fornitore di contenuti”; nel secondo diventa un interlocutore imperfetto da mettere alla prova. Le linee guida per una corretta Generative AI Literacy insistono proprio su questo: saperle chiedere di spiegare i passaggi, riconoscere quando lo strumento “si inventa” informazioni (i bias, allucinazioni), richiedere sempre fonti e indicazioni sui limiti delle sue risposte.

Come evidenziato nei documenti realizzati a seguito degli studi condotti presso lo U.S. Department of Education2, le attività dovrebbero essere progettate in modo che l’IA non fornisca il prodotto finale, ma funzioni come strumento di esplorazione: per generare idee da confrontare, simulare punti di vista diversi e rendere visibili i passaggi di un ragionamento.

In modo analogo, il toolkit TeachAI – sviluppato da un’iniziativa internazionale che riunisce esperti di educazione e tecnologia per guidare un uso pedagogico e responsabile dell’IA nelle scuole – descrive il nuovo paradigma educativo basato sull’uso critico dell’IA e in sintesi propone ai docenti di costruire consegne in cui gli studenti discutono criticamente la risposta del chatbot, la correggono, integrano le fonti o elaborano in gruppo linee guida per un suo uso responsabile.

Le due posizioni possono essere riassunte come di seguito:
• uso passivo dell’IA: «Chiedo la soluzione e copio», senza capire davvero cosa c’è dietro;
• uso dialogico e critico: «Uso il chatbot per farmi spiegare, per vedere altre possibilità, per farmi domande in più, ma la decisione finale comunque rimane mia».
​
Superare il paradigma della “risposta pronta” significa progettare attività in cui il valore non sta nel testo generato dall’IA, ma nel percorso di domande, confronti e revisioni che studentesse e studenti intraprendono insieme al docente a partire da quella risposta.

“Conversare criticamente” con l’IA​

Picture
Per delineare un percorso operativo in classe che aiuti gli studenti a conversare criticamente con l’IA, possiamo fare riferimento all’AI Literacy Framework OCSE3 della Commissione europea e ai due AI Competency Framework dell’UNESCO (per studenti e docenti)4.
Il primo invita a progettare attività che portino gli studenti a interagire, creare, gestire e progettare con l’IA; i secondi propongono un approccio umano-centrico, in cui è sempre la persona a guidare l’uso dell’IA: ponendo domande, verificando le risposte, inserendo il tutto in un contesto chiaro di diritti (trasparenza, privacy, equità) e responsabilità (verificare le fonti, usare i contenuti in modo etico, comprendere i limiti del sistema).
​
Partendo da queste premesse, per la scuola – e in particolare per la secondaria di primo grado – la conversazione critica con l’IA può essere tradotta in quattro verbi chiave, alla portata degli alunni.
Chiedere
Non basta digitare «Parlami della Rivoluzione francese»: conversare criticamente significa imparare a formulare domande chiare, contestualizzate, con vincoli precisi («Spiega in 10 righe, adatte ad uno studente del secondo anno, le cause della Rivoluzione francese, e proponi due domande di comprensione»).
In questo passaggio, gli studenti esercitano il diritto a ricevere risposte comprensibili e adeguate e la responsabilità di porre domande corrette, trasparenti e non fuorvianti.

Dubitare
La conversazione non si ferma alla prima risposta. Gli studenti devono imparare a metterla in discussione, chiedendo chiarimenti («Sei sicuro? Puoi indicare le fonti?»), cercando incoerenze, confrontando le versioni. Qui entrano in gioco il diritto all’accuratezza delle
informazioni e la responsabilità di verificarle, per non delegare all’IA decisioni o giudizi in modo passivo.

Confrontare
Nessuna risposta dell’IA dovrebbe essere “presa per buona” senza confronto. Il chatbot va affiancato a fonti affidabili: libro di testo,
documenti storici, siti istituzionali, materiali scelti dal docente. Questo processo richiama il diritto ad accedere a fonti attendibili e la responsabilità di non diffondere contenuti errati prodotti dall’IA, sviluppando consapevolezza e cittadinanza digitale.

Spiegare
Conversare criticamente con l’IA richiede la capacità di esprimere in modo chiaro e dettagliato ciò che si è compreso da questo dialogo. L’IA può facilitare o complicare il processo di apprendimento, ma il momento cruciale si verifica quando lo studente è
chiamato a illustrare al docente o alla classe ciò che ha compreso e come ha verificato la risposta, diventando così protagonista di
un esercizio di metacognizione autentica. In questo passaggio si esercita il diritto alla trasparenza dei processi e la responsabilità di
rendere conto delle proprie scelte e verifiche.

Questi quattro verbi possono diventare una sorta di 
grammatica della conversazione critica con l’IA: una griglia semplice per progettare attività disciplinari in cui il chatbot non è un distributore di soluzioni, ma un pretesto per consolidare competenze di Generative AI Literacy e competenze chiave di cittadinanza digitale e algoritmica.

Il docente regista della conversazione: cornice normativa e competenze

Il processo della conversazione critica con l’IA deve essere proposto, guidato e monitorato dall’insegnante. Il primo dubbio da fugare è relativo alla possibilità di poter usare i chatbot di IA generativa in classe. Le linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche del MIM5 rispondono che sì, l’IA può entrare in aula, ma dentro una cornice chiara: centralità della persona, tutela dei dati, attenzione all’età degli studenti, trasparenza sui sistemi utilizzati. La responsabilità ultima dell’uso didattico dell’IA – compresa l’IA conversazionale – resta però in capo al docente, che si pone come mediatore critico tra tecnologia, curricolo e diritti degli studenti e che definisce obiettivi educativi, sceglie strumenti adeguati e accompagna gli studenti nella lettura critica delle risposte.

In questa cornice, vanno considerate le competenze che un insegnante deve avere per poter governare il processo. Sono quelle descritte da ormai numerosi framework e syllabi, ma il primo da considerare come vero framework, cioè “cornice” entro cui poi comporre il “puzzle” delle tante competenze suggerite dagli altri autorevoli documenti, è l’European Framework for the Digital Competence of Educators (DigCompEdu)6. Le sue 22 competenze suddivise in 6 aree di competenza possono essere lette come vademecum per la declinazione del processo sopra descritto:
  1. Professional Engagement (area di competenza 1): l’aggiornamento continuo dei docenti e l’uso dei chatbot generativi per le attività “fuori dalla classe”.
  2. Digital Resources (area di competenza 2): la produzione di materiali didattici.
  3. Teaching and Learning (area di competenza 3): la progettazione e conduzione della didattica.
  4. Assessment (area di competenza 4): la valutazione.
  5. Empowering Learners (area di competenza 5): l’inclusione e la valorizzazione dei talenti.
  6. Facilitating Learners’ Digital Competence (area di competenza 6): l’educazione degli studenti alla Genenerative AI Literacy.

Una declinazione esplicita del DigCompEdu sul tema AI Generativa è contenuta nel Supplement to the DigCompEdu Framework7 sviluppato dal progetto europeo AI Pioneers. Il ruolo fondamentale del docente nel saper guidare gli studenti a conversare in modo efficace e critico con l’intelligenza artificiale attraversa tutte le sei aree del DigCompEdu.
  • Area 1 Include il ruolo del docente come modello di uso etico e consapevole dell’AI, capace di integrare tali strumenti nelle pratiche didattiche e di collaborazione professionale. In questo modo, il docente diventa un facilitatore che sviluppa negli studenti la capacità di interagire in modo consapevole, responsabile e riflessivo con l’intelligenza artificiale, trasformando il dialogo con le macchine in un autentico processo di apprendimento.
  • Area 2 Entra in gioco quando il docente seleziona strumenti di AI basati sull’elaborazione del linguaggio naturale assicurandone qualità, accuratezza e sicurezza.
  • Area 3 Il documento sottolinea che l’AI può offrire esperienze di apprendimento immersive attraverso interfacce conversazionali, rendendo necessario che l’insegnante accompagni gli studenti nell’uso di questi strumenti e nella formulazione di domande chiare e mirate.
  • Area 4 L’insegnante supporta gli studenti nell’uso dell’AI per monitorare i propri progressi e comprendere i feedback generati automaticamente.
  • Area 5 Si attiva nel momento in cui il docente sostiene l’autonomia degli studenti, aiutandoli a usare l’AI per comprendere, approfondire o superare difficoltà in modo guidato e responsabile.
  • Area 6 È coinvolta quando si richiede al docente di organizzare laboratori che spieghino il funzionamento dell’AI e di promuovere discussioni e pensiero critico sull’Intelligenza Artificiale, attività che implicano insegnare agli studenti a interpretare, valutare e mettere in discussione le risposte dei sistemi conversazionali. Anche in questo caso, si vede come al docente non è richiesto di diventare un “tecnico dell’IA”, ma di rafforzare la propria agency professionale, cioè la capacità di scegliere e orchestrare le tecnologie in funzione degli apprendimenti.
Foto

In classe con l’IA: scenari di conversazione per sviluppare pensiero critico

Se l’IA viene usata solo per “fare il compito”, il pensiero critico si spegne. Se invece la inseriamo in attività strutturate, con consegne chiare e tempi di discussione che fanno parte dell’attività di apprendimento stessa, la conversazione con il chatbot diventa un laboratorio di domande, confronto, revisione.
Di seguito, proponiamo due scenari per la secondaria di primo grado, facilmente adattabili alle diverse discipline. In entrambi possiamo ricordarci i quattro verbi chiave per condurre una attività basata sulla conversazione con l’IA: chiedere, dubitare, confrontare, spiegare.
Italiano: smontare e riscrivere un testo generato dall’IA

L’IA può essere usata per potenziare le abilità di comprensione e produzione scritta, a patto che gli studenti siano messi in condizione di analizzare criticamente i testi prodotti dalla macchina. Segue un esempio.
  • Il docente chiede al chatbot di generare una breve recensione (10-15 righe) di un libro letto in classe.
  • Il testo viene analizzato in aula in piccoli gruppi, che individuano frasi troppo generiche, segnalano incongruenze, propongono miglioramenti, riscrivono un paragrafo “a firma propria”.
  • In plenaria, la classe discute: che cosa funziona nel testo dell’IA? Cosa no? Che cosa abbiamo aggiunto noi di “più umano”?

In questo scenario, l’IA è un punto di partenza: genera un prodotto “medio” che gli studenti devono migliorare, esercitando analisi del testo, arricchimento lessicale e argomentazione. Il pensiero critico sta nel non accontentarsi della prima versione, ma nel riconoscere cosa c’è dietro (frasi fatte, stereotipi, generalizzazioni) e nel decidere come riscriverlo.

Educazione civica digitale: etica, dati, privacy, disinformazione

La necessità di affrontare con gli studenti temi come privacy, protezione dei dati, disinformazione, bias, è sottolineata da tutti i documenti sull’uso dell’IA a scuola. La conversazione con l’IA può diventare un contesto concreto in cui discutere questi aspetti.

Proposta di attività
  • La classe formula alcune domande da porre al chatbot, ad esempio: Che cosa sono i dati personali? Puoi fare esempi adatti a un ragazzo di secondaria di primo grado? Perché non dovremmo condividere online le nostre informazioni personali? Come posso capire se una notizia trovata in rete è vera o falsa?
  • Si leggono e si discutono le risposte: Che cosa condividiamo? Cosa manca? Quali aspetti l’IA sottovaluta (ad esempio, ruolo delle piattaforme, il tracciamento, l’uso commerciale dei dati)?
  • A partire da risposte del chatbot e da documenti ufficiali (UNESCO, Linee guida MIM, regolamenti di istituto), gli studenti costruiscono una Carta di classe per l’uso responsabile dell’IA.
    ​
In tali contesti, l’IA trova impiego nell’innesco di discussioni, giochi di ruolo e dibattiti, anziché nella produzione di compiti definitivi.
Come suddetto, il valore didattico sta nel fatto che gli studenti devono ragionare sulle risposte della macchina, esplicitare i propri criteri di valutazione, confrontarsi con i compagni e con il docente: è il momento della spiegazione (o la preparazione a quel momento) che attiva lo studente come protagonista unico e originale: è lui che deve guardarsi dentro, riconoscere i propri pensieri ed emozioni, tradurli in parole e condividerli in modo aperto: un grande lavoro cognitivo e metacognitivo che valorizza l’originalità dell’Intelligenza individuale.

Dieci buone pratiche per usare i chatbot senza perdere il pensiero critico

​Le linee guida internazionali sull’uso dell’IA generativa in educazione insistono su un punto: non è lo strumento in sé a determinare l’esito educativo, ma il modo in cui viene integrato nella didattica. Per gli insegnanti della scuola secondaria di primo grado, potrebbe risultare utile formulare un decalogo operativo.

Cinque cose da fare
  1. Definire obiettivi chiari (prima di aprire il chatbot) Chiarire che cosa si vuole allenare (comprensione, confronto tra fonti, argomentazione, metacognizione) e usare l’IA solo quando questa tecnologia offre un valore aggiunto rispetto ad altre strategie: fare delle ipotesi di domande che gli studenti potrebbero rivolgere al chatbot (verbo chiave: Chiedere).
  2. Valorizzare il processo, non solo il prodotto Chiedere agli studenti di documentare la conversazione con l’IA (prompt, versioni intermedie, correzioni, motivazioni), perché il vero apprendimento sta nel percorso che ha portato alla soluzione di un problema (verbo chiave: Spiegare).
  3. Affiancare sempre l’IA ad altre fonti Trattare il chatbot come una voce tra le altre, da verificare e confrontare con testi, documenti, siti affidabili (verbo chiave: Confrontare).
  4. Discutere limiti, bias e allucinazioni Far emergere in modo guidato errori, stereotipi o omissioni nelle risposte del chatbot, trasformando ogni interazione in un’occasione di educazione alla cittadinanza algoritmica (verbo chiave: Dubitare).
  5. Usare l’IA in modo visibile e collettivo Privilegiare attività in plenaria o in piccoli gruppi, con uno schermo condiviso, in cui tutti possano vedere i prompt e commentare le risposte (verbo chiave: Spiegare).

Cinque cose da evitare
  1. Non accettare compiti generati dall’IA come se fossero personali Chiedere trasparenza sull’uso dell’IA negli elaborati (controparte della “Valorizzazione del processo”).
  2. Non delegare all’IA la valutazione Usare strumenti generativi come supporto, ma non sostituire con essi il giudizio professionale del docente, soprattutto per aspetti complessi (controparte del “Discutere limiti, bias e allucinazioni”).
  3. Non usare piattaforme non conformi a privacy e sicurezza Evitare servizi che richiedono account personali non autorizzati o che dati sensibili senza garanzie adeguate (controparte di “Affiancare sempre l’IA con altre fonti”).
  4. Non presentare l’IA come infallibile o neutrale Contrastare l’idea di “macchina che sa tutto”: i framework di competenza invitano a costruire una mentalità umano-centrica, che riconosca limiti e interessi in gioco (controparte del “Discutere limiti, bias e allucinazioni”).
  5. Non lasciare che solo gli “smanettoni” usino l’IA Progettare attività guidate e condivise per evitare nuove disuguaglianze: l’IA deve essere occasione di inclusione, non fattore di divario (controparte dell’“Usare l’IA in modo visibile e collettivo”).

Conclusione: verso DigComp 3.0, Cyber Humanities e cittadinanza algoritmica

La conversazione con l’Intelligenza Artificiale non rappresenta esclusivamente una metodologia didattica aggiuntiva, ma si configura come una pratica culturale che rivela le modalità con cui la società sta evolvendo in un contesto sempre più permeato da algoritmi.
Se prima dell’avvento dell’IA generativa “alla portata di tutti” possiamo dire che – anche la scuola – si trovava nel campo delle digital humanities (l’uso di strumenti digitali per le attività di tipo culturale, e quindi l’uso anche in contesto didattico), con l’IA generativa si entra nella prospettiva delle cyber humanities che vede l’AI e gli algoritmi su cui l’IA generativa si fonda, come co-produttori di significato. Nell’ottica delle cyber humanities, le “tecnologie intelligenti” sono viste come spazi (di parola, memoria e potere) e infrastrutture cognitive e simboliche in cui si gioca la nostra capacità di capire il mondo e di intervenire su di esso.

Le competenze descritte nel Manifesto delle cyber humanities come chiave per operare nel campo sono coerenti con quelle che abbiamo declinato nel presente articolo per il docente: capacità di analizzare i sistemi algoritmici, pensiero critico per capire come gli algoritmi strutturano conoscenza, competenze interdisciplinari, apprendimento continuo e adattabilità alle tecnologie emergenti.

In questo orizzonte, possiamo ampliare il valore pedagogico dell’uso delle tecnologie digitali a scuola: non più solo educare gli studenti alla cittadinanza digitale, ma alla cittadinanza algoritmica, il che significa: imparare a interrogare sistemi opachi, chiedere conto delle loro risposte, riconoscerne limiti e bias, decidere quando e come farli entrare nei propri processi di studio e di vita. Ogni volta che chiediamo agli studenti di discutere criticamente le risposte di un chatbot, di verificarne le fonti, di riscriverne i testi, stiamo allenando una forma di sovranità cognitiva: non lasciare che siano gli algoritmi a decidere da soli che cosa è rilevante, vero, plausibile.

Perché tutto questo si traduca in pratica, servono docenti riconosciuti nel loro ruolo di registi della conversazione con l’IA. Percorsi strutturati e certificazioni – come quelli sviluppati nell’ambito EPICT e le nuove proposte dedicate all’IA generativa conversazionale – hanno senso se aiutano gli insegnanti a progettare attività basate sul dialogo critico con i chatbot e a valorizzare il lavoro fatto in classe.
​
In definitiva, conversare con l’IA senza perdere la propria voce significa usare i chatbot per rafforzare l’autonomia di giudizio di ragazze e ragazzi, coltivare cittadinanza algoritmica e tenere insieme innovazione tecnologica e responsabilità educativa. Una scuola capace di farlo non subisce l’IA, ma la orienta – con competenza, immaginazione e cura.
Picture
Questo articolo è tratto da SCUOLA E DIDATTICA
Scuola e Didattica è la rivista digitale mensile di aggiornamento professionale dedicata agli insegnanti di Scuola Secondaria di Primo Grado.
Offre spunti e materiali didattici su tutte le discipline, nonché approfondimenti sulle metodologie e le tematiche più attuali nella scuola.
Per l’a.s. 2025/2026 ogni mese un articolo sull’Intelligenza artificiale.
APPROFONDISCI
 
NOTE
1 EC, Directorate-General for Education, Youth, Sport and Culture (2025), Ethical guidelines on the use of artificial intelligence (AI) and data in teaching and learning for educators. Luxembourg: Publications Office of the European Union. Consultato il 23 novembre 2025 da: https://education.ec.europa.eu/focus-topics/digital-education/action-plan/ethical-guidelines-for-educators-on-using-ai
2 U.S. Department of Education, Office of Educational Technology (2023), Artificial intelligence and the future of teaching and learning: Insights and recommendations. Washington, DC: U.S. Department of Education. Consultato il 23 novembre 2025 da: https://www.ed.gov/sites/ed/files/documents/ai-report/ai-report.pdf
3 OECD (2025), Empowering learners for the age of AI: An AI literacy framework for primary and secondary education (Review draft). Paris: OECD. Consultato il 23 novembre 2025 da: https://ailiteracyframework.org/
4 Miao, F., Shiohira, K. & Lao, N. (2024), AI Competency Framework for Students. Parigi: UNESCO, agosto. https://www.unesco.org/
en/articles/ai-competency-framework-students
Miao, F. & Cukurova , M. (2024), AI Competency Framework for Teachers. Parigi: UNESCO, agosto. https://www.unesco.org/en/articles/ai-competency-framework-teachers
5 MIM - Ministero dell’Istruzione e del Merito (2025). Linee guida per l’introduzione dell’Intelligenza Artificiale nelle scuole.
Versione 1.0. https://www.mim.gov.it/documents/20182/0/MIM_Linee+guida+IA+nella+Scuola_09_08_2025-signed.pdf
6 Redecker, C. (2017), European Framework for the Digital Competence of Educators: DigCompEdu. EUR 28775 EN, Y. Punie
(Ed.), Publications Office of the European Union, Luxembourg. Versione italiana a cura di ITD-CNR: https://digcompedu.cnr.it/DigCompEdu_ITA_FINAL_CNR-ITD.pdf


Riferimenti bibliografici e sitografici
Definizioni e cornici introduttive di AI Literacy
  • EC (2025), EU Artificial Intelligence Act – Chapter 1, Articole 3: Definitions Consultato l’11 2025 da: https://artificialintelligenceact.eu/article/3/
  • Miao, F. & Holmes, W. (2023), Guidance for generative AI in education and research. Paris, France: UNESCO. Consultato il 23 novembre 2025 da: https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research
  • Milberg, T. (2025, May 22), Why AI literacy is now a core competency in education. World Economic Forum. Consultato il 23 novembre 2025 da: https://www.weforum.org/stories/2025/05/why-ai-literacy-is-now-a-core-competency-in-education/
Quadri di riferimento sulle competenze di Generative AI Literacy per la Scuola
  • Annapureddy, R., Fornaroli, A., & Gatica-Perez, D. (2024), Generative AI literacy: Twelve defining competencies. Digital Government: Research and Practice, 1(1), 1–23. Consultato il 23 novembre 2025 da: https://arxiv.org/pdf/2412.12107
  • Zhang, C. & Magerko, B, (2025), Generative AI Literacy: A Comprehensive Framework for Literacy and Responsible Use. Consultato il 23 novembre 2025 da: https://www.sciencedirect.com/science/article/pii/S2666920X25000761?via%3Dihub
  • Jin, Y., Martinez-Maldonado, R., Gašević, D. & Yan, L. (2025), GLAT: The generative AI literacy assessment test, Computers and Education: Artificial Intelligence, 9, 100436, https://www.sciencedirect.com/science/article/pii/S2666920X25000761?via%3Dihub
Guide pratiche per l’uso dell’IA a Scuola
  • Stanford Teaching Commons (n.d.), Artificial intelligence teaching guide. Stanford University. Consultato il 23 novembre 2025 da: https://teachingcommons.stanford.edu/teaching-guides/artificial-intelligence-teaching-guide
  • TeachAI (n.d.), TeachAI – AI guidance for schools toolkit and resources. Consultato il 23 novembre 2025 da: https://www.teachai.org/
  • European Schoolnet Academy (n.d.), Unlocking the power of AI in education (CodeWeek: AI_Education) [MOOC]. European Schoolnet. Consultato il 23 novembre 2025 da: https://www.europeanschoolnetacademy.eu/courses/course-v1%3ACodeWeek%2BAI_Education%2B2023/about
  • European School Education Platform & European Schoolnet (2025), Integrating AI in the classroom with critical thinking [Online course]. School Education Gateway. Consultato il 23 novembre 2025 da: https://school-education.ec.europa.eu/en/learn/courses/integrating-ai-classroom-critical-thinking-1
  • Francis, A. (2025), 5 engaging AI classroom activities to try with your students. Edutopia. Consultato il 23 novembre 2025 da: https://www.edutopia.org/article/5-engaging-ai-classroom-activities-try-your-students/
Certificare le competenze
  • Università di Genova (n.d.), EPICT – Certificazioni digitali per i docenti. European Pedagogical ICT Licence | UniGe. Consultato il 23 novembre 2025 da: https://epict.unige.it/
Competenze digitali
  • Cosgrove, J. and Cachia, R. (2025), DigComp 3.0: European Digital Competence Framework - Fifth Edition, Publications Office of the European Union, Luxembourg, JRC144121. https://op.europa.eu/en/publication-detail/-/publication/d1ed6c89-cb9c-11f0-8da2-01aa75ed71a1/language-en
  • Cukurova, M., Kralj, L., Hertz, B., & Saltidou, E. (2024), Professional development for teachers in the age of AI: European Schoolnet Academy thematic seminar report. Brussels, Belgium: European Schoolnet. Consultato il 23 novembre 2025 da: https://www.eun.org/resources/detail?publicationID=2461
  • EC - Joint Research Centre (2024), Current developments on DigComp (2024–2025). Consultato il 23 novembre 2025 da: https://joint-research-centre.ec.europa.eu/projects-and-activities/education-and-training/digital-transformation-education/digital-competence-framework-digcomp_en
Policy, Linee guida, guide etiche
  • MIM - Ministero dell’Istruzione e del Merito (2025), Linee guida per l’introduzione dell’Intelligenza Artificiale nelle scuole. Versione 1.0. https://www.mim.gov.it/documents/20182/0/MIM_Linee+guida+IA+nella+Scuola_09_08_2025-signed.pdf
  • CE-Sito ufficiale dell’Unione Europea (2025), Legge sull’IA. https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai
  • OECD (2025), Preparing teachers for digital education: Continuing professional learning on digital skills and pedagogies. Organizzazione per la Cooperazione e lo Sviluppo Economico, Education Policy Perspectives, No. 122. Parigi: OECD Publishing, maggio. https://www.oecd.org/en/publications/preparing-teachers-for-digital-education_af442d7a-en.html
  • OCSE (2025), Teaching Compass: Reimagining teachers as agents of curriculum changes, Organizzazione per la Cooperazione e lo Sviluppo Economico, Education Policy Perspectives, No. 123. Parigi: OECD Publishing, maggio. https://www.oecd.org/en/publications/oecd-teaching-compass_8297a24a-en.html
  • Gomes, B., & Google Education (2025), AI and the future of learning. Google. Consultato il 23 novembre 2025 da: https://services.google.com/fh/files/misc/future_of_learning.pdf
  • CE-Sito ufficiale dell’Unione Europea (2025), Diritti e principi digitali europei. Consultato il 23 novembre 2025 da: https://digital-strategy.ec.europa.eu/it/policies/digital-principles
Cyber Humanities
  • Adorni, G., Grosso, D. & Ponzini, D. (2024), Building a “Conversational AI” Syllabus for Educator Certification: a Framework for Integrating AI in Educational Practice, ICERI2024 Proceedings, pp. 9216-9226. DOI: https://library.iated.org/view/ADORNI2024BUI
  • Adorni, G. & Bellini, E.: Towards a Manifesto for Cyber Humanities: Paradigms, Ethics, and Prospects. IEEE Cyber Humanities Conference Proceedings. Firenze 8-10 settembre 2025. https://arxiv.org/abs/2508.02760
  • Adorni, G., Bellini, E., & Torre, I. (2026), Reclaiming agency through Cyber Humanism: A European agenda for AI, education and culture. In L. Hagedorn et al. (Eds.), Digital Humanism (pp. 407–420). Cham, Switzerland: Springer. DOI: https://dl.acm.org/doi/abs/10.1007/978-3-032-11108-1_31
Foto
Copyright 2018-2025 La Scuola
All right reserved
Privacy Policy
LA SCUOLA SpA​
Via Antonio Gramsci 26
25121 Brescia​
​Tel. +39 030 2993.1
Fax +39 030 2993.299
C.F. e P.IVA e Iscrizione Registro Imprese di Brescia 00272780172
Capitale Sociale € 8.000.000,00 i.v.
  • Intelligenza artificiale
  • Approfondimenti e didattica
  • Formazione
  • Modelli di IA