Intelligenza artificiale a scuola
  • Intelligenza artificiale
  • Approfondimenti e didattica
  • Formazione
  • Modelli di IA
Picture

Intelligenza Artificiale: il mito e la storia

Piero Poccianti / Gianluca Simonetta
Associazione Italiana per l'Intelligenza Artificiale
Articolo tratto da SCUOLA E DIDATTICA
Rubrica: PaideIA: l'Intelligenza Artificiale a scuola
L’Intelligenza Artificiale, nata negli anni Cinquanta del secolo scorso con la Proposta di Dartmouth, ha attraversato periodi di entusiasmo e delusione. Oggi l’Intelligenza Artificiale Generativa combina metodi simbolici e subsimbolici, emulando pensiero lento e veloce. Nonostante i progressi, si è ancora lontani da una Intelligenza Artificiale generale. I sistemi attuali producono contenuti plausibili che, pur sorprendenti nella qualità e varietà delle produzioni, non necessariamente hanno corrispondenza nella realtà e sono a rischio “allucinazioni”.

​Parole chiave
  • Algoritmi
  • Intelligenza Artificiale Generale (AGI)
  • Intelligenza Artificiale Generativa (GenAI)
  • Intelligenza Artificiale Ristretta (ANI)
  • Machine Learning
  • Pensiero lento e veloce
  • Reti neurali artificiali

Fin dagli albori della civiltà, gli esseri umani costruiscono macchine e inventano metodi che li aiutino a semplificare e automatizzare le proprie attività. Inoltre, il processo di automazione non riguarda soltanto gli aspetti manuali, ma anche le facoltà intellettuali.
L’Intelligenza Artificiale (IA) è la nuova frontiera di questa tendenza umana. In queste pagine, invece di limitarci a mostrare le meraviglie di cui l’Intelligenza Artificiale è capace, cercheremo di spiegare da dove viene, come funziona e dove sta andando, forse anche verso dove dovremmo cercare di dirigerla.

Le stagioni dell’Intelligenza Artificiale

“10 persone per un’estate”, ovvero l’atto di nascita dell’IA
​

L’IA comincia a svilupparsi fin dagli anni Trenta del secolo scorso con le ricerche di Alan Turing, ma l’espressione “Intelligenza Artificiale” fa la sua comparsa solo negli anni Cinquanta in un documento conosciuto come Proposta di Dartmouth1, in cui si dichiara apertamente quanto segue:
​​
Proponiamo che 10 persone svolgano una ricerca sull’intelligenza artificiale per 2 mesi durante l’estate del 1956 presso il Dartmouth College di Hanover, nel New Hampshire. Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli.

Entusiasmi e delusioni: “primavere e inverni dell’Intelligenza Artificiale”

L’obiettivo dichiarato è quello di realizzare applicazioni capaci di mostrare comportamenti intelligenti. Oggi sappiamo che negli anni Cinquanta erano stati troppo ottimisti. Prevedevano una sola estate, ma ne sono trascorse più di 70 e, come se non bastasse, lo sviluppo dell’IA ha fatto registrare momenti di grandi entusiasmi ma anche di forti delusioni: i ricercatori parlano di “primavere e inverni dell’IA”.

Un primo momento di delusione si riscontra alla fine degli anni Sessanta, dopo anni di ricerche finalizzate allo sviluppo di un “neurone artificiale” (il perceptron) e delle prime “reti neurali artificiali”: è il 1968, Marvin Minsky e Seymour Papert dimostrano che le reti di neuroni artificiali dell’epoca non sono in grado di affrontare alcuni compiti anche molto semplici.
​
La ricerca sulle reti neurali artificiali subisce una battuta di arresto e l’attenzione si sposta sui cosiddetti “sistemi esperti”, ovvero applicazioni in grado di riprodurre la conoscenza e la capacità di ragionamento di un esperto in un determinato settore, come quello medico o quello ingegneristico.

Focus

​Alan Mathison Turing è stato uno dei più grandi matematici e logici del XX secolo ed è considerato uno dei padri dell’informatica e pioniere dell’Intelligenza Artificiale. Portano il suo nome la Macchina di Turing e il Test di Turing. La prima è una macchina astratta che permette di simulare la logica di qualunque algoritmo eseguibile su un computer reale. Il secondo, che Turing chiama “gioco dell’imitazione”, è un criterio per determinare se una macchina è in grado di esibire un comportamento intelligente e rappresenta un caposaldo delle ricerche in Intelligenza Artificiale. Turing è inoltre noto per il contributo dato nella decifrazione dei codici segreti nazisti durante la seconda guerra mondiale.

Marvin Lee Minsky è stato un matematico e informatico statunitense specializzato nel campo dell’Intelligenza Artificiale. Fu tra i fondatori dell’Artificial Intelligence Laboratory presso il Massachusetts Institute of Technology (MIT) di Cambridge (Massachusetts) e ha dato un contributo fondamentale nel campo dell’analisi delle reti neurali artificiali.

Seymour Papert è stato un matematico, informatico e pedagogista sudafricano naturalizzato statunitense. Dopo aver lavorato con Jean Piaget si è trasferito al MIT e ha collaborato con Marvin Minsky e il gruppo che si occupava di Intelligenza Artificiale. Ha introdotto il concetto di “costruzionismo” nelle teorie dell’apprendimento, considerato una ri-costruzione piuttosto che una trasmissione di conoscenze. È stato tra gli autori del linguaggio di programmazione LOGO.
Tuttavia, anche lo slancio per questi sistemi è destinato a spegnersi: i sistemi esperti sono poco sostenibili perché impongono una revisione continua del database a mano a mano che le conoscenze nei vari settori si sviluppano.

Le reti neurali di nuova generazione e l’IA generativa: una nuova estate?

A metà degli anni Ottanta torna in primo piano il modello della rete neurale, che fa registrare un notevole passo avanti con reti a più strati, superando i limiti precedentemente riscontrati.

In seguito, durante i primi anni Duemila, le reti neurali cominciano a essere costituite da molti strati e vengono definite “profonde” (Deep Neural Network). A ciò si aggiunge una maggiore potenza di calcolo e la grande disponibilità su Internet di tantissimi dati utilizzabili come esempi con cui alimentare le reti neurali nel cosiddetto processo di “apprendimento automatico” (Machine Learning). Si comincia quindi a parlare di Deep Learning (ovvero il processo di Machine Learning gestito dalle Deep Neural Network).

Grazie al successo di questi sistemi, nella stagione attuale assistiamo allo sviluppo di una nuova forma di IA che viene detta “generativa” (Generative Artificial Intelligence o GenAI) e che, in combinazione con le altre metodologie nel tempo affermatesi, permette alle applicazioni di eseguire le operazioni più disparate:

• visione artificiale: dal riconoscimento di oggetti e di situazioni in video fino alla diagnostica per immagini;

• trattamento del linguaggio: comprensione dei testi scritti e del linguaggio parlato, traduzione, riassunto e risposta a domande formulate in linguaggio naturale;

• soluzioni creative: generazione di immagini e filmati a partire da una descrizione, generazione di musica e canzoni, realizzazione di invenzioni e brevetti medici;

• supporto alle decisioni: ausilio nella soluzione di problemi complessi fino al supporto agli esperti umani in determinati settori;

• problem solving: dall’individuazione di soluzioni per problemi con vincoli fino all’ottimizzazione di risorse scarse;
​
• robotica: veicoli, velivoli e natanti con diversi gradi di autonomia fino ai robot per pulizia e ai social robot umanoidi per l’assistenza ad anziani e portatori di handicap.

Modelli del pensiero e paradigmi di Intelligenza Artificiale

Grazie alle applicazioni di GenAI l’entusiasmo nei confronti dell’IA è oggi al suo apice ed è alimentato soprattutto dalle grandi aziende produttrici. Ma per non cadere preda di false mitologie, che possono concludersi con una nuova stagione di disinganno, è necessario comprendere le potenzialità e i limiti che i vari strumenti possono esprimere.

A tal fine, può essere utile una breve panoramica teorica che ci permetterà di comprendere se e quanto abbia senso definire “intelligente” tutto ciò che è possibile fare con le nuove applicazioni di IA generativa.

Pensiero lento e pensiero veloce In primo luogo, dobbiamo comprendere che l’intelligenza (naturale o artificiale che sia) non è un’unica facoltà, ma una cassetta degli attrezzi che di volta in volta dobbiamo usare per affrontare un determinato problema.

Una proposta interessante ci viene dallo psicologo israeliano Daniel Kahneman2 il quale descrive due modalità di ragionamento che abitualmente utilizziamo nei nostri processi mentali: il pensiero lento, riflessivo, che necessita di attenzione e pazienza; il pensiero veloce, rapido, intuitivo, basato su automatismi e scorciatoie mentali.

Metodi simbolici e subsimbolici Il cervello attiva la modalità lenta e riflessiva solo occasionalmente; nella maggior parte dei casi si serve della modalità veloce (una sorta di pilota automatico) che garantisce una buona gestione dei problemi con il minimo consumo di risorse.

Qualcosa di simile avviene anche in IA, che sfrutta sia metodi simbolici (con strumenti che manipolano simboli per la rappresentazione esplicita della conoscenza e del ragionamento) sia metodi subsimbolici (con strumenti che cercano di riprodurre il cervello al suo livello più elementare). I metodi subsimbolici sono adatti a emulare il pensiero veloce, mentre i metodi simbolici sono adatti a emulare quello lento.

Intelligenza Artificiale Generale e Intelligenza Artificiale Ristretta Come abbiamo visto in apertura, l’obiettivo dichiarato dell’IA è quello di mostrare comportamenti intelligenti. Tuttavia, tradizionalmente, l’obiettivo viene suddiviso in due aree: Intelligenza Artificiale di tipo generale (Artificial General Intelligence - AGI) e Intelligenza Artificiale di tipo ristretto (Narrow Artificial Intelligence - ANI). La prima tende a costruire sistemi capaci di affrontare qualsiasi problema, la seconda realizza applicazioni che, in ambiti determinati, esprimono comportamenti paragonabili o superiori alle capacità umane.

Stiamo procedendo verso AGI? A nostro avviso siamo ancora lontani, anche se ci sono in circolazione opinioni molto più ottimistiche. È tuttavia un fatto che l’entusiasmo che circonda le nuove applicazioni somiglia a quello che in passato ha portato agli inverni dell’IA. Se sovrastimiamo le capacità di questi strumenti è probabile che incorreremo in nuove forme di delusione. Dobbiamo quindi essere consapevoli di cosa sono in grado di fare e di quali limiti presentano.

Per esempio, i sistemi di Intelligenza Artificiale Generativa (GenAI) più noti (ChatGPT di OpenAI o Gemini di Google) sorprendono per le risposte che forniscono e per i contenuti che sono in grado di generare (testi, immagini, video, formule, calcoli, componimenti poetici). Questi risultati paiono l’effetto di autentiche forme di ragionamento, pensiero e intelligenza. In realtà, si tratta di sistemi subsimbolici, che emulano il pensiero veloce, la parte intuitiva delle nostre capacità.
​
Ne consegue che dobbiamo evitare di cadere nella trappola di considerare le applicazioni di GenAI come un oracolo: ChatGPT, Gemini e il resto delle applicazioni disponibili sul mercato inventano risposte statisticamente plausibili, ma non necessariamente vere; molto spesso, anzi, i risultati sono delle vere e proprie “allucinazioni” generate senza nessun fondamento.

Che cosa faremo con l’Intelligenza Artificiale?

Se lasciamo da parte le applicazioni commerciali e analizziamo le ricerche di laboratorio che stanno dando i risultati migliori, troviamo che quelli di IA sono tutti sistemi neuro-simbolici, ovvero sistemi che combinano pensiero lento e pensiero veloce.

Da questa integrazione di paradigmi deriveranno, a nostro avviso, nuove applicazioni in grado di rafforzare la nostra intelligenza fornendo supporto non solo alla nostra conoscenza, ma anche alle nostre capacità critiche affiancate a quelle analitiche. Direi poi che da questa integrazione di paradigmi possiamo aspettarci risultati nuovi ed entusiasmanti nel campo della medicina, della sostenibilità, della sociologia, dell’economia, della ricerca scientifica e di molto altro.

Abbiamo però bisogno di un approccio all’IA di natura inter- e cross-disciplinare, che ci metta in condizione di dirigere la ricerca e lo sviluppo delle applicazioni verso il benessere dell’umanità e del pianeta. Perché, come tutti gli strumenti potenti, anche le applicazioni dell’IA possono produrre effetti distopici.
​
La buona – ma anche cattiva – notizia è che tutte queste decisioni dipendono da noi.

Suggerimenti di lettura

  • Kahneman D., Pensieri lenti e veloci, Mondadori, Milano 2012.
  • McCarthy J., Minsky M., Rochester N., Shannon C., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, ora in “AI Magazine”, vol. 27, n. 4, 2006, pp. 12-14.
  • Minsky M., Papert S., Perceptrons. An Introduction to Computational Geometry, MIT Press, Cambridge, MA, 1968.
  • Papert S., Mindstorms: bambini computers e creatività, Emme Edizioni, Milano 1984.
  • Turing A.M., Macchine calcolatrici e intelligenza (a cura di D. Marconi), Einaudi, Torino 2025.
Leggi i successivi articoli:

Pensiero Computazionale, Cittadinanza Digitale e Intelligenza Artificiale attraverso attività unplugged

Picture
Questo articolo è tratto da SCUOLA E DIDATTICA
Scuola e Didattica è la rivista digitale mensile di aggiornamento professionale dedicata agli insegnanti di Scuola Secondaria di Primo Grado.
Offre spunti e materiali didattici su tutte le discipline, nonché approfondimenti sulle metodologie e le tematiche più attuali nella scuola.
Per l’a.s. 2025/2026 ogni mese un articolo sull’Intelligenza artificiale.
APPROFONDISCI
 
NOTE
1 Si tratta di un progetto di ricerca datato 31 agosto 1955, intitolato A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence e firmato da John McCarthy del Dartmouth College, Marvin Minsky dell’Università di Harvard, Nathaniel Rochester della IBM e Claude Shannon dei Bell Telephone Laboratories.

2 Daniel Kahneman ha studiato la formulazione del giudizio umano e delle decisioni in condizioni d’incertezza, ma i suoi interessi trasversali sono espliciti fin dal titolo delle sue opere: Psicologia dell’attenzione, Decidere nell’incertezza, Economia della felicità, Pensieri lenti e veloci. Nel 2002 ha vinto il premio Nobel per l’economia «per avere integrato i risultati della ricerca psicologica nella scienza economica».
Foto
Copyright 2018-2025 La Scuola
All right reserved
Privacy Policy
LA SCUOLA SpA​
Via Antonio Gramsci 26
25121 Brescia​
​Tel. +39 030 2993.1
Fax +39 030 2993.299
C.F. e P.IVA e Iscrizione Registro Imprese di Brescia 00272780172
Capitale Sociale € 8.000.000,00 i.v.
  • Intelligenza artificiale
  • Approfondimenti e didattica
  • Formazione
  • Modelli di IA