Gli attuali sistemi di IA non sono intelligenti, almeno non quanto e come lo siamo noi, per svariati motivi: (1) non sono coscienti e autocoscienti; (2) non comprendono quel che fanno, dicono, leggono, vedono, ecc. (ignorano la semantica, sono soggetti a paradossali “allucinazioni”, sono facilmente ingannabili, mancano di elementari conoscenze di sfondo necessarie a comprendere le situazioni); (3) sono solo settoriali; (4) non ragionano per concetti; (5) sono “opachi” e incapaci di render conto di quel che fanno. Questa netta inferiorità dell’IA si spiega con l’enorme divario di complessità e potenza tra il cervello umano ed i computers, anche i più potenti.
Parole chiave
Parole chiave
- Coscienza
- Comprensione
- Settorialità
- Concettualizzazione
- Opacità
- Complessità.
Nel primo articolo di questa serie1 abbiamo provato a capire come sia possibile creare qualcosa di straordinario come l’intelligenza artificiale (IA). Nel secondo2 abbiamo invece visto a grandi linee come funzionano i principatipi di sistemi di IA, quelli simbolici e quelli costituiti da reti neurali. Questi sistemi hanno ottenuto successi davvero strabilianti e trovano impieghi di enorme utilità pratica. In realtà, tuttavia, essi non sono realmente intelligenti, quanto meno non lo sono come e quanto noi.
Come ha scritto recentemente il Papa, ‘Intelligenza artificiale’ è un termine fuorviante, e sarebbe più corretto dire “Sistemi di apprendimento automatico”, ossia “machine learning”, come si dice in inglese3. Vediamone dunque le ragioni4.
Come ha scritto recentemente il Papa, ‘Intelligenza artificiale’ è un termine fuorviante, e sarebbe più corretto dire “Sistemi di apprendimento automatico”, ossia “machine learning”, come si dice in inglese3. Vediamone dunque le ragioni4.
L’IA non è cosciente né autocosciente
‘Intelligente’ deriva dal latino “intelligere”, ossia comprendere, ma questi sistemi non sanno e non comprendono quel che fanno o che dicono. Ad esempio, Deep Blue non sa che sta giocando a scacchi, non sa che gli scacchi sono un gioco, non sa che cosa significa vincere, e quando ha vinto non sapeva di aver vinto e non ne ha tratto nessun piacere. Dunque, non è cosciente (di sé stesso e della realtà) né autocosciente.
Parlando di coscienza non intendiamo qui la coscienza morale (la consapevolezza di quel che è bene o male), ma ciò che abbiamo quando siamo svegli e coscienti e non abbiamo più quando siamo addormentati o svenuti, ossia incoscienti. È l’esperienza che si ha delle sensazioni dei colori e delle forme, dei suoni, degli odori, dei sapori e del tatto, l’esperienza del sentir fame e sete, caldo e freddo, gioia o dolore o altre emozioni, ciò che si prova quando si pensa, si teme, si desidera, ecc. È qualcosa di radicalmente altro dal corpo e dalle sue operazioni, e non consiste nemmeno nelle sensazioni o emozioni stesse, o nei sentimenti o pensieri stessi, che ne sono i contenuti, ma è il fatto di farne esperienza: ad esempio, uno sveglio e un sonnambulo fanno le stesse cose e anche vedono o sentono le stesse cose, ma lo sveglio ne è cosciente, ne fa esperienza, e il sonnambulo no. Se le piante quasi certamente non hanno coscienza e gli animali si, gli umani hanno in aggiunta anche l’autocoscienza; non solo cioè sentono le diverse sensazioni ed emozioni, ma sono anche consapevoli di sentirle e di essere se stessi a sentirle.
Nel primo articolo si era visto come l’IA possa svolgere svariate funzioni, quali induzione, inferenza analogica, ragionamento ipotetico, deduzione, classificazione, sperimentazione, astrazione, esemplificazione, apprendimento per prova ed errore, previsione, analisi statistica, calcoli algebrici e delle probabilità, e grazie a queste sa produrre testi, riconoscere immagini, ecc. L’IA è in grado di svolgerle in quanto si tratta di funzioni computazionali, ossia costituite in ultima analisi da calcoli logici o matematici, a loro volta analizzabili in componenti elementari e procedimenti automatici, che quindi possono esser svolte anche dai computers.
Per quanto ne sappiamo, invece, la coscienza e l’autocoscienza non sono computazionali, non si possono analizzare in passi logici elementari e procedimenti automatici. Ogni esperienza cosciente è qualcosa di semplice e immediato, irriducibile ad altro. Sembrerebbe perciò escluso che un sistema di IA, anche il più potente, possa essere cosciente, e tantomeno autocosciente.
Ad esempio, un’auto a guida automatica quando riceve il segnale luminoso di un semaforo rosso si ferma, ma non prova una sensazione di rosso, e non è consapevole di aver deciso di fermarsi. In un senso molto preciso essa sa di esser ferma, questo è uno dei dati nella sua memoria ed essa reagirà di conseguenza; tuttavia, essa non sente quel che si prova a star fermi o a muoversi, come lo sentiamo noi, né ha la sensazione o la consapevolezza di sapere di esser ferma. In essa c’è solo un automatismo per cui il raggio luminoso di una certa lunghezza d’onda fa scattare il freno, e quello di un’altra lunghezza d’onda fa mollare il freno e schiacciare l’acceleratore. Non abbiamo la più pallida idea di come produrre la coscienza in una macchina, perché non abbiamo idea di cosa la produca in noi. Alcuni hanno sostenuto che un’IA non può avere coscienza perché questa può emergere solo da un cervello di carne e non da un “cervello” di silicio come il computer. Tale tesi è dubbia, però, perché invece, come si è visto, per produrre l’intelligenza non conta il materiale usato, bensì solo il modo in cui è organizzato. Semmai, l’argomento di impossibilità dovrebbe far leva sulla differenza tra coscienza e funzioni computazionali.
Altri hanno sostenuto che la coscienza sorge automaticamente appena ci sia un sistema di complessità analoga a quella del cervello, ma è impossibile controllare questa tesi, dato che i nostri computer sono ancora lontanissimi da una tale complessità. Su questo torneremo in un altro articolo5.
Di per sé, tuttavia, la mancanza di coscienza ed autocoscienza non impedirebbe alle macchine di avere un’intelligenza computazionale, che è poi quella che conta ai fini pratici: nulla sembra indicare che coscienza o autocoscienza siano necessarie o facciano una qualche differenza rispetto alle capacità di apprendere, scoprire o compiere qualunque operazione pratica. In linea di principio, un automa inconscio potrebbe possedere un’intelligenza computazionale e capacità operative pari o superiori alla nostra. In realtà, tuttavia, gli attuali sistemi di IA incon- trano forti limitazioni anche rispetto alle funzioni computazionali, come vedremo ora.
Parlando di coscienza non intendiamo qui la coscienza morale (la consapevolezza di quel che è bene o male), ma ciò che abbiamo quando siamo svegli e coscienti e non abbiamo più quando siamo addormentati o svenuti, ossia incoscienti. È l’esperienza che si ha delle sensazioni dei colori e delle forme, dei suoni, degli odori, dei sapori e del tatto, l’esperienza del sentir fame e sete, caldo e freddo, gioia o dolore o altre emozioni, ciò che si prova quando si pensa, si teme, si desidera, ecc. È qualcosa di radicalmente altro dal corpo e dalle sue operazioni, e non consiste nemmeno nelle sensazioni o emozioni stesse, o nei sentimenti o pensieri stessi, che ne sono i contenuti, ma è il fatto di farne esperienza: ad esempio, uno sveglio e un sonnambulo fanno le stesse cose e anche vedono o sentono le stesse cose, ma lo sveglio ne è cosciente, ne fa esperienza, e il sonnambulo no. Se le piante quasi certamente non hanno coscienza e gli animali si, gli umani hanno in aggiunta anche l’autocoscienza; non solo cioè sentono le diverse sensazioni ed emozioni, ma sono anche consapevoli di sentirle e di essere se stessi a sentirle.
Nel primo articolo si era visto come l’IA possa svolgere svariate funzioni, quali induzione, inferenza analogica, ragionamento ipotetico, deduzione, classificazione, sperimentazione, astrazione, esemplificazione, apprendimento per prova ed errore, previsione, analisi statistica, calcoli algebrici e delle probabilità, e grazie a queste sa produrre testi, riconoscere immagini, ecc. L’IA è in grado di svolgerle in quanto si tratta di funzioni computazionali, ossia costituite in ultima analisi da calcoli logici o matematici, a loro volta analizzabili in componenti elementari e procedimenti automatici, che quindi possono esser svolte anche dai computers.
Per quanto ne sappiamo, invece, la coscienza e l’autocoscienza non sono computazionali, non si possono analizzare in passi logici elementari e procedimenti automatici. Ogni esperienza cosciente è qualcosa di semplice e immediato, irriducibile ad altro. Sembrerebbe perciò escluso che un sistema di IA, anche il più potente, possa essere cosciente, e tantomeno autocosciente.
Ad esempio, un’auto a guida automatica quando riceve il segnale luminoso di un semaforo rosso si ferma, ma non prova una sensazione di rosso, e non è consapevole di aver deciso di fermarsi. In un senso molto preciso essa sa di esser ferma, questo è uno dei dati nella sua memoria ed essa reagirà di conseguenza; tuttavia, essa non sente quel che si prova a star fermi o a muoversi, come lo sentiamo noi, né ha la sensazione o la consapevolezza di sapere di esser ferma. In essa c’è solo un automatismo per cui il raggio luminoso di una certa lunghezza d’onda fa scattare il freno, e quello di un’altra lunghezza d’onda fa mollare il freno e schiacciare l’acceleratore. Non abbiamo la più pallida idea di come produrre la coscienza in una macchina, perché non abbiamo idea di cosa la produca in noi. Alcuni hanno sostenuto che un’IA non può avere coscienza perché questa può emergere solo da un cervello di carne e non da un “cervello” di silicio come il computer. Tale tesi è dubbia, però, perché invece, come si è visto, per produrre l’intelligenza non conta il materiale usato, bensì solo il modo in cui è organizzato. Semmai, l’argomento di impossibilità dovrebbe far leva sulla differenza tra coscienza e funzioni computazionali.
Altri hanno sostenuto che la coscienza sorge automaticamente appena ci sia un sistema di complessità analoga a quella del cervello, ma è impossibile controllare questa tesi, dato che i nostri computer sono ancora lontanissimi da una tale complessità. Su questo torneremo in un altro articolo5.
Di per sé, tuttavia, la mancanza di coscienza ed autocoscienza non impedirebbe alle macchine di avere un’intelligenza computazionale, che è poi quella che conta ai fini pratici: nulla sembra indicare che coscienza o autocoscienza siano necessarie o facciano una qualche differenza rispetto alle capacità di apprendere, scoprire o compiere qualunque operazione pratica. In linea di principio, un automa inconscio potrebbe possedere un’intelligenza computazionale e capacità operative pari o superiori alla nostra. In realtà, tuttavia, gli attuali sistemi di IA incon- trano forti limitazioni anche rispetto alle funzioni computazionali, come vedremo ora.
Questi sistemi non comprendono abbastanza
Ignorano la semantica
ChatGPT scrive dei saggi originali che meriterebbero 9 al liceo e un voto discreto all’università, ma non ha la più pallida idea di ciò su cui sta scrivendo. Può fare un dottissimo saggio sugli elefanti, ma non sa cosa sia un elefante, perché non può vederlo, non avendo occhi, e se anche lo vedesse non lo riconoscerebbe. Certo, può dirvi tutto su di lui: che è un mammifero, con la proboscide, le zanne, che vive in India e in Africa, ecc. Ma non sa cosa siano la proboscide, le zanne, l’Africa, l’India, ecc. Cioè, è bravissima a connettere una parola con moltissime altre, ma non sa connettere quella parola con la cosa reale che essa significa: riproduce correttamente la sintassi, ma ignora la semantica dei discorsi.
Questo punto fu illustrato da John Searle col famoso esempio della “stanza cinese”: un sistema di IA è come un italiano che, ignorando il cinese, a Pechino venisse rinchiuso in una stanza, dotato solo di carta e penna e di una lista di tutte le possibili domande fatte in cinese con le relative risposte nella stessa lingua. Se da sotto la porta i cinesi gli passassero biglietti con domande di ogni tipo, confrontandole con la sua lista egli potrebbe scrivere per ciascuna la riposta corretta in cinese, passandola loro da sotto la porta. I cinesi, allora, si convincerebbero che nella stanza ci fosse qualcuno che conosce il cinese, mentre l’italiano non capirebbe un’acca delle domande né delle risposte6.
Sono vittime di “allucinazioni”
Le figure dall’1 al 5 mostrano come un sistema di riconoscimento immagini ha classificato altrettante foto. Ebbene, essi danno risultati esatti al 90% o al 99% (per esempio figura 1, figura 2), ma di tanto in tanto commettono errori talmente assurdi che nemmeno un bambino piccolo li commetterebbe (figure 3, 4, 5)7. Errori altrettanto macroscopici sono occasionalmente commessi dai sistemi di traduzione, di trattamento di testi, ecc. ChatGPT è capace di scrivere dottissimi saggi e sostenere profonde conversazioni, ma può cadere anche in incredibili ingenuità o errori. In una conversazione su semplici questioni di algebra, ad esempio, ha finito per sostenere che uno è maggiore di uno8.
Per quanto rare, queste “allucinazioni” dimostrano che tali sistemi non hanno proprio idea di quel che stanno dicendo o facendo. Perché?
Perché essi non imparano come i bambini piccoli, cioè associando le parole alle cose che ne costituiscono il significato. Al contrario, come si è visto nell’articolo precedente, si addestrano per tentativi ed errori con decine di migliaia di esempi, e in ogni caso nuovo e mai visto prima danno la stessa risposta che in precedenza aveva funzionato in casi più o meno simili. Il problema sta nel “più o meno”: nessun caso è mai perfettamente identico a un altro, e casi diversi possono somigliarsi e differire nei modi più diversi. Nonostante il gran numero di casi già esaminati, pertanto, può sempre capitare che un nuovo caso somigli a certi casi noti in molti modi, ma non nei modi che contano davvero. Un umano se ne renderebbe conto immediatamente, ma il sistema procede meccanicamente e “alla cieca”, in base al sistema di pesi che ha progressivamente elaborato, fornendo così risposte completamento fuori bersaglio.
ChatGPT scrive dei saggi originali che meriterebbero 9 al liceo e un voto discreto all’università, ma non ha la più pallida idea di ciò su cui sta scrivendo. Può fare un dottissimo saggio sugli elefanti, ma non sa cosa sia un elefante, perché non può vederlo, non avendo occhi, e se anche lo vedesse non lo riconoscerebbe. Certo, può dirvi tutto su di lui: che è un mammifero, con la proboscide, le zanne, che vive in India e in Africa, ecc. Ma non sa cosa siano la proboscide, le zanne, l’Africa, l’India, ecc. Cioè, è bravissima a connettere una parola con moltissime altre, ma non sa connettere quella parola con la cosa reale che essa significa: riproduce correttamente la sintassi, ma ignora la semantica dei discorsi.
Questo punto fu illustrato da John Searle col famoso esempio della “stanza cinese”: un sistema di IA è come un italiano che, ignorando il cinese, a Pechino venisse rinchiuso in una stanza, dotato solo di carta e penna e di una lista di tutte le possibili domande fatte in cinese con le relative risposte nella stessa lingua. Se da sotto la porta i cinesi gli passassero biglietti con domande di ogni tipo, confrontandole con la sua lista egli potrebbe scrivere per ciascuna la riposta corretta in cinese, passandola loro da sotto la porta. I cinesi, allora, si convincerebbero che nella stanza ci fosse qualcuno che conosce il cinese, mentre l’italiano non capirebbe un’acca delle domande né delle risposte6.
Sono vittime di “allucinazioni”
Le figure dall’1 al 5 mostrano come un sistema di riconoscimento immagini ha classificato altrettante foto. Ebbene, essi danno risultati esatti al 90% o al 99% (per esempio figura 1, figura 2), ma di tanto in tanto commettono errori talmente assurdi che nemmeno un bambino piccolo li commetterebbe (figure 3, 4, 5)7. Errori altrettanto macroscopici sono occasionalmente commessi dai sistemi di traduzione, di trattamento di testi, ecc. ChatGPT è capace di scrivere dottissimi saggi e sostenere profonde conversazioni, ma può cadere anche in incredibili ingenuità o errori. In una conversazione su semplici questioni di algebra, ad esempio, ha finito per sostenere che uno è maggiore di uno8.
Per quanto rare, queste “allucinazioni” dimostrano che tali sistemi non hanno proprio idea di quel che stanno dicendo o facendo. Perché?
Perché essi non imparano come i bambini piccoli, cioè associando le parole alle cose che ne costituiscono il significato. Al contrario, come si è visto nell’articolo precedente, si addestrano per tentativi ed errori con decine di migliaia di esempi, e in ogni caso nuovo e mai visto prima danno la stessa risposta che in precedenza aveva funzionato in casi più o meno simili. Il problema sta nel “più o meno”: nessun caso è mai perfettamente identico a un altro, e casi diversi possono somigliarsi e differire nei modi più diversi. Nonostante il gran numero di casi già esaminati, pertanto, può sempre capitare che un nuovo caso somigli a certi casi noti in molti modi, ma non nei modi che contano davvero. Un umano se ne renderebbe conto immediatamente, ma il sistema procede meccanicamente e “alla cieca”, in base al sistema di pesi che ha progressivamente elaborato, fornendo così risposte completamento fuori bersaglio.
Sono facilmente ingannabili
Proprio per questo, tali sistemi possono essere facilmente ingannati: nelle figure 6 e 7 vediamo a sinistra immagini normali (uno scuola bus, un tempio, una mantide religiosa, un cane Shih Tzu) che vengono classificate correttamente. A destra però ci sono immagini molto simili (noi le diremmo identiche), in cui solo pochi pixel sono stati appositamente cambiati. Tanto basta però perché il sistema, fuorviato, sbagli clamorosamente, classificandole come uno struzzo9.
Proprio per questo, tali sistemi possono essere facilmente ingannati: nelle figure 6 e 7 vediamo a sinistra immagini normali (uno scuola bus, un tempio, una mantide religiosa, un cane Shih Tzu) che vengono classificate correttamente. A destra però ci sono immagini molto simili (noi le diremmo identiche), in cui solo pochi pixel sono stati appositamente cambiati. Tanto basta però perché il sistema, fuorviato, sbagli clamorosamente, classificandole come uno struzzo9.
L'emergere dell'intelligenza artificiale
Mancano delle indispensabili conoscenze di sfondo
Per comprendere un discorso non serve solo conoscere il significato di ogni parola, ma anche possedere molte conoscenze di sfondo e di senso comune che per noi tutti sono ovvie, ma che un sistema di IA difficilmente possiede. Ad esempio, un sistema di elaborazione del linguaggio (come ChatGPT) ha difficoltà con problemi come i seguenti)10:
(a) Ho versato acqua dalla bottiglia nella tazza fino a riempirla: che cosa si è riempito, la bottiglia o la tazza?
(b) Ho versato acqua dalla bottiglia nella tazza fino a vuotarla: che cosa si è vuotato, la bottiglia o la tazza?
(c) I funzionari hanno negato il permesso ai manifestanti perché temevano delle violenze: chi temeva le violenze, i funzionari o i manifestanti?
(d) I funzionari hanno negato il permesso ai manifestanti perché incitavano alla violenza: chi incitava alla violenza, i funzionari o i manifestanti?
Per noi è ovvio che se ci sono delle violenze sono commesse dai manifestanti, non dai funzionari, e chi può incitare alla violenza sono eventualmente i manifestanti e non i funzionari, mentre chi le teme sono eventualmente i funzionari e non i manifestanti. Lo sappiamo perché sappiamo come vanno le cose nel mondo, cos’è una manifestazione, chi ci partecipa, che ruolo hanno i funzionari, ecc. Il sistema invece non ne ha idea. La Mitchell spiega che finora il programma con la prestazione migliore ha fornito solo il 61% di risposte corrette su 250 domande del genere.
Questi sistemi falliscono dunque nel famoso test che Alan Turing (uno dei padri dell’IA) propose per verificare se un programma informatico fosse intelligente o meno: potremo considerare il programma intelligente se è in grado di sostenere una conversazione con un umano in modo che questi, ignorando chi sia il suo interlocutore, non si accorga che si tratta di un sistema informatico e non di una persona11.
Sottoponendo ai nostri sistemi questo genere di problemi, invece, ci si accorgerebbe che non si tratta di qualcuno intelligente12.
Un altro esempio è questo: un sistema di guida automatica per l’auto sa più o meno riconoscere gli ostacoli sulla strada ed evitarli o fermarsi se serve. Ma le situazioni nel traffico possono essere diversissime, e per viaggiare sicuri bisogna saper prevedere le reazioni e i comportamenti altrui, anche quelli più inattesi. Noi ci riusciamo grazie a una serie di conoscenze tacite che sono immediatamente ovvie anche a un bambino di due anni, ma che una IA non possiede. Se guidando ci capitasse di trovarci davanti una situazione come quella presa ad esempio dalla Mitchell (figura 8) noi reagiremmo correttamente perché sappiamo che:
- il passeggino è tutto intero, la parte anteriore c’è anche se non inquadrata;
- un oggetto come il passeggino si muove solo se è spinto;
- la spinta è la causa del movimento del passeggino;
- se si lascia la presa, un oggetto come il cellulare cadrà e forse si romperà;
- ecc.: cioè, abbiamo una fisica intuitiva.
Inoltre, sappiamo che:
- un oggetto come il cane, invece, può muoversi da solo;
- esso, inoltre, vede e sente proprio come noi;
- e adesso è chinato per fiutare qualcosa;
- ecc.: cioè, abbiamo anche una biologia intuitiva.
Infine, sappiamo anche che:
- la ragazza desidera attraversare la strada col cane e col bambino;
- non conosce l’uomo che attraversa nell’altro senso, e non se ne preoccupa;
- la sua attenzione principale è per la conversazione al telefono;
- si aspetta che le auto si fermino per lasciarla passare;
- si spaventerebbe se la vostra auto si avvicinasse troppo;
- ecc.: in altri termini, abbiamo anche una psicologia intuitiva.
Tutte queste conoscenze, invece, il sistema di guida automatica non le ha13.
Per comprendere un discorso non serve solo conoscere il significato di ogni parola, ma anche possedere molte conoscenze di sfondo e di senso comune che per noi tutti sono ovvie, ma che un sistema di IA difficilmente possiede. Ad esempio, un sistema di elaborazione del linguaggio (come ChatGPT) ha difficoltà con problemi come i seguenti)10:
(a) Ho versato acqua dalla bottiglia nella tazza fino a riempirla: che cosa si è riempito, la bottiglia o la tazza?
(b) Ho versato acqua dalla bottiglia nella tazza fino a vuotarla: che cosa si è vuotato, la bottiglia o la tazza?
(c) I funzionari hanno negato il permesso ai manifestanti perché temevano delle violenze: chi temeva le violenze, i funzionari o i manifestanti?
(d) I funzionari hanno negato il permesso ai manifestanti perché incitavano alla violenza: chi incitava alla violenza, i funzionari o i manifestanti?
Per noi è ovvio che se ci sono delle violenze sono commesse dai manifestanti, non dai funzionari, e chi può incitare alla violenza sono eventualmente i manifestanti e non i funzionari, mentre chi le teme sono eventualmente i funzionari e non i manifestanti. Lo sappiamo perché sappiamo come vanno le cose nel mondo, cos’è una manifestazione, chi ci partecipa, che ruolo hanno i funzionari, ecc. Il sistema invece non ne ha idea. La Mitchell spiega che finora il programma con la prestazione migliore ha fornito solo il 61% di risposte corrette su 250 domande del genere.
Questi sistemi falliscono dunque nel famoso test che Alan Turing (uno dei padri dell’IA) propose per verificare se un programma informatico fosse intelligente o meno: potremo considerare il programma intelligente se è in grado di sostenere una conversazione con un umano in modo che questi, ignorando chi sia il suo interlocutore, non si accorga che si tratta di un sistema informatico e non di una persona11.
Sottoponendo ai nostri sistemi questo genere di problemi, invece, ci si accorgerebbe che non si tratta di qualcuno intelligente12.
Un altro esempio è questo: un sistema di guida automatica per l’auto sa più o meno riconoscere gli ostacoli sulla strada ed evitarli o fermarsi se serve. Ma le situazioni nel traffico possono essere diversissime, e per viaggiare sicuri bisogna saper prevedere le reazioni e i comportamenti altrui, anche quelli più inattesi. Noi ci riusciamo grazie a una serie di conoscenze tacite che sono immediatamente ovvie anche a un bambino di due anni, ma che una IA non possiede. Se guidando ci capitasse di trovarci davanti una situazione come quella presa ad esempio dalla Mitchell (figura 8) noi reagiremmo correttamente perché sappiamo che:
- il passeggino è tutto intero, la parte anteriore c’è anche se non inquadrata;
- un oggetto come il passeggino si muove solo se è spinto;
- la spinta è la causa del movimento del passeggino;
- se si lascia la presa, un oggetto come il cellulare cadrà e forse si romperà;
- ecc.: cioè, abbiamo una fisica intuitiva.
Inoltre, sappiamo che:
- un oggetto come il cane, invece, può muoversi da solo;
- esso, inoltre, vede e sente proprio come noi;
- e adesso è chinato per fiutare qualcosa;
- ecc.: cioè, abbiamo anche una biologia intuitiva.
Infine, sappiamo anche che:
- la ragazza desidera attraversare la strada col cane e col bambino;
- non conosce l’uomo che attraversa nell’altro senso, e non se ne preoccupa;
- la sua attenzione principale è per la conversazione al telefono;
- si aspetta che le auto si fermino per lasciarla passare;
- si spaventerebbe se la vostra auto si avvicinasse troppo;
- ecc.: in altri termini, abbiamo anche una psicologia intuitiva.
Tutte queste conoscenze, invece, il sistema di guida automatica non le ha13.
I nostri sistemi di IA sono solo settoriali
Gli attuali sistemi di IA sono ovviamente inferiori a noi anche perché sono stati costruiti per fare una certa cosa e sanno fare solo quella: Deep Blue non sa giocare a dama e Alpha Go non sa giocare a scacchi. Certo, potrebbe esser riprogrammato per imparare anche quello, ma ci vorrebbero di nuovo molto tempo ed enormi investimenti, e dopo non saprebbe comunque fare tutto il resto. ChatGPT sa parlare di tutto, ma non sa giocare, classificare immagini, ecc. Ciascuno di noi, invece, con un po’ di istruzione e seppur con molti limiti, può fare potenzialmente di tutto. La nostra è una intelligenza generale, le varie IA attuali invece sono solo settoriali.
L’ IA attuale non sa astrarre e concettualizzare
Un altro limite di questi sistemi è che noi pensiamo e impariamo per astrazione e concettualizzazione, mentre loro non ne sono in grado. Normalmente, cioè, quando apprendiamo (a) riconosciamo le somiglianze (o analogie) tra oggetti e fatti diversi, (b) astraiamo, cioè consideriamo di un oggetto o di un fatto solo certi aspetti che a noi interessano trascurando tutti gli altri, poi (c) consideriamo come un unico insieme tutti gli oggetti o fatti che hanno in comune quei certi aspetti e (d) chiamandoli in uno stesso modo formiamo il concetto di quell’insieme.
Ad esempio, se focalizziamo sulla caratteristica di poter essere indossato ai piedi, riconosciamo che essa è comune a cose pur diversissime come scarpe, stivali, sandali, zoccoli, babbucce, ecc., e dunque costruiamo il concetto di calzatura, sotto il quale tutte ricadono. Oppure possiamo renderci conto che molte persone diverse e molti modi diversi di parlare, comportarsi o trattare gli altri si somigliano in quanto dimostrano rispetto, attenzione, amabilità e disponibilità per gli altri; dunque, formiamo il concetto di gentilezza e diciamo che quelle persone e quei comportamenti sono gentili.
I concetti sono i mattoni di tutta la nostra conoscenza, e noi li ricaviamo facilmente dagli esempi che incontriamo, ma i computer sostanzialmente non ci riescono: a un bambino per imparare i concetti di bicchiere o bottiglia bastano due o tre esempi, alla rete neurale ne servono decine di migliaia e poi non ci riesce esattamente. La nostra capacità di astrarre e costruire concetti è illustrata dai problemi di Bongard (figura 9)14. Si tratta, in ciascun caso, di riconoscere che cosa hanno in comune gli oggetti della colonna di destra che li distingue da quelli della colonna di sinistra. Non abbiamo allora difficoltà a capire che al n. 2 gli oggetti di destra sono grandi e quelli di sinistra piccoli; al n. 3 a destra sono bianchi e sinistra piccoli; al n. 7 vediamo che a destra sono elementi verticali e a sinistra orizzontali; al n. 8 gli oggetti della colonna di sinistra sono tutti accostati a destra, mentre quelli della colonna di destra sono tutti accostati a sinistra. In questo modo riconduciamo ciò che vediamo ai vari concetti di grande e piccolo, bianco e nero, verticale e orizzontale, destra e sinistra. Noi adulti già possediamo questi concetti, e qui non facciamo che riconoscerli, ma se fossimo bambini agli inizi dello sviluppo cognitivo da esempi simili riusciremmo proprio a impadronirci di essi.
Gli attuali sistemi di IA sono ovviamente inferiori a noi anche perché sono stati costruiti per fare una certa cosa e sanno fare solo quella: Deep Blue non sa giocare a dama e Alpha Go non sa giocare a scacchi. Certo, potrebbe esser riprogrammato per imparare anche quello, ma ci vorrebbero di nuovo molto tempo ed enormi investimenti, e dopo non saprebbe comunque fare tutto il resto. ChatGPT sa parlare di tutto, ma non sa giocare, classificare immagini, ecc. Ciascuno di noi, invece, con un po’ di istruzione e seppur con molti limiti, può fare potenzialmente di tutto. La nostra è una intelligenza generale, le varie IA attuali invece sono solo settoriali.
L’ IA attuale non sa astrarre e concettualizzare
Un altro limite di questi sistemi è che noi pensiamo e impariamo per astrazione e concettualizzazione, mentre loro non ne sono in grado. Normalmente, cioè, quando apprendiamo (a) riconosciamo le somiglianze (o analogie) tra oggetti e fatti diversi, (b) astraiamo, cioè consideriamo di un oggetto o di un fatto solo certi aspetti che a noi interessano trascurando tutti gli altri, poi (c) consideriamo come un unico insieme tutti gli oggetti o fatti che hanno in comune quei certi aspetti e (d) chiamandoli in uno stesso modo formiamo il concetto di quell’insieme.
Ad esempio, se focalizziamo sulla caratteristica di poter essere indossato ai piedi, riconosciamo che essa è comune a cose pur diversissime come scarpe, stivali, sandali, zoccoli, babbucce, ecc., e dunque costruiamo il concetto di calzatura, sotto il quale tutte ricadono. Oppure possiamo renderci conto che molte persone diverse e molti modi diversi di parlare, comportarsi o trattare gli altri si somigliano in quanto dimostrano rispetto, attenzione, amabilità e disponibilità per gli altri; dunque, formiamo il concetto di gentilezza e diciamo che quelle persone e quei comportamenti sono gentili.
I concetti sono i mattoni di tutta la nostra conoscenza, e noi li ricaviamo facilmente dagli esempi che incontriamo, ma i computer sostanzialmente non ci riescono: a un bambino per imparare i concetti di bicchiere o bottiglia bastano due o tre esempi, alla rete neurale ne servono decine di migliaia e poi non ci riesce esattamente. La nostra capacità di astrarre e costruire concetti è illustrata dai problemi di Bongard (figura 9)14. Si tratta, in ciascun caso, di riconoscere che cosa hanno in comune gli oggetti della colonna di destra che li distingue da quelli della colonna di sinistra. Non abbiamo allora difficoltà a capire che al n. 2 gli oggetti di destra sono grandi e quelli di sinistra piccoli; al n. 3 a destra sono bianchi e sinistra piccoli; al n. 7 vediamo che a destra sono elementi verticali e a sinistra orizzontali; al n. 8 gli oggetti della colonna di sinistra sono tutti accostati a destra, mentre quelli della colonna di destra sono tutti accostati a sinistra. In questo modo riconduciamo ciò che vediamo ai vari concetti di grande e piccolo, bianco e nero, verticale e orizzontale, destra e sinistra. Noi adulti già possediamo questi concetti, e qui non facciamo che riconoscerli, ma se fossimo bambini agli inizi dello sviluppo cognitivo da esempi simili riusciremmo proprio a impadronirci di essi.
I sistemi di IA, invece, hanno enormi difficoltà a far ciò. Lo vediamo col problema della figura 10, se cioè gli oggetti dell’esempio test appartengano alla Classe 1 o alla Classe 2. Per rispondere bisogna capire quale sia il concetto esemplificato dalla Classe 1, quale dalla Classe 2, e quale dai due oggetti dell’esempio test. Questo può richiedere un attimo di riflessione in più rispetto ai problemi precedenti, ma ben presto ci accorgiamo che le coppie della Classe 1 sono composte di elementi uguali e quelle della Classe due di elementi diversi. Perciò l’esempio test appartiene alla Classe 1, essendo pure una coppia di elementi uguali.
Ebbene, in un test una rete neurale è stata addestrata con 20.000 coppie di oggetti uguali e altrettante di oggetti diversi, poi le sono stati mostrate altre 10.000 coppie, chiedendo per ciascuna se appartenesse alla prima classe (degli oggetti uguali) o alla seconda (degli oggetti diversi). Le risposte esatte sono state poco più del 50%, più o meno come sarebbe avvenuto se la rete avesse risposto a caso: dunque, un completo fallimento15.
Ebbene, in un test una rete neurale è stata addestrata con 20.000 coppie di oggetti uguali e altrettante di oggetti diversi, poi le sono stati mostrate altre 10.000 coppie, chiedendo per ciascuna se appartenesse alla prima classe (degli oggetti uguali) o alla seconda (degli oggetti diversi). Le risposte esatte sono state poco più del 50%, più o meno come sarebbe avvenuto se la rete avesse risposto a caso: dunque, un completo fallimento15.
L’IA attuale è opaca e incapace di render conto
Gli umani sanno spiegare i loro ragionamenti o procedimenti, una rete neurale, anche molto efficiente, no. Nessuno potrebbe capire con quale strategia AlphaGo ha battuto i maestri del Go, tanto meno AlphaGo stesso. Nessuno, inoltre, riuscirebbe a ricostruire la struttura di pesi e relazioni tra neuroni con cui una rete neurale come quella illustrata nell’articolo precedente può riuscire a distinguere diversi tipi di oggetti16. I nostri attuali sistemi di IA sono imperscrutabili e incapaci di render conto di quanto fanno e di come lo fanno. Sia per motivi epistemologici che per motivi etici e pratici si lavora molto per riuscire a spiegare e render comprensibili i loro procedimenti o creare sistemi in grado di dar ragione del loro operato, ma per ora senza risultati apprezzabili17.
Il divario di potenza tra computers e cervello
Ricapitolando: i sistemi di IA non sono intelligenti nel senso e nella misura in cui lo siamo noi in quanto (1) non sono coscienti e autocoscienti, (2) non comprendono quel che fanno, dicono, leggono, vedono, ecc., (3) sono solo settoriali, (4) non ragionano per concetti, e (5) sono opachi e non sanno spiegare il loro “ragionamenti”. Queste grandi disparità si comprendono meglio considerando che il cervello umano è uno strumento enormemente più complesso del più potente dei computers oggi esistenti o che sono immaginabili per un futuro prossimo: i computers più complessi hanno circa 1.000 o 2.000 miliardi di transistors, mentre il cervello ha tra 1013 (10.000 miliardi) e 1015 (1 milione di miliardi) di sinapsi, cioè tra le 10 e le 500 volte di più.
È vero che fin qui la complessità dei computers è mediamente raddoppiata ogni due anni, come dice la “Legge di Moore”18. Ma anzitutto non sappiamo se questa tendenza proseguirà anche in futuro. Inoltre, le reti neurali dei sistemi di IA hanno una struttura completamente simmetrica, i loro neuroni sono tutti uguali e hanno gli stessi rapporti con gli altri (“uno vale uno”, per usare un fortunato slogan politico), mentre i neuroni e le sinapsi del cervello sono tutti diversi e funzionano in modi diversi, che noi ignoriamo completamente.
Appurato dunque che oggi l’IA non è intelligente quanto e come lo siamo noi, nei prossimi tre articoli della serie ci chiederemo, rispettivamente, se in futuro potrebbero esser creati dei sistemi molto più intelligenti di noi; se in tal caso quei sistemi costituirebbero dunque un pericolo, essendo in grado di sottometterebbe l’umanità ai loro voleri; e quali siano invece e come si possano affrontare i rischi e i problemi presentati già oggi dall’uso dell’IA.
Leggi i successivi articoli:
Nascerà un’intelligenza artificiale superumana?
Rischi e sfide dell’intelligenza artificiale oggi
Gli umani sanno spiegare i loro ragionamenti o procedimenti, una rete neurale, anche molto efficiente, no. Nessuno potrebbe capire con quale strategia AlphaGo ha battuto i maestri del Go, tanto meno AlphaGo stesso. Nessuno, inoltre, riuscirebbe a ricostruire la struttura di pesi e relazioni tra neuroni con cui una rete neurale come quella illustrata nell’articolo precedente può riuscire a distinguere diversi tipi di oggetti16. I nostri attuali sistemi di IA sono imperscrutabili e incapaci di render conto di quanto fanno e di come lo fanno. Sia per motivi epistemologici che per motivi etici e pratici si lavora molto per riuscire a spiegare e render comprensibili i loro procedimenti o creare sistemi in grado di dar ragione del loro operato, ma per ora senza risultati apprezzabili17.
Il divario di potenza tra computers e cervello
Ricapitolando: i sistemi di IA non sono intelligenti nel senso e nella misura in cui lo siamo noi in quanto (1) non sono coscienti e autocoscienti, (2) non comprendono quel che fanno, dicono, leggono, vedono, ecc., (3) sono solo settoriali, (4) non ragionano per concetti, e (5) sono opachi e non sanno spiegare il loro “ragionamenti”. Queste grandi disparità si comprendono meglio considerando che il cervello umano è uno strumento enormemente più complesso del più potente dei computers oggi esistenti o che sono immaginabili per un futuro prossimo: i computers più complessi hanno circa 1.000 o 2.000 miliardi di transistors, mentre il cervello ha tra 1013 (10.000 miliardi) e 1015 (1 milione di miliardi) di sinapsi, cioè tra le 10 e le 500 volte di più.
È vero che fin qui la complessità dei computers è mediamente raddoppiata ogni due anni, come dice la “Legge di Moore”18. Ma anzitutto non sappiamo se questa tendenza proseguirà anche in futuro. Inoltre, le reti neurali dei sistemi di IA hanno una struttura completamente simmetrica, i loro neuroni sono tutti uguali e hanno gli stessi rapporti con gli altri (“uno vale uno”, per usare un fortunato slogan politico), mentre i neuroni e le sinapsi del cervello sono tutti diversi e funzionano in modi diversi, che noi ignoriamo completamente.
Appurato dunque che oggi l’IA non è intelligente quanto e come lo siamo noi, nei prossimi tre articoli della serie ci chiederemo, rispettivamente, se in futuro potrebbero esser creati dei sistemi molto più intelligenti di noi; se in tal caso quei sistemi costituirebbero dunque un pericolo, essendo in grado di sottometterebbe l’umanità ai loro voleri; e quali siano invece e come si possano affrontare i rischi e i problemi presentati già oggi dall’uso dell’IA.
Leggi i successivi articoli:
Nascerà un’intelligenza artificiale superumana?
Rischi e sfide dell’intelligenza artificiale oggi
|
Questo articolo è tratto da NUOVA SECONDARIA
|