Già oggi l’IA presenta molteplici rischi e sfide (oltre a indiscutibili benefici): la perdita di posti di lavoro, frodi, disincentivi alla creatività, potenziali minacce ai valori sociali, rischi per la privacy, il pluralismo culturale, l’informazione corretta e lo spirito critico. Ci sono poi i problemi di una giusta distribuzione sociali di costi e benefici, di una corretta raccolta e utilizzazione dei dati, dell’enorme consumo energetico, degli errori che l’IA ancora commette. Questi problemi possono comunque essere affrontati con l’informazione e la cautela sul piano personale, con nuovi progressi tecnologici, con opportune politiche, normative e misure sociali. L’appendice spiega come costruire un computer umano che consenta di sperimentare cosa si prova a essere un’IA.
Parole chiave
Parole chiave
- Rischi dell’IA
- Impatto sociale dell’IA
- Impatto culturale dell’IA
- Regolamentazione dell’IA
- Computer umano
Nei primi tre articoli di questa serie1 ho spiegato che cos’è l’intelligenza artificiale (IA), come è possibile, come funziona, e perché gli attuali sistemi di IA non sono realmente intelligenti, o almeno non lo sono come e quanto noi. Nel quarto e nel quinto articolo2 mi sono chiesto se sarebbe possibile creare un’IA che superi i limiti di quelle attuali, diventando così da ogni punto di vista più potente dell’intelligenza naturale. Un’IA superumana ci apporterebbe benefici incalcolabili, ma non rischieremmo che prendesse il sopravvento e soggiogasse la nostra specie, come noi abbiamo soggiogato le altre specie animali? Ho discusso le possibili risposte a queste domande, che tuttavia per ora possono essere solo ipotetiche. Dovremmo dunque stare in guardia, ma non allarmarci eccessivamente, perché possiamo concepire modi per tutelarci anche nello scenario più preoccupante. In questo articolo esaminiamo invece i rischi e problemi sicuramente reali presentati dall’IA di oggi. Si tratta fortunatamente di problemi e pericoli più limitati, che già conosciamo e sono superabili con la necessaria consapevolezza, coi corretti comportamenti individuali e con le adeguate misure di tipo sociale e politico.
La perdita di posti di lavoro
|
Ogni volta che i sistemi automatici sostituiscono i lavoratori umani si perdono molti posti di lavoro e si crea disoccupazione. Anche con l’IA accade già oggi ed è prevedibile che accadrà sempre più, dato l’impiego sempre crescente dell’IA in ogni settore. È un rischio che ha sempre accompagnato qualunque progresso tecnologico: già con la rivoluzione industriale (fig. 1) tra Settecento e Ottocento, la massiccia introduzione delle macchine nella manifattura causò ampie sacche di disoccupazione, e i cosiddetti luddisti tentarono di opporsi distruggendo i telai industriali che stavano sostituendo gli operai.
|
In seguito, tuttavia, nel medio periodo la meccanizzazione consentì un aumento della produzione e quindi non solo una maggior disponibilità di beni per tutti, ma anche un aumento dell’occupazione e (progressivamente) il miglioramento delle condizioni salariali e lavorative degli occupati. Anche oggi, dunque, non è necessario rinunciare ai benefici di un sempre maggior impiego dell’IA in ogni campo dell’economia. Possiamo supporre che alla lunga le nuove tecnologie creeranno più posti di lavoro di quanti ne eliminino. La disoccupazione che ne deriva, dunque, sarà solo transitoria; perciò, ad essa si può e si deve far fronte con adeguate misure di sicurezza sociale (a loro volta finanziabili dai vantaggi derivanti dall’automazione). Certo, ogni nuova mansione umana emersa dal progresso dell’automazione potrebbe in seguito esser svolta da nuove macchine create a tal fine.
In linea di principio, dunque, potrebbe perfino accadere che in un futuro tutto il lavoro necessario alla società fosse svolto dalle macchine. Questo, tuttavia, non sarebbe un male, ma un bene, se solo si garantisse che il reddito di tale lavoro fosse distribuito in modo giusto a tutti. Ciascuno potrebbe così godere, assieme a un notevole benessere, di un tempo completamente liberato, da dedicare allo svago, alle relazioni sociali, allo studio e all’arte3.
In linea di principio, dunque, potrebbe perfino accadere che in un futuro tutto il lavoro necessario alla società fosse svolto dalle macchine. Questo, tuttavia, non sarebbe un male, ma un bene, se solo si garantisse che il reddito di tale lavoro fosse distribuito in modo giusto a tutti. Ciascuno potrebbe così godere, assieme a un notevole benessere, di un tempo completamente liberato, da dedicare allo svago, alle relazioni sociali, allo studio e all’arte3.
Un disincentivo alla creatività umana?
Dato che l’IA può dipingere, scrivere musica, giocare a scacchi e a Go, e insomma svolgere ogni attività intelligente con risultati spesso (anche se non sempre) superiori ai nostri, rischiamo che sostituisca e disincentivi la nostra creatività? In realtà nell’arte gli umani prevalgono ancora, anche se possono servirsi dell’IA per potenziare il proprio lavoro. La creatività, inoltre, ha spazi infiniti per definizione. Un conto è analizzare tutte le sonate di Chopin e produrne altre analoghe, un altro produrre la prima delle sonate di Chopin quando non esisteva, cioè creare qualcosa di realmente innovativo. Da questo l’IA è ancora assai lontana4.
Negli scacchi e a Go le persone continuano a giocare tra loro per divertirsi o per sviluppare la propria abilità, pur sapendo che non batterebbero le macchine di massimo livello, e semmai giocano con macchine di livelli inferiori, usandole come sparring partners5. Più o meno nello stesso modo, continuiamo ad andare a vela, anche se abbiamo barche a motore, o scalare le montagne anche se potremmo arrivare in cima con l’elicottero.
Negli scacchi e a Go le persone continuano a giocare tra loro per divertirsi o per sviluppare la propria abilità, pur sapendo che non batterebbero le macchine di massimo livello, e semmai giocano con macchine di livelli inferiori, usandole come sparring partners5. Più o meno nello stesso modo, continuiamo ad andare a vela, anche se abbiamo barche a motore, o scalare le montagne anche se potremmo arrivare in cima con l’elicottero.
Usi fraudolenti
|
Come qualunque nuova tecnologia, l’IA può fornire nuovi trucchi per perpetrare frodi o inganni. Già oggi gli insegnanti e le commissioni di concorso debbono far attenzione che studenti e concorsisti non spaccino per propri degli elaborati che sono prodotti invece dai chatbot (o large language models), come ChatGPT, DeepSeek, ecc. Se parliamo di scuola, non è generalmente difficile riconoscere questo genere di frode, perché gli elaborati prodotti dall’IA sono nettamente migliori di quelli realizzabili dalla quasi totalità degli studenti medi. Più difficile è distinguere i prodotti dell’IA da quelli di adulti e studenti universitari, ed è compito di docenti e istituzioni trovare i metodi per prevenire queste nuove forme di plagio. Naturalmente, però, questi problemi non devono farci dimenticare la grande utilità che possono avere gli usi legittimi dell’IA, sia da parte degli insegnanti che degli studenti, per favorire lo sviluppo di conoscenze, abilità e competenze.
|
Un altro tipo di frode sono i deep fake (fig. 2): foto completamente realistiche di fatti inesistenti che coinvolgono persone reali, e perfino video, nei quali personaggi famosi parlano con la loro riconoscibilissima voce, magari pubblicizzando truffe o sostenendo idee che essi non hanno e che li mettono in cattiva luce. Essi sono dunque suscettibili di ingannare le persone e l’opinione pubblica. Si tratta di rischi molto attuali, ma destinati a cancellarsi da sé: fino a ieri le fotografie e i video erano per tutti garanzia di verità, perché non si potevano produrre se non riprendendo persone, cose e fatti dal vero. Ora invece sappiamo, e presto tutti se ne renderanno conto, che possono essere artefatti. Come oggi chiunque sa che una notizia pubblicata su un giornale non è necessariamente vera, e stiamo rapidamente imparando che quel che circola sui social può sempre esser falso, ben presto il pubblico si renderà perfettamente conto che anche le foto e i video possono ingannare.
IA e valori sociali
Come qualunque tecnologia, ma tanto più in quanto è più innovativa e potente, l’IA è espressione dei valori, degli interessi e dell’organizzazione della società che la produce, e al contempo contribuisce a formarli. Perciò è fondamentale che essa diventi oggetto di riflessione e valutazione sia sociologica che etica6. Nel terzo articolo della serie7 avevamo visto il caso, che fece molto scalpore, di un sistema automatico di Google per fornire didascalie alle immagini. Come mostrato dalla figura 3, pur etichettando correttamente moltissime altre immagini, esso aveva scelto la didascalia ‘gorilla’ per la foto di due studenti afroamericani, producendo così (seppure “involontariamente”) un deprecabilissimo insulto razziale.
Allo stesso modo, l’IA è suscettibile di assorbire e ripetere i vari pregiudizi e stereotipi che sono espressi, o anche solo sottesi, dalle centinaia di migliaia di testi prodotti ogni giorno dalla nostra società, perché proprio su quei testi essa viene addestrata. Dunque, per quanto non sia l’IA a creare questi riprovabili atteggiamenti, essa rischia di riprodurli e diffonderli, moltiplicandone oltremodo le manifestazioni. Più in generale, in quanto tecnologia dell’informazione, l’IA presenta possibili rischi per il pluralismo culturale, il diritto a un’informazione corretta e lo spirito critico. Si tratterà quindi di stare in guardia e cautelarsi contro tutti questi rischi, come già ci si cautela contro rischi analoghi nei vari ambiti sociali, educativi e comunicativi.
Allo stesso modo, l’IA è suscettibile di assorbire e ripetere i vari pregiudizi e stereotipi che sono espressi, o anche solo sottesi, dalle centinaia di migliaia di testi prodotti ogni giorno dalla nostra società, perché proprio su quei testi essa viene addestrata. Dunque, per quanto non sia l’IA a creare questi riprovabili atteggiamenti, essa rischia di riprodurli e diffonderli, moltiplicandone oltremodo le manifestazioni. Più in generale, in quanto tecnologia dell’informazione, l’IA presenta possibili rischi per il pluralismo culturale, il diritto a un’informazione corretta e lo spirito critico. Si tratterà quindi di stare in guardia e cautelarsi contro tutti questi rischi, come già ci si cautela contro rischi analoghi nei vari ambiti sociali, educativi e comunicativi.
Cui prodest?
|
Secondo Paolo Benanti (fig. 4), l’IA apporta importanti benefici, ma anche costi e rischi, e non è automatico che gli uni e gli altri siano distribuiti uniformemente nella società. Perciò, per garantire un giusto assetto sociale, essa va regolata a livello politico-normativo, partendo da un dialogo tra i diversi attori e portatori di legittimi interessi, giovandosi anche del contributo delle discipline scientifiche coinvolte, dell’etica e dell’epistemologia8.
Oggi come oggi, gran parte dei vantaggi dell’uso e dello sfruttamento economico dell’IA sono concentrati nelle mani di un solo paese, gli Stati Uniti, e di pochissime aziende, specializzate nei diversi settori di utilizzo, dalla medicina alla difesa (Open AI, Scale AI, AlphaSense, Vectra AI, Databricks, Adept, Anthropic e Cohere, Insitro, Midjourney, Surge AI, Anduril Industries, Gong, ecc.). Tra le 50 maggiori società sono pochissime quelle non americane. Il potere di queste aziende è enorme, sia in termini commerciali che di influenza sul pubblico. Esso è potenzialmente più forte anche del potere politico, non essendo soggetto, a differenza di quello, al controllo degli elettori. |
Non si può né si dovrebbe impedire a chi possiede le enormi risorse necessarie a sviluppare questi sistemi di utilizzarle e poi trarne dei giusti profitti; tuttavia, tanto gli stati che gli organismi sovranazionali devono fissare limiti all’esercizio di questo potere, per salvaguardare sia la democrazia che la libera concorrenza.
Anche per la soluzione di questo problema9, la strada è già stata aperta dai progressi che ci hanno condotto all’attuale organizzazione sociale e politica: in questo caso, in particolare, dalle legislazioni antimonopolistiche introdotte a partire dalla fine del XIX secolo. Quei provvedimenti riguardavano la grande industria manifatturiera, le compagnie ferroviarie o petrolifere, ma il 13 marzo 2024 l’Unione Europea ha segnato una svolta storica approvando per prima al mondo un regolamento sull’IA. In esso l’IA è definita come: “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”10.
Sarebbe anche auspicabile che l’Unione Europea finanziasse ricerche in proprio, non finalizzate dunque al profitto ma al benessere pubblico. D’altro canto, anche alcune delle maggiori aziende del settore dimostrano sensibilità a questi problemi, rendendo liberamente accessibili al pubblico alcuni dei loro prodotti. Tutti, ad esempio, possono liberamente utilizzare ChatGPT per dialogare e cercare informazioni, come pure Google Translate per tradurre testi. Anche AlphaFold, il sistema per la ricerca sulle proteine i cui creatori hanno ricevuto il premio Nobel per la chimica nel 2024, è un tipico caso di Open Science, liberamente usato dai ricercatori di tutto il mondo.
Anche per la soluzione di questo problema9, la strada è già stata aperta dai progressi che ci hanno condotto all’attuale organizzazione sociale e politica: in questo caso, in particolare, dalle legislazioni antimonopolistiche introdotte a partire dalla fine del XIX secolo. Quei provvedimenti riguardavano la grande industria manifatturiera, le compagnie ferroviarie o petrolifere, ma il 13 marzo 2024 l’Unione Europea ha segnato una svolta storica approvando per prima al mondo un regolamento sull’IA. In esso l’IA è definita come: “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”10.
Sarebbe anche auspicabile che l’Unione Europea finanziasse ricerche in proprio, non finalizzate dunque al profitto ma al benessere pubblico. D’altro canto, anche alcune delle maggiori aziende del settore dimostrano sensibilità a questi problemi, rendendo liberamente accessibili al pubblico alcuni dei loro prodotti. Tutti, ad esempio, possono liberamente utilizzare ChatGPT per dialogare e cercare informazioni, come pure Google Translate per tradurre testi. Anche AlphaFold, il sistema per la ricerca sulle proteine i cui creatori hanno ricevuto il premio Nobel per la chimica nel 2024, è un tipico caso di Open Science, liberamente usato dai ricercatori di tutto il mondo.
Rischi per la privacy
Ogni volta che operiamo in internet per ottenere qualcosa (come una prenotazione, un’informazione o un prodotto), contemporaneamente diamo al sistema informazioni su di noi: nulla viene dimenticato! Molte altre informazioni le diamo volontariamente sui vari social11. I sistemi di IA sono in grado di recuperare e sintetizzare qualunque dettaglio su di noi che compaia sui social o che sia conservato dai tanti siti nei quali dobbiamo per forza registrarci, se quei dati non sono tenuti rigorosamente privati.
È una prospettiva ancora lontana, ma se qualcuno arrivasse a farsi un modello molto completo di me, lo potrebbe sfruttare in molti modi a suo vantaggio12. Già oggi si stima che i dati su ciascuno di noi in possesso di Google valgono 20 dollari e quelli detenuti da Facebook 5 dollari. Quindi sarebbe meglio difendere la nostra privacy, non esponendoci troppo sui social e prestando attenzione agli enti a cui confidiamo le nostre informazioni personali. Per esempio, è sbagliata l’abitudine di certi genitori di postare ovunque le foto dei loro bambini.
D’altra parte, sarebbe anche utile che tanti dati che ci riguardano fossero condivisi, anche se in forma anonimizzata. Ad esempio, certi dati sanitari su ampi settori di popolazione favorirebbero le ricerche sul cancro, mentre la raccolta e diffusione di certe nostre opinioni potrebbe contribuire a orientare positivamente le scelte sociali13. Per questo, secondo Domingos, ci vorrebbe una banca dei dati, esattamente come ci sono le banche dei soldi. Essa deterrebbe i miei dati, li farebbe fruttare per conto mio, me li metterebbe a disposizione in maniera integrata, li userebbe solo su mio ordine, esattamente come fanno le banche odierne col mio denaro. Come le banche ordinarie, una simile impresa trarrebbe un profitto dalla sua attività, ma solo a patto di guadagnarsi la nostra fiducia che essa amministri i nostri averi (in questo caso i nostri dati, come nel caso ordinario i soldi) in modo per noi vantaggioso14.
È una prospettiva ancora lontana, ma se qualcuno arrivasse a farsi un modello molto completo di me, lo potrebbe sfruttare in molti modi a suo vantaggio12. Già oggi si stima che i dati su ciascuno di noi in possesso di Google valgono 20 dollari e quelli detenuti da Facebook 5 dollari. Quindi sarebbe meglio difendere la nostra privacy, non esponendoci troppo sui social e prestando attenzione agli enti a cui confidiamo le nostre informazioni personali. Per esempio, è sbagliata l’abitudine di certi genitori di postare ovunque le foto dei loro bambini.
D’altra parte, sarebbe anche utile che tanti dati che ci riguardano fossero condivisi, anche se in forma anonimizzata. Ad esempio, certi dati sanitari su ampi settori di popolazione favorirebbero le ricerche sul cancro, mentre la raccolta e diffusione di certe nostre opinioni potrebbe contribuire a orientare positivamente le scelte sociali13. Per questo, secondo Domingos, ci vorrebbe una banca dei dati, esattamente come ci sono le banche dei soldi. Essa deterrebbe i miei dati, li farebbe fruttare per conto mio, me li metterebbe a disposizione in maniera integrata, li userebbe solo su mio ordine, esattamente come fanno le banche odierne col mio denaro. Come le banche ordinarie, una simile impresa trarrebbe un profitto dalla sua attività, ma solo a patto di guadagnarsi la nostra fiducia che essa amministri i nostri averi (in questo caso i nostri dati, come nel caso ordinario i soldi) in modo per noi vantaggioso14.
La raccolta ed etichettatura dei dati
Paolo Benanti osserva che le enormi quantità di dati necessari al deep learning15 sono raccolte ed etichettate in modi che potrebbero non adattarsi a tutti i contesti e i tipi di problemi, rischiando di generare errori e non rispondere a criteri di equità. Egli porta l’esempio di un sistema di IA realizzato da una società americana per produrre diagnosi di tumore al colon sulla base dei video endoscopici16. I dati necessari per addestrarlo sono raccolti dagli addetti di un ufficio di Bhubaneswar, in India, per lo più giovani donne o studenti. Durante tutta la giornata lavorativa, costoro ricevono video di colonscopie fatte in California e devono cerchiare sulle immagini tutti quelli che possono sembrare polipi ed altre anomalie nell’intestino suscettibili di portare a tumori. Questi addetti non sono medici né paramedici, sono stati addestrati con un corso di sette giorni tenuto online da un medico americano non specializzato, e guadagnano tra 150 e 200 dollari al mese17.
Ecco perché un gruppo di ricercatori18 ha proposto che ogni insieme di dati venga accompagnato da una scheda che possa orientare ad un suo uso corretto. Essa dovrebbe dunque rispondere a domande come:
Ecco perché un gruppo di ricercatori18 ha proposto che ogni insieme di dati venga accompagnato da una scheda che possa orientare ad un suo uso corretto. Essa dovrebbe dunque rispondere a domande come:
- Perché il set di dati è stato creato, per che compito specifico?
- Chi lo ha finanziato?
- È stato pre-elaborato o ripulito in qualche modo?
- Se si riferisce a persone, esse sono state informate dell’utilizzo che ne sarebbe stato fatto, e hanno acconsentito? Sono state messe in grado di revocare il consenso in futuro o per certi usi specifici?
- Sono previsti aggiornamenti del set? Con che scadenze e da parte di chi?
Il persistente rischio di errori
Vi sono pericoli immediati e concreti derivanti dalla persistente imperfezione di questi sistemi. Secondo un aforisma di Domingos, il problema non è che l’IA diventi così intelligente da controllare il mondo, ma che è troppo stupida e in un certo senso già controlla il mondo19.
Ad esempio, le auto a pilota automatico hanno provocato e possono provocare incidenti. Gli automobilisti devono esser coscienti che hanno ancora limiti molto seri, evitando di affidarsi a loro completamente. Come abbiamo visto in precedenza, sistemi di IA possono ingannarsi20 e sono suscettibili di essere attaccati dagli hacker. I chatbot o “large language models”, come ChatGPT, DeepSeek, ecc., danno con una certa facilità risposte fantasiose ed errate. Ormai abbiamo dei sistemi di traduzione molto buoni, anch’essi però commettono vari errori, per cui le loro versioni vanno sempre attentamente ricontrollate.
In un mondo che sempre più premia la velocità anche a discapito della precisione, molti potrebbero rinunciare a rivederle, accontentandosi di traduzioni approssimative. Col sempre più diffuso ricorso alla traduzione automatica, tuttavia, il pubblico, specie i giovani, rischiano di assorbire e poi di diffondere espressioni erronee, grossolane o inappropriate, alla lunga rendendo la lingua parlata meno corretta, elegante, precisa ed efficace. Inoltre, poiché la lingua è l’interfaccia principale attraverso cui possiamo comprendere una cultura diversa dalla nostra e dialogare con essa, traduzioni imperfette possono generare incomprensioni e fraintendimenti.
Da un lato, comunque, è prevedibile che gli attuali sistemi migliorino ancora piuttosto rapidamente, e dall’altro, già la consapevolezza della possibilità che sbaglino può metterci al riparo da molti dei rischi che ne conseguono. Ancora secondo Domingos, l’IA rischia di darci quel che chiediamo e non quello che realmente vogliamo: ad esempio, quando ho appena comprato un orologio da polso su Amazon, il sistema mi consiglia subito altri orologi da polso21. Si tratta comunque di rischi che, con misure appropriate, possono esser ridotti entro limiti accettabili, se pure non completamente eliminati.
Ad esempio, le auto a pilota automatico hanno provocato e possono provocare incidenti. Gli automobilisti devono esser coscienti che hanno ancora limiti molto seri, evitando di affidarsi a loro completamente. Come abbiamo visto in precedenza, sistemi di IA possono ingannarsi20 e sono suscettibili di essere attaccati dagli hacker. I chatbot o “large language models”, come ChatGPT, DeepSeek, ecc., danno con una certa facilità risposte fantasiose ed errate. Ormai abbiamo dei sistemi di traduzione molto buoni, anch’essi però commettono vari errori, per cui le loro versioni vanno sempre attentamente ricontrollate.
In un mondo che sempre più premia la velocità anche a discapito della precisione, molti potrebbero rinunciare a rivederle, accontentandosi di traduzioni approssimative. Col sempre più diffuso ricorso alla traduzione automatica, tuttavia, il pubblico, specie i giovani, rischiano di assorbire e poi di diffondere espressioni erronee, grossolane o inappropriate, alla lunga rendendo la lingua parlata meno corretta, elegante, precisa ed efficace. Inoltre, poiché la lingua è l’interfaccia principale attraverso cui possiamo comprendere una cultura diversa dalla nostra e dialogare con essa, traduzioni imperfette possono generare incomprensioni e fraintendimenti.
Da un lato, comunque, è prevedibile che gli attuali sistemi migliorino ancora piuttosto rapidamente, e dall’altro, già la consapevolezza della possibilità che sbaglino può metterci al riparo da molti dei rischi che ne conseguono. Ancora secondo Domingos, l’IA rischia di darci quel che chiediamo e non quello che realmente vogliamo: ad esempio, quando ho appena comprato un orologio da polso su Amazon, il sistema mi consiglia subito altri orologi da polso21. Si tratta comunque di rischi che, con misure appropriate, possono esser ridotti entro limiti accettabili, se pure non completamente eliminati.
L'enorme consumo energetico
L’IA è tutt’altro che gratis da vari punti di vista, inclusi quello energetico. Gli enormi centri dati che alimentano i chatbot, i sistemi di apprendimento automatico e quelli di riconoscimento facciale o di immagini, richiedono enormi quantità di energia, comparabili a quella prodotta annualmente da molte centrali nucleari. Alex de Vries, della Vrije Universiteit di Amsterdam, ha calcolato che entro il 2027 i centri dati che alimentano l’IA potrebbero consumare tra 85 e 134 terawattora di energia all’anno, pari al consumo di un intero paese come l’Argentina o i Paesi Bassi.
Dal 2012 ad oggi questo consumo è raddoppiato ogni 3,4 anni22. Il problema energetico è già ora uno di quelli che pesano maggiormente sul futuro del nostro pianeta e delle nostre società, e al momento l’IA lo sta aggravando. D’altra parte, è naturale ipotizzare che le sue straordinarie potenzialità riusciranno utili, se non risolutive, anche al fine di reperire adeguate risorse energetiche e di utilizzarle in modo ecologicamente sostenibile. Si tratterà dunque si trovare, quanto prima, soluzioni tecniche adeguate a limitare la quantità di energia attualmente richiesta da questi sistemi.
Dal 2012 ad oggi questo consumo è raddoppiato ogni 3,4 anni22. Il problema energetico è già ora uno di quelli che pesano maggiormente sul futuro del nostro pianeta e delle nostre società, e al momento l’IA lo sta aggravando. D’altra parte, è naturale ipotizzare che le sue straordinarie potenzialità riusciranno utili, se non risolutive, anche al fine di reperire adeguate risorse energetiche e di utilizzarle in modo ecologicamente sostenibile. Si tratterà dunque si trovare, quanto prima, soluzioni tecniche adeguate a limitare la quantità di energia attualmente richiesta da questi sistemi.
Il messaggio di Papa Francesco
In sintesi, dati gli enormi benefici che l’IA ci apporta e sempre più ci apporterà, nemmeno tutti i rischi fin qui elencati giustificherebbero una completa rinuncia a servircene. Piuttosto, essi possono e debbono essere fronteggiati, prevenuti o limitati agendo su diversi piani: sul piano personale con un uso cauto e informato, sul piano tecnologico non con l’arresto ma con nuovi progressi, sul piano sociale con strategie e soluzioni eticamente corrette, sul piano legislativo con adeguati interventi normativi.
Nel suo messaggio per la LVIII Giornata Mondiale delle Comunicazioni Sociali23, Papa Francesco (fig. 5) ha sottolineato la necessità di una regolamentazione dell’IA per perseguire questi importanti obiettivi:
Nel suo messaggio per la LVIII Giornata Mondiale delle Comunicazioni Sociali23, Papa Francesco (fig. 5) ha sottolineato la necessità di una regolamentazione dell’IA per perseguire questi importanti obiettivi:
|
LABORATORIO: UN COMPUTER A COMPONENTI UMANE
Nel primo articolo di questa serie24 abbiamo provato a capire come sia possibile l’intelligenza artificiale, e prima ancora come lo sia quella naturale; nel secondo25 abbiamo visto come funzionano, approssimativamente, i sistemi di IA, e nel terzo26 abbiamo visto alcuni motivi per cui si può dire che essi non siano intelligenti, almeno non quanto e non come lo siamo noi.
Alcune di queste spiegazioni possono esser sperimentate con un’attività didattico-pratica: la realizzazione di un minicomputer i cui componenti elementari sono costituiti da persone (ad esempio gli studenti di una classe o gli uditori di una conferenza) e la cui semplice organizzazione (il programma) è spiegata qui di seguito. Il sistema è in grado di estrarre la radice quadrata di qualunque numero (arrotondata agli interi) e le persone che ne sono i componenti potranno in questo modo sperimentare “cosa si prova” a essere una IA, o più precisamente, a far parte di un computer27.
Alcune di queste spiegazioni possono esser sperimentate con un’attività didattico-pratica: la realizzazione di un minicomputer i cui componenti elementari sono costituiti da persone (ad esempio gli studenti di una classe o gli uditori di una conferenza) e la cui semplice organizzazione (il programma) è spiegata qui di seguito. Il sistema è in grado di estrarre la radice quadrata di qualunque numero (arrotondata agli interi) e le persone che ne sono i componenti potranno in questo modo sperimentare “cosa si prova” a essere una IA, o più precisamente, a far parte di un computer27.
I partecipanti sono 14, indicati con le lettere dell’alfabeto dalla ‘A’ alla ‘P’28. Questo “computer” è in effetti una macchina di Turing, cioè un programma di IA simbolica, consistente in 14 compiti o funzioni semplici, ciascuno eseguito da un unico componente elementare, cioè da una persona. Appena un componente viene attivato esegue il suo compito, che consiste in uno o due di questi tipi di azione29:
a) eseguire una certa operazione numerica elementare in un certo box dell’hardware del computer;
b) attivare un certo altro componente.
L’operazione numerica può essere:
a) eseguire una certa operazione numerica elementare in un certo box dell’hardware del computer;
b) attivare un certo altro componente.
L’operazione numerica può essere:
- scrivere un certo numero in un box indicato, oppure
- addizionare 1 al numero del box indicato, oppure
- sottrarre 1 dal numero del box indicato, oppure
- copiare il numero di un certo box in un certo altro box.
Per evitare confusioni, prima di scrivere un nuovo numero in un box conviene cancellare il numero che c’era in precedenza. Altrimenti, volendo tener traccia della procedura, invece di cancellarlo lo si può semplicemente barrare.
L’hardware di questo computer consiste in una lavagna su cui preventivamente sono stati tracciati i cinque box della figura 6 e in un gesso o pennarello per scrivere i numeri. Ciascun componente viene attivato consegnandogli il gesso o pennarello. Ogni partecipante riceverà come promemoria un biglietto che descrive il suo compito, inoltre porterà sul petto un cartello con la lettera dell’alfabeto che lo contraddistingue, per essere immediatamente identificabile dagli altri.
L’hardware di questo computer consiste in una lavagna su cui preventivamente sono stati tracciati i cinque box della figura 6 e in un gesso o pennarello per scrivere i numeri. Ciascun componente viene attivato consegnandogli il gesso o pennarello. Ogni partecipante riceverà come promemoria un biglietto che descrive il suo compito, inoltre porterà sul petto un cartello con la lettera dell’alfabeto che lo contraddistingue, per essere immediatamente identificabile dagli altri.
I compiti sono i seguenti (questa lista sarà opportunamente appesa o proiettata alla vista di tutti i presenti, in modo che anche chi non partecipa attivamente si renda conto del funzionamento della “macchina”). L’esperienza prende il via quando il conduttore, o un’altra persona che figura come utente, sceglie il numero del quale estrarre la radice quadrata e lo comunica al componente A, consegnandogli anche il gesso o pennarello. Dato che i componenti umani (a differenza dei transistors di un computer) non operano alla velocità della luce, per contenere i tempi di svolgimento dell’attività conviene scegliere un numero basso (meglio se 4, 9 o 16, dato che il risultato viene arrotondato per difetto agli interi).
Questa è la lista dei compiti affidati a ciascun componente, cioè il programma:
A - scrivi il numero che ti sarà detto dall’utente nel box Input e attiva B.
B - Scrivi 0 nel box Output e attiva C.
C - aumenta di uno il numero del box Output e attiva D.
D - Scrivi 0 nel box Rosso e attiva E.
E - Copia il numero del box Output nel box Giallo e attiva F.
F - Se il numero nel box Giallo è zero, attiva N, altrimenti attiva G.
G - Diminuisci di uno il numero del box Giallo e attiva H.
H - Copia il numero del box Output nel box Blu e attiva I.
I - Se il numero del box Blu è zero, attiva F, se no attiva L.
L - Diminuisci di uno il numero del box Blu e attiva M.
M - Aumenta di uno il numero del box Rosso e attiva I.
N - Se il numero del box Rosso è minore o uguale a quello del box Input attiva C, altrimenti attiva O.
O - Diminuisci di uno il numero del box Output e attiva P.
P - Dichiara ad alta voce: “Calcolo terminato! La radice quadrata di … [leggi il numero nel box Input] è … [leggi il numero nel box Output]”.
Quando l’operazione è terminata conviene richiamare l’attenzione dei partecipanti su alcuni aspetti che dall’esperienza emergono molto chiaramente, ad esempio:
A - scrivi il numero che ti sarà detto dall’utente nel box Input e attiva B.
B - Scrivi 0 nel box Output e attiva C.
C - aumenta di uno il numero del box Output e attiva D.
D - Scrivi 0 nel box Rosso e attiva E.
E - Copia il numero del box Output nel box Giallo e attiva F.
F - Se il numero nel box Giallo è zero, attiva N, altrimenti attiva G.
G - Diminuisci di uno il numero del box Giallo e attiva H.
H - Copia il numero del box Output nel box Blu e attiva I.
I - Se il numero del box Blu è zero, attiva F, se no attiva L.
L - Diminuisci di uno il numero del box Blu e attiva M.
M - Aumenta di uno il numero del box Rosso e attiva I.
N - Se il numero del box Rosso è minore o uguale a quello del box Input attiva C, altrimenti attiva O.
O - Diminuisci di uno il numero del box Output e attiva P.
P - Dichiara ad alta voce: “Calcolo terminato! La radice quadrata di … [leggi il numero nel box Input] è … [leggi il numero nel box Output]”.
Quando l’operazione è terminata conviene richiamare l’attenzione dei partecipanti su alcuni aspetti che dall’esperienza emergono molto chiaramente, ad esempio:
- quello che a noi sembra un compito semplice (ad esempio, trovare la radice quadrata di 4, o di 9) in realtà è molto complesso;
- è un compito tanto intelligente che molti esseri umani non sarebbero in grado di svolgerlo, eppure viene svolto coordinando operazioni elementari della massima semplicità;
- il procedimento è seriale e ricorsivo;
- la macchina nel suo complesso non è cosciente, e sebbene le persone che la costituiscono lo siano, la loro coscienza non ha un ruolo essenziale nell’operazione;
- infatti, i loro compiti potrebbero esser svolti anche da elementi materiali incoscienti, come i transistors di un computer o i neuroni di un cervello;
- questo ci offre la chiave per comprendere come sia possibile non solo l’intelligenza artificiale, ma prima ancora, quella naturale30.
Ringraziamenti
Ho elaborato gli articoli di questa serie a partire da due conferenze tenute nel 2024 presso l’Università Popolare “Igino Righetti” di Rimini su cortese richiesta del collega e amico Piergiorgio Grassi. Sono anche grato all’Università della Terza Età di Cesena e all’Università per gli Adulti di Cesenatico che mi hanno invitato a parlare degli stessi temi. Ringrazio Melanie Mitchell per alcuni chiarimenti sul suo libro, Vincenzo Fano per diversi utili suggerimenti, Massimo Sangoi per le figure 2 e 3 del secondo articolo, Alberto Alai per la figura 5 del quarto articolo e ChatGPT per un interessante feedback.
|
Questo articolo è tratto da NUOVA SECONDARIA
|