Sebbene gli attuali sistemi di intelligenza artificiale non siano realmente intelligenti, sarebbe possibile crearne altri intelligenti quanto noi, o anche molto di più? In linea di principio sì, ma in pratica è difficile dirlo. Tra gli addetti ai lavori alcuni lo ritengono fattibile, altri no. Per raggiungere tale obiettivo sono state adottate o proposte diverse strategie, tutte però incontrano seri problemi. Ray Kurzweil, certo dell’avvento di una intelligenza superumana, ha già predetto le scadenze di questa conquista. Alcune di queste profezie si sono avverate, ma altre sono state clamorosamente smentite. Esaminando varie obiezioni opposte alle sue tesi e le sue repliche, si conclude che al momento non abbiamo elementi sufficienti per un giudizio certo.
Parole chiave
Parole chiave
- IA superumana
- Pedro Domingos
- Ray Kurzweil
- Algoritmo definitivo
- Singolarità
Fattibilità in linea di principio e in pratica
Nel primo articolo di questa serie1 abbiamo spiegato come sia possibile una cosa straordinaria come l’intelligenza artificiale (IA). Nel secondo2 abbiamo invece visto a grandi linee come funzionano i principali tipi di sistemi di IA. Nel terzo3 abbiamo detto che comunque, per quanto capaci di successi strabilianti, questi sistemi non sono ancora davvero intelligenti, o lo sono in misura molto minore della nostra. Essi, infatti, non sono generali ma settoriali, inoltre non sono capaci di comprendere, astrarre, concettualizzare, dar conto dei propri procedimenti. Infine, non sono coscienti né dotati di una volontà propria, ossia di un “libero arbitrio”.
Sarebbe però possibile creare delle macchine che oltre a possedere una mostruosa potenza di calcolo e sterminate conoscenze, superino anche tutti questi limiti? Si potrebbe cioè dar vita a una IA veramente intelligente, cioè di livello umano, o addirittura superiore?
In linea di principio, si direbbe, è del tutto possibile, ed anzi alcuni gruppi importanti ci stanno già provando: se, come si è visto nel primo articolo, l’intelligenza naturale è il prodotto di un enorme numero di microcomponenti materiali (neuroni e sinapsi) debitamente organizzati, in teoria nulla vieta di assemblare un ugual numero di microcomponenti – i transistor – organizzati nello stesso modo o anche in modo migliore. Come dicevamo, non importa se tali microcomponenti sono fatti di cellule organiche o di silicio, perché quel che conta è la struttura delle loro connessioni.
Se guardiamo indietro alla storia della scienza e del progresso tecnologico, ci accorgiamo che tutti i traguardi che nelle epoche passate si sarebbero ritenuti irraggiungibili, o addirittura inimmaginabili, sono poi stati raggiunti. Non possiamo dunque negare a priori che anche questo obiettivo, per quanto ambizioso, si possa realizzare.
Si è detto4 che la coscienza non è computazionale, ma in linea di principio si può fare di tutto anche senza esser coscienti: può esistere un’intelligenza che abbia prestazioni superumane pur essendo incosciente. Altra questione è il libero arbitrio, ma qui il problema riguarda anche gli esseri umani: anche per essi non è affatto chiaro se realmente ci sia e come sia possibile (ne parleremo nel prossimo articolo).
Per quanto in linea di principio possibile, tuttavia, in pratica la creazione di una IA di livello umano o superumano è estremante difficile. È vero che quando si è cominciato a lavorare ai sistemi intelligenti sembrava che fosse impossibile dar loro una serie di abilità allora mancanti (come la capacità di tradurre, apprendere autonomamente, riconoscere immagini, produrre testi o illustrazioni creativamente, ecc.), mentre con un sufficiente impiego di risorse l’una dopo l’altra una dopo l’altra tutte queste prestazioni sono state rese possibili. È anche vero, però, che per ciascuna abilità si sono dovute escogitare strategie specifiche, e a costi sempre crescenti, e le abilità umane sono praticamente infinite; si direbbe dunque che per ogni nuova funzione acquistata dalle macchine, ne rimarranno sempre tante di cui esse continueranno a esser prive.
Sarebbe però possibile creare delle macchine che oltre a possedere una mostruosa potenza di calcolo e sterminate conoscenze, superino anche tutti questi limiti? Si potrebbe cioè dar vita a una IA veramente intelligente, cioè di livello umano, o addirittura superiore?
In linea di principio, si direbbe, è del tutto possibile, ed anzi alcuni gruppi importanti ci stanno già provando: se, come si è visto nel primo articolo, l’intelligenza naturale è il prodotto di un enorme numero di microcomponenti materiali (neuroni e sinapsi) debitamente organizzati, in teoria nulla vieta di assemblare un ugual numero di microcomponenti – i transistor – organizzati nello stesso modo o anche in modo migliore. Come dicevamo, non importa se tali microcomponenti sono fatti di cellule organiche o di silicio, perché quel che conta è la struttura delle loro connessioni.
Se guardiamo indietro alla storia della scienza e del progresso tecnologico, ci accorgiamo che tutti i traguardi che nelle epoche passate si sarebbero ritenuti irraggiungibili, o addirittura inimmaginabili, sono poi stati raggiunti. Non possiamo dunque negare a priori che anche questo obiettivo, per quanto ambizioso, si possa realizzare.
Si è detto4 che la coscienza non è computazionale, ma in linea di principio si può fare di tutto anche senza esser coscienti: può esistere un’intelligenza che abbia prestazioni superumane pur essendo incosciente. Altra questione è il libero arbitrio, ma qui il problema riguarda anche gli esseri umani: anche per essi non è affatto chiaro se realmente ci sia e come sia possibile (ne parleremo nel prossimo articolo).
Per quanto in linea di principio possibile, tuttavia, in pratica la creazione di una IA di livello umano o superumano è estremante difficile. È vero che quando si è cominciato a lavorare ai sistemi intelligenti sembrava che fosse impossibile dar loro una serie di abilità allora mancanti (come la capacità di tradurre, apprendere autonomamente, riconoscere immagini, produrre testi o illustrazioni creativamente, ecc.), mentre con un sufficiente impiego di risorse l’una dopo l’altra una dopo l’altra tutte queste prestazioni sono state rese possibili. È anche vero, però, che per ciascuna abilità si sono dovute escogitare strategie specifiche, e a costi sempre crescenti, e le abilità umane sono praticamente infinite; si direbbe dunque che per ogni nuova funzione acquistata dalle macchine, ne rimarranno sempre tante di cui esse continueranno a esser prive.
|
Ecco perché sulla realizzabilità di una simile svolta epocale gli esperti si dividono: autori come Melanie Mitchell5 (Fig. 1), Paul Allen e Mark Greaves6 ritengono che sia impossibile, altri come Ray Kurzweil e Pedro Domingos7 che sia alla nostra portata. Grandi compagnie come Open AI ci stanno lavorando, ma al momento non è prevedibile né se potrebbero riuscirci, né quando. Secondo me dovremmo ammettere che non lo sappiamo: il futuro in parte si può prevedere, ma le scoperte scientifiche sono imprevedibili, sennò le avremmo già fatte e non sarebbero scoperte. Come insegna Socrate, spesso la maggior saggezza è il sapere di non sapere.
|
La strategia integrativa
|
Per arrivare a una intelligenza superumana si stanno cercando di mettere in atto diverse strategie, ma tutte hanno seri problemi. La prima è quella di proseguire coi metodi attuali, insegnando agli attuali sistemi di machine learning tutto quello che ancora non sanno e programmandoli per tutti i compiti che ancora non riescono a svolgere. Si tratta tuttavia di un processo senza fine.
I principali tipi di algoritmo in uso oggi sono quelli dei sistemi simbolici e delle reti neurali, di cui abbiamo parlato nel secondo articolo8. Oltre ad essi esistono però anche i sistemi genetici, quelli probabilistici e quelli analogisti: Pedro Domingos (Fig. 2), allora, crede che li si possano integrare tutti in un unico “algoritmo definitivo” che faccia tutto quello che oggi è fatto dai tanti sistemi differenti9. Che però sia davvero possibile è tuttora da dimostrare. |
La strategia mimetica
Un’altra strategia sarebbe quella di costruire una macchina che riproducesse esattamente il cervello umano, neurone per neurone e sinapsi per sinapsi. Ci sono progetti del genere in corso sia in America che in Europa, ma dato l’enorme numero dei neuroni e delle sinapsi10, la loro estrema piccolezza, e la nostra ignoranza di come funzionano e sono strutturati, è un obiettivo praticamente irraggiungibile con le tecnologie oggi esistenti od immaginabili. Secondo Domingos, anche se si potesse descrivere il cervello a livello delle singole sinapsi, non si riuscirebbe a disegnarne lo schema, e anche se ci si riuscisse, non si capirebbe ancora come funziona11.
Ray Kurzweil (Fig. 3), al contrario, sostiene che una foresta di abeti e un insieme di Mandelbrot (Fig. 4) sono oggetti di enorme complessità se guardiamo ai dettagli più piccoli, ma hanno una struttura semplice e chiaramente riconoscibile se osservati nelle grandi linee; allo stesso modo, il cervello è estremamente complesso se guardiamo ai singoli neuroni e sinapsi, ma relativamente semplice e comprensibile se guardiamo alle sue funzioni e ai loro meccanismi. Non ci sarebbe dunque bisogno di conoscere cellula per cellula, ma di capire come operano i diversi tipi di cellule e che generi di operazioni svolgono nel loro complesso. Imitandoli si potrebbero così programmare operazioni e funzioni analoghe nei computer12.
Tuttavia, nell’ipotesi fantascientifica di riprodurre esattamente un cervello a livello di singole cellule si potrebbe pensare di riprodurre anche tutto il suo patrimonio di conoscenze, incluse quelle di sfondo e quelle innate. Ma nell’ipotesi di Kurzweil di una riproduzione solamente funzionale questo non sarebbe possibile, e si è visto nell’articolo precedente13 che una delle ragioni per cui l’attuale IA non è alla pari con quella naturale è che le mancano troppe conoscenze di sfondo o innate.
Ray Kurzweil (Fig. 3), al contrario, sostiene che una foresta di abeti e un insieme di Mandelbrot (Fig. 4) sono oggetti di enorme complessità se guardiamo ai dettagli più piccoli, ma hanno una struttura semplice e chiaramente riconoscibile se osservati nelle grandi linee; allo stesso modo, il cervello è estremamente complesso se guardiamo ai singoli neuroni e sinapsi, ma relativamente semplice e comprensibile se guardiamo alle sue funzioni e ai loro meccanismi. Non ci sarebbe dunque bisogno di conoscere cellula per cellula, ma di capire come operano i diversi tipi di cellule e che generi di operazioni svolgono nel loro complesso. Imitandoli si potrebbero così programmare operazioni e funzioni analoghe nei computer12.
Tuttavia, nell’ipotesi fantascientifica di riprodurre esattamente un cervello a livello di singole cellule si potrebbe pensare di riprodurre anche tutto il suo patrimonio di conoscenze, incluse quelle di sfondo e quelle innate. Ma nell’ipotesi di Kurzweil di una riproduzione solamente funzionale questo non sarebbe possibile, e si è visto nell’articolo precedente13 che una delle ragioni per cui l’attuale IA non è alla pari con quella naturale è che le mancano troppe conoscenze di sfondo o innate.
La strategia ontogenetica
Un’altra strategia concepibile sarebbe di “far crescere” una IA nello stesso modo in cui cresce l’intelligenza naturale di un neonato. Questo richiederebbe, anzitutto, di fornirle dei sistemi di riconoscimento visivo, uditivo, tattile, ecc., che facciano ciò che gli organi di senso fanno negli umani, cioè percepiscano direttamente le cose. Ma già questo è problematico perché, come si è detto nell’articolo precedente, sistemi del genere riusciamo a mala pena a produrli come programmi isolati, e non senza difetti. Figuriamoci allora la difficoltà di integrarli in una IA che abbia anche tutte le altre funzioni.
Oltre a questo, comunque, bisognerebbe dotare la nostra IA di mani e gambe per muoversi autonomamente nel mondo e interagire con esso, così che possa imparare quelle nozioni intuitive di fisica, biologia e psicologia che, dicevamo, i bambini imparano entro i due anni14. Gestire tutte queste operazioni e coordinarle aumenterebbe però ancora, e di molto, la difficoltà di costruire un sistema così complesso.
Infine, bisognerebbe ancora programmare la nostra IA perché possa apprendere negli stessi modi in cui apprendiamo noi. Domingos illustra i vari tipi di processi con cui si impara: apprendimento supervisionato, clustering, riduzione della dimensionalità, apprendimento per rinforzo, esplorazione delle opzioni attraverso il gioco, chunking, apprendimento relazionale, ecc.15 Ma questi processi sono tanti e tutti utilizzati insieme dal nostro cervello, mentre non abbiamo programmi che possano implementarli tutti insieme.
In ogni caso, nemmeno tutto ciò basterebbe ancora: sia perché il cervello è tra le 100 e le 5.000 volte più complesso del più potente computer, sia perché esso non ha appreso solo dalle esperienze fatte dopo la nascita, ma in larghissima misura anche da milioni di anni di evoluzione per selezione naturale, che lo hanno dotato di una quantità di conoscenze innate che l’IA non possiede.
Se volessimo risolvere quest’ultimo problema non dovremmo partire da una IA comparabile a quella di un neonato umano, ma piuttosto da una analoga a quella di un organismo semplicissimo (per esempio l’ameba). Dovremmo allora programmarla per riprodursi con piccole mutazioni casuali, generazione dopo generazione, come gli organismi biologici, e infine immetterla nell’ambiente naturale per svariati milioni di anni, stando a vedere come si evolve.
Ovviamente, però, non abbiamo tutto quel tempo! Certo, potremmo programmare il sistema per riprodursi rapidissimamente, al ritmo di migliaia di generazioni in pochi minuti, ma l’ambiente non avrebbe il tempo per agire su di esse con la sua selezione. Forse si potrebbero simulare tutti gli inputs dell’ambiente nel corso di questo processo evolutivo se si riuscisse a produrre repliche informatiche del mondo esatte nei minimi dettagli, come sostiene Chalmers16. La sua, però, è un’altra profezia avveniristica.
C’è un filone di ricerca in questa direzione, la programmazione genetica ed evolutiva di Holland e Koza17, ma fin qui funziona ancora solo per obiettivi limitatissimi, e nulla fa pensare che possa compiere tutta la strada che le resta in questo senso.
Oltre a questo, comunque, bisognerebbe dotare la nostra IA di mani e gambe per muoversi autonomamente nel mondo e interagire con esso, così che possa imparare quelle nozioni intuitive di fisica, biologia e psicologia che, dicevamo, i bambini imparano entro i due anni14. Gestire tutte queste operazioni e coordinarle aumenterebbe però ancora, e di molto, la difficoltà di costruire un sistema così complesso.
Infine, bisognerebbe ancora programmare la nostra IA perché possa apprendere negli stessi modi in cui apprendiamo noi. Domingos illustra i vari tipi di processi con cui si impara: apprendimento supervisionato, clustering, riduzione della dimensionalità, apprendimento per rinforzo, esplorazione delle opzioni attraverso il gioco, chunking, apprendimento relazionale, ecc.15 Ma questi processi sono tanti e tutti utilizzati insieme dal nostro cervello, mentre non abbiamo programmi che possano implementarli tutti insieme.
In ogni caso, nemmeno tutto ciò basterebbe ancora: sia perché il cervello è tra le 100 e le 5.000 volte più complesso del più potente computer, sia perché esso non ha appreso solo dalle esperienze fatte dopo la nascita, ma in larghissima misura anche da milioni di anni di evoluzione per selezione naturale, che lo hanno dotato di una quantità di conoscenze innate che l’IA non possiede.
Se volessimo risolvere quest’ultimo problema non dovremmo partire da una IA comparabile a quella di un neonato umano, ma piuttosto da una analoga a quella di un organismo semplicissimo (per esempio l’ameba). Dovremmo allora programmarla per riprodursi con piccole mutazioni casuali, generazione dopo generazione, come gli organismi biologici, e infine immetterla nell’ambiente naturale per svariati milioni di anni, stando a vedere come si evolve.
Ovviamente, però, non abbiamo tutto quel tempo! Certo, potremmo programmare il sistema per riprodursi rapidissimamente, al ritmo di migliaia di generazioni in pochi minuti, ma l’ambiente non avrebbe il tempo per agire su di esse con la sua selezione. Forse si potrebbero simulare tutti gli inputs dell’ambiente nel corso di questo processo evolutivo se si riuscisse a produrre repliche informatiche del mondo esatte nei minimi dettagli, come sostiene Chalmers16. La sua, però, è un’altra profezia avveniristica.
C’è un filone di ricerca in questa direzione, la programmazione genetica ed evolutiva di Holland e Koza17, ma fin qui funziona ancora solo per obiettivi limitatissimi, e nulla fa pensare che possa compiere tutta la strada che le resta in questo senso.
La strategia auto generativa, o di “bootstrapping”
Da ultimo, Ray Kurzweil crede che si possa programmare una macchina per studiare il proprio stesso programma e migliorarlo. Il programma così migliorato a sua volta sarà in grado di migliorare se stesso, e così via, fin che si giungerà alla “singolarità”, cioè a una macchina tanto potente da superare, e di molto, l’intelligenza umana. Nel 201218 egli prevedeva che, dato il progresso esponenziale della tecnologia informatica, la “singolarità” sarà raggiunta addirittura nel 2045. Al momento, però, non si sa se davvero lo si possa fare, e come, date le molte obiezioni che si possono sollevare e sono state sollevate e contro le sue tesi.
Le obiezioni alle tesi di Kurzweil19
Il bootstrapping è impossibile
A prima vista l’idea di Kurzweil somiglia a quella di sollevarsi tirando sui lacci delle scarpe (“bootstrapping”), che ovviamente è impossibile. Anche in analogia coi teoremi di impossibilità di Gödel, sembra intuitivo supporre che un programma non possa avere le risorse per comprendere fino in fondo se stesso, e tantomeno per produrre un programma più potente.
A prima vista l’idea di Kurzweil somiglia a quella di sollevarsi tirando sui lacci delle scarpe (“bootstrapping”), che ovviamente è impossibile. Anche in analogia coi teoremi di impossibilità di Gödel, sembra intuitivo supporre che un programma non possa avere le risorse per comprendere fino in fondo se stesso, e tantomeno per produrre un programma più potente.
|
Nessun progresso resta sempre esponenziale
La tesi di Kurzweil si basa soprattutto sull’aspettativa di un progresso esponenziale della tecnologia informatica, come quello a cui effettivamente abbiamo assistito fin qui. Ma nessun processo resta mai esponenziale all’infinito, prima o poi per forza di cose rallentata o si ferma. Come si dice tecnicamente, prima o poi una curva esponenziale diventa curva a S (Fig. 5). Kurzweil risponde però che quando il progresso consentito dalla tecnologia attuale rallenterà, si troveranno tecnologie più potenti (un nuovo paradigma) che lo faranno ripartire20. |
Comprensione e complessità
Come avevamo visto nei due articoli precedenti, i sistemi di AI funzionano solo in base a probabilità statistiche e non comprendono realmente quel che dicono o che fanno. Non possono dunque eguagliare l’intelligenza umana. Tuttavia, Kurzweil risponde che in fondo il cervello opera allo stesso modo, eppure, produce comprensione21: i neuroni non capiscono nulla, esattamente come i transistor dei computer, eppure noi capiamo tutto.
In altre parole, forse la comprensione è qualcosa che emerge da un sistema computazionale una volta che esso diventi sufficientemente complesso e organizzato, come appunto è il cervello. Dunque, anche una macchina altrettanto complessa e ben organizzata potrebbe comprendere.
Il pessimismo dello scienziato
Molti ritengono semplicemente troppo ottimistiche le sue previsioni. Kurzweil risponde però che tale giudizio dipende dal “pessimismo dello scienziato”, che essendo abituato a lavorare con teorie e tecnologie che conosce, stenta a immaginare la possibilità di cose che saranno scoperte dalle prossime generazioni22.
Profezie azzeccate e no
In passato Kurzweil ha azzeccato numerose previsioni sulla velocità del progresso in questo settore, ma nel libro La singolarità è vicina23 (originariamente pubblicato nel 2005), egli faceva diverse profezie che non si sono realizzate: prevedeva che (i) entro il 2010 un supercomputer avrebbe eguagliato l’intelligenza umana (p. 25), (ii) attorno al 2020 un simile supercomputer si sarebbe potuto comprare per 1.000 dollari (p. 126), (iii) verso la metà degli anni ’20 del Duemila avremmo avuto una completa scansione del cervello, e quindi un modello accurato dell’intelligenza umana (p. 25).
Poiché queste previsioni non si sono nemmeno approssimativamente avverate, è lecito dubitare che si avvere- ranno anche le seguenti, cioè che (i) entro il 2029 i computer supereranno il test di Turing24 (p. 200), (ii) all’inizio degli anni ’30 la potenza di calcolo dell’intelligenza non biologica supererà quella di tutta quella dell’intelligenza umana vivente messa insieme (p. 135), (iii) e appunto, entro il 2045 si raggiungerà la singolarità (p. 136).
Come avevamo visto nei due articoli precedenti, i sistemi di AI funzionano solo in base a probabilità statistiche e non comprendono realmente quel che dicono o che fanno. Non possono dunque eguagliare l’intelligenza umana. Tuttavia, Kurzweil risponde che in fondo il cervello opera allo stesso modo, eppure, produce comprensione21: i neuroni non capiscono nulla, esattamente come i transistor dei computer, eppure noi capiamo tutto.
In altre parole, forse la comprensione è qualcosa che emerge da un sistema computazionale una volta che esso diventi sufficientemente complesso e organizzato, come appunto è il cervello. Dunque, anche una macchina altrettanto complessa e ben organizzata potrebbe comprendere.
Il pessimismo dello scienziato
Molti ritengono semplicemente troppo ottimistiche le sue previsioni. Kurzweil risponde però che tale giudizio dipende dal “pessimismo dello scienziato”, che essendo abituato a lavorare con teorie e tecnologie che conosce, stenta a immaginare la possibilità di cose che saranno scoperte dalle prossime generazioni22.
Profezie azzeccate e no
In passato Kurzweil ha azzeccato numerose previsioni sulla velocità del progresso in questo settore, ma nel libro La singolarità è vicina23 (originariamente pubblicato nel 2005), egli faceva diverse profezie che non si sono realizzate: prevedeva che (i) entro il 2010 un supercomputer avrebbe eguagliato l’intelligenza umana (p. 25), (ii) attorno al 2020 un simile supercomputer si sarebbe potuto comprare per 1.000 dollari (p. 126), (iii) verso la metà degli anni ’20 del Duemila avremmo avuto una completa scansione del cervello, e quindi un modello accurato dell’intelligenza umana (p. 25).
Poiché queste previsioni non si sono nemmeno approssimativamente avverate, è lecito dubitare che si avvere- ranno anche le seguenti, cioè che (i) entro il 2029 i computer supereranno il test di Turing24 (p. 200), (ii) all’inizio degli anni ’30 la potenza di calcolo dell’intelligenza non biologica supererà quella di tutta quella dell’intelligenza umana vivente messa insieme (p. 135), (iii) e appunto, entro il 2045 si raggiungerà la singolarità (p. 136).
Conclusione
In sintesi, la creazione (o la nascita) di una IA superumana costituirebbe davvero una svolta epocale per l’umanità. Tuttavia, non riusciamo a dire con sufficiente fondamento se un cambiamento così radicale sia possibile o no: si rischia di sbagliare per ingenuità ed eccesso di ottimismo in un senso, o per miopia e mancanza di immaginazione nell’altro. Sembra giusto dunque sospendere il giudizio, preparandosi però prudenzialmente ad ogni evenienza. Nel prossimo articolo ci chiederemo dunque se un’eventuale IA superumana comporterebbe dei pericoli, oltre ai suoi indubbi vantaggi. Soprattutto, noi genere umano correremmo il rischio di esser sottomessi e sfruttati, più o meno come noi abbiamo sottomesso e sfruttiamo gli animali? Se poi questo rischio esiste, sarebbe il caso di evitarlo bloccando qualunque altro passo avanti verso la super-IA? Oppure sono immaginabili strategie per godere in modo sicuro dei suoi benefici evitandone i rischi, più o meno come riusciamo a utilizzare la tremenda potenza dell’energia atomica, controllandola ed evitandone i potenziali effetti distruttori?
Leggi il successivo articolo:
Rischi e sfide dell’intelligenza artificiale oggi
Leggi il successivo articolo:
Rischi e sfide dell’intelligenza artificiale oggi
|
Questo articolo è tratto da NUOVA SECONDARIA
|