Raymond Kurzweil: Singolarità e AI

Che la Singolarità tecnologica, espressione coniata dallo stesso Kurzweil, fosse all’orizzonte degli eventi con cui la nostra civiltà aveva a che fare accelerando in ogni àmbito, è una scoperta che Kurzweil condivide con i grandi fisici e tecnoscienziati e biologi che, dal Novecento, ci conducono alle soglie del salto di specie. Perché di salto di specie si tratta: non stiamo vivendo un cambio di epoca e nemmeno di era, ma propriamente di specie. Forse siamo alle ultime generazioni in cui si dà per intero e assoluto il fenomeno della morte a questo mondo. Alcune riflessioni di Kurzweil illuminano questa transizione caotica, che sta facendo sussultare il pianeta e gli umani.
Per chi volesse avere un quadro più completo dell’opera di Raymond Kurzweil, consiglio questa pagina.

Come dimostra quel che è accaduto negli ultimi anni, siamo già sulla strada per ricreare le capacità della neocorteccia cerebrale. Ciò che ancora manca all’AI di oggi ricade in varie categorie principali, in particolare: memoria contestuale, buonsenso e interazione sociale.

La memoria contestuale è la capacità di tenere traccia di come, all’interno di una conversazione o di un’opera scritta, tutte le idee si incastrino dinamicamente fra loro. Al crescere delle dimensioni del contesto pertinente, cresce esponenzialmente il numero delle relazioni fra idee. Se ci sono dieci idee-parole (cioè, dieci token) in una data frase, il numero delle possibili relazioni fra tutti i sottoinsiemi di quelle idee è pari a 210 – 1, cioè 1.023. Se in un paragrafo ci sono cinquanta idee, significa che esistono 1,12 milioni di miliardi di possibili relazioni contestuali fra esse! Anche se la stragrande maggioranza di quelle relazioni è irrilevante, ciò che è richiesto per ricordare a forza bruta il contesto di un intero capitolo o di un intero libro rapidamente cresce in maniera incontrollabile. Per questo GPT-4 dimentica quello che gli è stato detto in precedenza in una conversazione, e non può scrivere un romanzo con una trama logica e coerente.

Le buone notizie sono di duplice natura: i ricercatori stanno facendo grandi passi in avanti nel progettare AI che possa concentrarsi con maggiore efficacia su dati contestuali rilevanti, e i miglioramenti esponenziali nel rapporto prezzo-prestazioni significano che il costo della computazione probabilmente diminuirà di oltre il 99 percento entro un decennio.

L’area successiva in cui l’AI è ancora manchevole è il buonsenso (o senso comune), cioè la capacità di immaginare le situazioni e di prevederne le conseguenze nel mondo reale. Per esempio, anche se non abbiamo mai studiato che cosa succederebbe se la gravità improvvisamente smettesse di esistere nella nostra camera da letto, possiamo facilmente immaginarlo. Questo tipo di ragionamento è importante anche per l’inferenza causale. Se abbiamo un cane e, tornando a casa, trovate un vaso rotto, possiamo inferire che cosa sia successo. Nonostante lampi sempre più frequenti di intuizione, l’AI ha ancora difficoltà in questo, perché non possiede ancora un modello robusto di come funziona il mondo reale, e i dati di addestramento includono raramente questa conoscenza implicita.

Infine, sfumature sociali come un tono di voce ironico non sono ben rappresentate nei database testuali su cui viene ancora addestrata nella maggior parte dei casi l’AI. Senza questa comprensione, è difficile sviluppare una teoria della mente, una capacità di riconoscere che gli altri hanno credenze e conoscenze diverse dalle nostre, di mettersi nei loro panni e di inferire le loro motivazioni.

Penso che l’AI presto colmerà la lacuna in tutti questi ambiti e il mio ottimismo si basa sulla convergenza di tre tendenze esponenziali confluenti: il miglioramento del rapporto prezzo-prestazioni della computazione, che rende più economico addestrare grandi reti neurali; la disponibilità straordinariamente crescente di dati di addestramento più ricchi e più ampi, che consente di sfruttare meglio i cicli di computazione dell’addestramento; e il miglioramento degli algoritmi che consentono all’AI di apprendere e ragionare con maggiore efficacia. Anche se la velocità di computazione, a parità di costo, è raddoppiata in media ogni 1,4 anni a partire dal 2000, la quantità delle computazioni totali utilizzate per addestrare un modello di AI allo stato dell’arte è raddoppiata ogni 5,7 mesi dal 2010 in poi: un aumento di circa dieci miliardi di volte. Durante il periodo precedente l’apprendimento profondo, dal 1952 (quando è stato dimostrato uno dei primi sistemi di apprendimento automatico, sei anni prima della rete neurale pionieristica del Perceptrone) fino all’arrivo dei big data, intorno al 2010, il tempo di raddoppio della quantità di computazione necessaria per addestrare un’AI è stato di quasi due anni (all’incirca in linea con la legge di Moore).

Detto altrimenti, se la tendenza degli anni 1952-2010 fosse continuata fino al 2021, la quantità di computazione sarebbe aumentata di un fattore minore di 75, invece che di una decina di miliardi di volte. Questa crescita è stata molto più rapida dei miglioramenti nel rapporto complessivo prezzo-prestazioni della computazione, perciò la causa non è stata una grande rivoluzione nell’hardware. Ne sono stati responsabili, invece, principalmente due fatti. Il primo è che i ricercatori dell’AI hanno introdotto nuovi metodi innovativi nella computazione parallela, così che numeri di chip sempre più grandi possono lavorare insieme allo stesso problema di apprendimento automatico. Il secondo è che, quando i big data hanno reso più utile l’apprendimento profondo, gli investitori di tutto il mondo hanno riversato quantità sempre maggiori di denaro in questo campo, nella speranza di raggiungere qualche punto di svolta.

Non so esattamente quando mi sono reso conto per la prima volta della Singolarità. Direi che è stato una sorta di risveglio progressivo. Nel mezzo secolo circa in cui sono stato immerso nelle tecnologie dell’informatica e dei settori collegati, ho cercato di capire il significato e il fine di quel continuo ampliamento di cui sono stato testimone a molti livelli. Gradualmente sono diventato consapevole di un evento di profonda trasformazione che ci aspetta nella prima metà del Ventunesimo secolo. Come un buco nero nello spazio altera drasticamente le configurazioni di materia ed energia che accelerano verso il suo orizzonte degli eventi, questa Singolarità che incombe nel nostro futuro sta trasformando sempre più ogni istituzione e ogni aspetto della vita umana, dalla sessualità alla spiritualità.

Che cos’è, dunque, la Singolarità? È un periodo futuro in cui il ritmo del cambiamento tecnologico sarà così rapido e il suo impatto così profondo, che la vita umana ne sarà trasformata in modo irreversibile. Né utopica né distopica, quest’epoca trasformerà i concetti su cui ci basiamo per dare un significato alle nostre vite, dai nostri modelli di business al ciclo della vita umana, inclusa la stessa morte. Una comprensione della Singolarità modificherà la nostra prospettiva sul significato del nostro passato e le ramificazioni per il nostro futuro. Se la si intende a pieno, la visione che ciascuno ha della vita in generale, e della propria in particolare, non può che cambiare. Chi capisce la Singolarità e ha riflettuto sulle sue conseguenze per la propria vita è un singolaritariano.

Posso capire perché molti non condividano facilmente le ovvie conseguenze di quella che ho chiamato la legge dei ritorni accelerati (l’inevitabile accelerazione del ritmo dell’evoluzione, con l’evoluzione tecnologica come continuazione di quella biologica). In fin dei conti, mi ci sono voluti quarant’anni per riuscire a vedere quello che mi stava proprio davanti agli occhi, e non posso dire ancora di sentirmi del tutto a mio agio con tutte le sue conseguenze.

L’idea chiave alla base della Singolarità incombente è che il ritmo di trasformazione della tecnologia creata dagli uomini sta accelerando e che la sua potenza cresce a velocità esponenziale. La crescita esponenziale inganna. All’inizio è quasi impercettibile, poi esplode con furia inattesa… se non ci si dà cura di seguirne la traiettoria.

Garry Kasparov nel 1992 si faceva beffe dello stato patetico dei programmi per giocare a scacchi; ma il costante raddoppio della potenza di calcolo ogni anno ha fatto sì che passassero solo cinque anni prima che un computer riuscisse a batterlo. L’elenco dei modi in cui oggi i computer possono superare le capacità umane cresce rapidamente. Inoltre, le applicazioni dell’intelligenza automatica, un tempo ristrette, si stanno estendendo gradualmente da un tipo di attività all’altra. Per esempio, i computer interpretano elettrocardiogrammi e immagini mediche, fanno volare e atterrare aerei, controllano le decisioni tattiche di armi automatiche, prendono decisioni in materia di credito e finanza e hanno la responsabilità di molte altre attività che una volta richiedevano l’intelligenza umana. Le prestazioni di questi sistemi si basano sempre più sull’integrazione di vari tipi di intelligenza artificiale (AI). Finché ci sarà qualche fallimento dell’AI in qualcuna di queste aree, gli scettici indicheranno quel campo come una roccaforte inespugnabile della permanente superiorità umana rispetto alle capacità delle nostre stesse creazioni.

[fonte: Apogeonline]


Scopri di più da Giuseppe Genna

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Scopri di più da Giuseppe Genna

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere