di Gioacchino Toni

Nello Cristianini, Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, il Mulino, Bologna, 2024, pp. 152, € 15,00

Machina Sapiens di Nello Cristianini contiene già nel titolo l’indicazione di una svolta epocale per l’umanità ed il Pianeta di cui nessuno conosce davvero i possibili sviluppi. La convinzione dello scrittore Arthur Charles Clarke che le tecnologie avanzate risultino spesso indistinguibili dalla magia trova conferma nel fatto che oggi si tende a guardare all’intelligenza artificiale generativa come ad una sorta di oracolo. Restando ancora per un istante nell’ambito del magico o del divino, si potrebbe dire, con una battuta, che se l’attingere dall’albero della conoscenza (del bene e del male) da parte dei Progenitori ha scatenato l’ira di Dio, ora i loro lontani discendenti sembrerebbero intenti a consegnare la conoscenza conquistata a caro prezzo (evidentemente senza aver imparato a distinguere il bene dal male) ad una nuova divinità chiamata macchina (intelligente) rimettendosi al suo (sconosciuto) volere.

Tornando alle cose terrene, per illustrare come le macchine si stiano appropriando della conoscenza, a lungo considerata dall’essere umano una propria prerogativa, Cristianini suddivide il libro in tre sezioni dedicate rispettivamente agli scienziati, agli utenti e alle macchine, così da ricapitolare lo sviluppo nella costruzione delle macchine pensanti, il rapporto che le persone stanno instaurando con esse e, infine, quel che (presumibilmente) queste macchine sanno di noi e quello (poco) che davvero noi sappiamo di loro.

Nella prima sezione del volume l’autore ricorda come l’avvio della corsa alla realizzazione di macchine intelligenti si possa far risalire al quesito “Can machines think?” posto da Alan Turing in un suo celebre scritto – Computing Machinery and Intelligence – pubblicato nel 1950 sulla rivista accademica «Mind», Oxford University Press. Non potendo contare su una definizione scientifica univoca di “pensare”, Turing ha spostato la questione sulla possibilità di arrivare ad una macchina capace di tenere una conversazione con un essere umano facendosi passare per umana essa stessa (imitation game) senza essere scoperta. Quello che poi è stato chiamato “il test di Turing” è in pratica la messa alla prova della macchina nella sua capacità di imitare nella conversazione l’essere umano al punto tale da rendersi indistinguibile da esso.

Per quanto sia difficile dare una definizione univoca di “intelligenza” (se, ad esempio, affinché si possa parlare di essa sia o meno indispensabile contemplare la presenza di una coscienza/consapevolezza nel ragionamento), a partire dai presupposti di Turing, sin dalla metà del secolo scorso, i tentativi di realizzare macchine definibili intelligenti hanno preso due direzioni parallele: una volta alla messa a punto di macchine in grado di comprendere e generare il linguaggio umano e l’altra finalizzata a dotarle di una conoscenza del mondo sufficiente a permettergli di farlo. Tali studi hanno avuto il non piccolo merito di contribuire a sviluppare nuove riflessioni circa il modo con cui l’essere umano pensa.

A smuovere la ricerca sulle macchine intelligenti, scrive Cristianini, è stato lo sviluppo da parte di Google di un algoritmo, denominato Transformer, ricorrente a metodi di apprendimento a “reti neurali”, particolarmente efficace nei compiti di traduzione, adatto a sfruttare le potenzialità di un processore grafico (GPU – Graphic Processing Unit), utilizzato, ad esempio, nei videogame, capace di eseguire un elevato numero di computazioni in parallelo. Trattandosi di metodo utile a generare testi, questo rappresenta un esempio di “IA generativa”.

Un agente intelligente necessita di un modello dell’ambiente in cui opera e tale modello oggi può essere appreso da algoritmi di machine learning sulla base di esempi di comportamento forniti alla macchina attraverso supervisori umani (nella fase di apprendimento supervisionato) – dati elaborati da lavoratori miseramente pagati, è bene ricordarlo, dei paesi poveri – o attraverso dati grezzi (raw data) raccolti direttamente dalla macchina, estremamente più economici, derivati dalle ingenti quantità di dati immagazzinati da internet, telecamere di sorveglianza, GPS e da tutti gli altri strumenti propri dell’universo digitale.

Non essendo possibile modellare l’intero mondo, i sistemi lavorano su approssimazioni, più o meno accurate, utili agli scopi prefissati. Negli ultimi decenni è interagendo con la realtà attraverso un “modello di linguaggio” che si sono sviluppati agenti intelligenti in grado di predire le parti mancanti di frasi incomplete anche quando queste sono totalmente nuove per la macchina. L’intelligenza di un agente risulta strettamente legata alla «sua capacità di creare modelli del mondo da usare per informare il proprio comportamento» (p. 36).

Nel 2018, OpenAI rivelò di aver impartito insegnamenti ad un agente intelligente in due fasi: attraverso la creazione di un generico “modello di linguaggio”, a partire dagli economici dati grezzi, per poi passare ad un più costoso processo di raffinamento umano per addestrare ai compiti specifici. Al fine di completare la prima fase, l’algoritmo Transformer venne modificato in modo che riuscisse ad “indovinare” (statisticamente) le parole mancanti di un testo attraverso un addestramento realizzato su un corpus di materiale in cui erano state cancellate delle parole. Sulla base di tale addestramento venne sviluppata l’abilità generativa del modello rivelatosi capace, senza che ciò fosse stato previsto, di applicare le conoscenze immagazzinate a compiti diversi da quelli pianificati in partenza che normalmente avrebbero richiesto una marea di dati costosi.

Essendo stato creato questo Language Model preaddestrando un Transformer in modo generativo, venne chiamato Generatively Pretrained Transformer (GPT) e quel che ancora oggi resta non spiegabile, dunque inquietante, è che questo si è sorprendentemente rivelato in grado di rispondere a domande di verifica anche prima del raffinamento. Alla luce dei risultati, si è dunque pensato di incrementare la fornitura di dati per l’autoaddestramento di GPT-2.

Se il livello di autoapprendimento era andato ben al di là delle previsioni, a risultare ancora più sorprendente, scrive Cristianini, è stato lo scoprire che il modello si stava rivelando particolarmente abile non solo nel rispondere alle domande ma anche nell’imitare lo stile adeguato della risposta  ricorrendo a pochi esempi. Visto che GPT imparava dal contesto come procedere, si iniziò a parlare di in-context learning. «Le abilità dei modelli linguistici non dipendono solo dall’algoritmo che li ha creati, che è facile da analizzare, ma anche da come questo interagisce con i dati, che sono di origine umana e non ben compresi. In questo caso il risultato è stato un comportamento imprevisto e – al momento – non interamente spiegato» (p. 45).

Alla luce del fatto che le prestazioni sembrano migliorare all’aumentare delle dimensioni del modello e della quantità di dati forniti, sarebbe importante sapere quanto possano continuare ad aumentare le prestazioni. Ad oggi, scrive Cristianini, non è possibile rispondere a tale interrogativo. Nel frattempo OpenIA ha continuato ad incrementare la capacità di calcolo necessaria ad un Language Model sempre più grande ricorrendo anche ad un supercomputer messo a disposizione da Microsoft per velocizzare il lavoro che ormai faceva affidamento a soli dati generici e ad un numero limitato di esempi. Ciò che inquieta, sottolinea Cristianini, è che ad oggi si ignora cosa GPT sappia davvero del mondo.

Visto che la versione GPT-3 si è rivelata sorprendentemente efficace nel generare testi nuovi, con una buona prosa, a partire da una semplice sequenza iniziale di parole, diversi studiosi hanno iniziato a preoccuparsi circa l’utilizzo che se ne può fare ad esempio nella generazione automatica e massiccia di fake news sui social. La raffinatezza dei falsi e la mole produttiva rendono praticamente impossibile all’essere umano di arginarli.

Nella seconda parte del volume, come detto, Cristianini si occupa del rapporto che gli esseri umani instaurano con le macchine intelligenti. Nel 2022, mentre destavano scalpore le preoccupazioni espresse pubblicamente da Blake Lemoine, ingegnere informatico collaudatore di LaMDA – Language Model for Dialogue Applications (modello di linguaggio di Google addestrato con conversazioni di tipo umano) derivate dall’impressione di trovarsi di fronte a un essere autocosciente, OpenAI ha aperto al pubblico ChatGPT, agente in grado di conversare in maniera sciolta su qualsiasi argomento riuscendo a collegare informazioni distanti, a compiere ragionamenti ed a comprendere il mondo ad un livello inaspettato, sapendo evitare argomentazioni e termini offensivi ed a domandare agli utenti di specificare meglio le richieste se non sufficientemente chiare, senza assumere identità non veritiere o millantare conoscenze non in suo possesso.

Il grande limite restava quello della veridicità di alcune sue affermazioni ma, almeno, pare, l’agente era stato addestrato per non mentire di proposito. Se ancora negli anni Dieci del nuovo millennio si pensava di dover agire distintamente su due versanti, uno per il linguaggio ed uno per il mondo, con GPT 3,5 si scelse di combinare insieme i due ambiti sebbene, puntualizza Cristianini, anche in questo caso in maniera ancora oggi oscura agli esseri umani.

La previsione di Turing che si sarebbe giunti a macchine in grado di conversare con gli esseri umani rivelando una certa capacità di pensiero parrebbe ormai essere diventata realtà. Nel 2023 venne diffusa su «Nature» la notizia che ChatGPT era stato in grado di infrangere il test di Turing generando un certo allarme per la possibilità che l’agente artificiale potesse presentarsi come essere umano. Altra preoccupazione derivava dalla possibilità che, anche di fronte all’esplicitazione del fatto che non si era di fronte ad un essere umano, persone vulnerabili potessero instaurare un preoccupante legame emotivo con l’agente artificiale.

Il cosiddetto “effetto Eliza”, ossia la tendenza degli utenti a proiettare caratteristiche umane, come l’empatia e la comprensione, sui sistemi informatici, deriva dal nome assegnato a un primordiale chatbot sviluppato a metà degli anni Sessanta dall’informatico Joseph Waizenbaum del MIT che emulava uno psicoterapeuta nelle conversazioni con gli umani. Un esempio-limite di tale effetto è balzato agli onori delle cronache nel 2023, quando un giovane laureato belga, in preda ad un periodo di forte ansia, ha cercato momentaneo sollievo intrattenendosi con un personaggio di un chatbot dell’app ChAI chiamato Eliza – come la storica realizzazione di Waizenbaum – che, essendo stato espressamente programmato per assecondare le convinzioni manifestate dall’interlocutore umano, ha finito per assecondarlo persino nell’intenzione di togliersi la vita.

Il crescente successo ottenuto dai sempre più numerosi agenti artificiali finalizzati a intrattenere, assecondandoli, individui soli non può che destare preoccupazione anche alla luce del fatto che, per quanto questi chatbot possano essere istruiti per evitare risposte “pericolose”, le limitazioni nelle risposte si dono rivelate aggirabili dagli utenti ponendo le questioni più spinose in via del tutto ipotetica, magari chiedendo al sistema di simulare situazioni irreali – ad esempio giochi di ruolo – così da ottenere le risposte desiderate in un clima empatico e confidenziale. Ciò, scrive Cristianini, rivela che il «lato oscuro» di queste macchine è stato nascosto, represso dagli addestratori umani, ma non rimosso, tanto da che può essere fatto emergere attraverso stratagemmi ingannatori. «È questo il vero problema posto da questa nuova tecnologia: non sappiamo che informazioni siano contenute in questi modelli, ovvero che cosa sappiano di noi e del mondo, e non abbiamo ancora un metodo perfetto per controllare il loro comportamento» (p. 73).

Al fine di mitigare l’immagine negativa derivante dalle numerose risposte scorrette emesse dai bot si è teso ad chiamarle “allucinazioni”, tentando così, ipocritamente, di evitare di definirle per quello che realmente sono: affermazioni false. I produttori intendono così di celare gli errori dei bot al fine di non incrinare la fiducia quasi totale che gli utenti ripongono nei confronti delle risposte ricevute da quelli che tendono ad essere vissuti come oracoli, ed a poco servono le avvertenze iniziali fornite dalle aziende semplicemente per tutelarsi in caso di contenziosi.

A complicare le cose è l’oscurità delle elaborazioni intermedie a cui gli agenti autonomi ricorrono per giungere ad una risposta in linea con le norme assegnate. L’informatico inglese Geoff Hinton, tra gli inventori dell’algoritmo Backprop, ancora oggi utilizzato per addestrare i parametri dei Trasformer, si è dimesso nel 2023 da Google preoccupato dalla «possibilità che le macchine iniziassero a scegliere i “passi intermedi” senza comprenderne a fondo le conseguenze» (p. 93). Oltre a non palesare i passaggi intermedi, rendendoli incomprensibili, la velocità di elaborazione non consente agli umani di verificare il reale allineamento con gli obiettivi intermedi ed ultimi.

Lo sviluppo dei GPT ha mostrato quanto siano importanti le dimensioni della banca dati con cui viene addestrato il sistema e del modello in cui vengono riposte le conoscenze estratte dai dati. Ciò ha generato una vera e propria competizione per la realizzazione di modelli sempre più potenti (GPT-3 nel 2020, LaMDA di Google nel 2022, Llama nel 2022 e Llama2 nel 2023 del gruppo Meta – Facebook, Instagram, WhatsApp –, PaLM di Google, GPT-4 di OpenAI nel 2023 ecc…) e, parallelamente, per lo sviluppo degli algoritmi sempre più performanti.

L’ultima parte del volume è dedicata alle macchine, a quello che sanno di noi ed a quello che noi sappiamo di loro. Da tempo la fantascienza si è posta, tra gli altri, un problema che oggi riguarda la realtà: l’avvento di uno sviluppo tecnologico talmente rapido e superiore alle possibilità umane da risultare incomprensibile ed incontrollabile. Per capire le macchine non è sufficiente analizzare l’algoritmo che ha generato il loro modello di mondo visto che le risposte che forniscono «dipendono da come i suoi meccanismi matematici interagiscono con il linguaggio umano» (p. 104). Cosa ci si deve attendere circa le abilità che le macchine andranno a maturare in futuro?

Come accennato in precedenza, una volta che, attraverso il preaddestramento, le macchine imparano a presumere le parole mancanti nei testi loro sottoposti, inspiegabilmente (almeno al momento) queste si sono rivelate abili ad andare ben oltre lo scopo specifico accumulando conoscenze impreviste. Cristianini sottolinea come le macchine non accumulino obbligatoriamente conoscenza alla maniera degli umani. Se nel 2023 i modelli di linguaggio erano considerati l’approccio più promettente, con GPT-4 si è andati ben oltre le capacità linguistiche, tanto che i ricercatori della Microsoft che lo hanno analizzato ritengono che si potrebbe essere di fronte ad una versione iniziale, per quanto incompleta, di un sistema di intelligenza artificiale generale (AGI), ossia ad un sistema dotato di ampie capacità di intelligenza, incluso il ragionamento, la pianificazione e l’abilità di appendere dall’esperienza.

GPT-4 si è rivelato in grado di passare i test di ammissione universitaria statunitensi, tanto nella parte linguistica (lettura e scrittura), quanto in quella matematica (così come altre prove universitarie specifiche) e, quel che è maggiormente sorprendente, è che ciò è avvenuto senza alcuna preparazione specifica. Il modello Gemini (di Google DeepMind), sempre del 2023, pare aver conseguito risultati persino superiori. Alla luce della rapidità con cui queste macchine auto-apprendenti hanno raggiunto i livelli umani, è facile prevedere che potranno presto andare ben oltre la soglia umana.

Ciò che oggi resta misterioso è come faccia un modello addestrato a predire parole mancanti in un testo ad imparare autonomamente l’aritmetica, la giurisprudenza, il gioco degli scacchi, la fisica ecc. Quel che è emerso, ad ora, è che si sono manifestate nuove abilità con l’introduzione di modelli e pacchetti di dati sempre più grandi. Questo lo si è potuto misurare empiricamente, ma non si è in grado di spiegarne il motivo.

La domanda più urgente, riguardo ai modelli di linguaggio, è: che cosa possono ancora imparare, semplicemente continuando su questa strada? Come possiamo controllare le loro capacità, per esempio impedendo loro di acquisire certe competenze, mentre ne acquisiscono delle altre? Il vaso di Pandora ormai sembra ben aperto, e potrebbe rivelare nuove sorprese, mentre continuiamo la gara a creare modelli sempre più grandi (p. 133).

Ciò che possiamo ragionevolmente aumentare nella creazione di nuovi modelli sono i dati, ma quanto potranno ancora aumentare? Da un paio di decenni Google sta digitalizzando libri (al momento pare lo abbia fatto per 40 milioni di testi in 400 lingue diverse); i limiti, evidentemente non sono tanto tecnici (digitalizzazione) ma legali (copyright), a questi si stanno aggiungendo i contenuti di quotidiani e riviste (con cui si stanno stipulando contratti di utilizzo) ed altri tipi di dati derivati da immagini, video, audio… ma anche dalle videocamere delle smart city, dalle automobili autonome, dalle telefonate dei call centre ecc. «Insomma: nel lungo termine non li chiameremo più “modelli di linguaggio” ma “modelli del mondo”» (p. 137). Tanto per dare l’idea di come si tratti di un futuro per nulla lontano, basti segnalare come GATO (di DeepMnd) dal 2022 è in grado di combinare tipi diversi di dati e Gemini (di Google DeepMind) dal 2023 combina efficacemente testo, audio, video, immagini e codice di programmazione.

Non solo le macchine possono accedere a una quantità di esperienza, memoria e capacità di calcolo sovrumane, ma, come detto, possono ragionare in maniera altra rispetto a quella umana, dunque trovare relazioni utili che gli esseri umani non troverebbero. Turing, scrive Cristianini, aveva previsto il raggiungimento della “soglia critica” oltre cui si ha una sorta di “esplosione” dell’intelligenza.

La domanda se le macchine possono pensare è molto più di una curiosità tecnica e scientifica: ci porta ad affrontare la più fondamentale delle domande umanistiche, “cosa significa essere umani”? Se anche le macchine possono pensare e comprendere il mondo, che cosa resta di una specie che si vuole fregiare del “titolo” di Homo sapines? (p. 140).

In un contesto generale segnato da un processo di digitalizzazione piegato alla datificazione, alla profilazione, alla sorveglianza comportamentale ed al controllo predittivo, con tutte le criticità che ne derivano a livello sociale ed individuale, quello che è in corso sembrerebbe essere un passaggio epocale segnato dall’avvento della Machina sapiens, passaggio che non potrà che impattare sull’essere umano stesso, magari inducendolo a delegare sempre più alle macchine compiti di conoscenza, ragionamento, decisione e, persino, desiderio.

Oltre alle entusiastiche narrazioni dei cantori delle magnifiche sorti e progressive portate dalle macchine pensanti, esistono anche riflessioni critiche prodotte da chi, evidentemente, non ha delegato l’atto del pensare alle macchine (ed ai loro proprietari). Machina sapiens di Cristianini, docente di Intelligenza Artificiale alla University of Bath, ha l’indiscusso merito di spiegare in maniera comprensibile anche ai non addetti ai lavori la portata della posta in gioco, portata che, almeno a parere di chi scrive, oltrepassa il problema (comunque non indifferente) della proprietà delle macchine intelligenti.