LLMs: il surrogato dello Spirito del mondo

18 gennaio 2024

Di Elio Grande

Se il chatbot Eliza, nel 1966, camuffava la propria stupidità rispondendo ad ogni affermazione (ovvero prompt, comando) come un oroscopo, poiché selezionava una frase piuttosto vaga (come: «Avrei bisogno di saperne di più») da un insieme preconfezionato, non pare valere lo stesso per i moderni Large Language Models (LLMs), tra cui i fantomatici Chat GPT, Bard etc. Questi sistemi artificiali intelligenti, modellati su enormi quantità di stringhe di testo, presentano difatti un sorprendente fenomeno: le cosiddette “abilità emergenti”. Una di queste, ad esempio, è il few-shot prompting, ovvero l’apparente capacità di imparare un compito da un numero molto ridotto di comandi. Se, senza averlo mai fatto prima, inseriamo una stringa come «Review: “Questa pizza è eccellente!” – Sentiment: “Positivo”» e di seguito una seconda stringa come «Review: “Una pizza davvero orrenda”–Sentiment:», intendendo lasciar completare la frase, il sistema risponderà d’emblée:«Negativo». Si chiamano abilità “emergenti” perché diventano visibili solo oltre una data soglia di complessità computazionale, misurabile in numero di parametri del sistema (Chat GPT-3 ne aveva 175 miliardi) o in floating point operations (FLOPs), cioè il numero di operazioni eseguite dai processori sia in fase di allenamento che di inferenza. 

Fonte: Freepik

La soglia di “emergenza” rimane tuttavia non calcolabile con precisione prima di aver fatto esperimenti, e questo genera timori sulla controllabilità di questi sistemi. Alcuni, piuttosto, credono che l’impennata nelle curve di performance sia dovuta ad un’errata metrica di valutazione. E se il miracolo stesse solo nei nostri occhi? Strano ma vero, per analogia, potrebbe forse venirci in soccorso G. W. F. Hegel. Com’è noto, il filosofo tedesco sosteneva che la Storia abbia un’ossatura intrinsecamente razionale, l’Idea, e che un’entità chiamata Spirito, il vero motore, pian piano sussuma i casi, le storie (con la minuscola), sotto quel principio di razionalità di fondo.

Ora, prendiamo un enorme complesso di formule – surrogato dell’Idea – sotto forma di un reticolo di sequenze, ovvero un ipertesto (il web), e mandiamole in pasto ad un enorme modello di intelligenza artificiale ancora vergine – surrogato non cosciente dello Spirito – che magari ha proprio 175 miliardi di parametri. Quale la mano che, affondata nella cera e ritratta, lascia la sua impronta, così l’ipertesto durante l’allenamento imprime il suo negativo fotografico, dunque un reticolo di sequenze, dentro il modello. Quando quest’ultimo riceverà una sequenza di comandi – alias, le storie – come le recensioni di cui sopra, non andrà forse a riprendere, da qualche parte nell’architettura – il calco di cera – le modalità di organizzazione dei dati rintracciabili nell’ipertesto originale, sembrando intelligente ma di fatto solo recuperando certi pattern?

Fonte: Unsplash

Quando “parliamo” con Chat GPT e simili stiamo generalmente interagendo con programmi ormai in fase di inferenza, dove i parametri sono già fissati. Non ci può essere un vero e proprio apprendimento. Simone Natale, docente di storia e teoria dei media all’Università degli Studi di Torino, nell’omonimo volume del 2022 le ha chiamate «macchine ingannevoli». Non solo, forse, per i loro educati convenevoli. Chat GPT e simili sono modelli auto-supervisionati, dove l’esattezza delle predizioni, in fase di allenamento, non è data dalla loro corrispondenza ad una verità di fondo stabilita dai programmatori, bensì soltanto dalla capacità di ricostruire in uscita i dati di ingresso, che siano veritieri o meno.

Fonte: Midjourney

Quasi che la coerenza conti più della verità, che essere razionale basti ad essere reale. Qui l’imprevedibilità della soglia di emergenza, per ipotesi, potrebbe trovare una spiegazione proprio nell’inganno. Se il vero è l’intero, è solo quando l’ipertesto diventa sistematico, dunque supera una certa complessità, che il suo calco può figurare sensato. In un baluginare di aspetti, così, ai nostri occhi una stringa parrà una risposta, due un discorso, mille uno scrittore. D’altra parte, il trucco dei maghi di Oz è sempre lo stesso: regalare un paio di lenti del colore sbagliato.