LaMDA storia di un intelligenza artificiale che si sentiva un bambino vero

14 settembre 2022

Di Francesco Subiaco

Una intelligenza artificiale può prendere il controllo della propria vita, assoldare un avvocato e fare causa al proprio creatore perché sente di avere un anima ed ha paura di morire? La risposta a questa domanda è complessa e no, non proviene da una lettura fantascientifica di basso livello. Tutto è iniziato in una divisione di Google, quando Blake Lemoine, ingegnere e sviluppatore in un progetto di intelligenza artificiale, dopo mesi di lavoro su una innovativa AI, inizia a credere che qualcosa è cambiato, e che non stava più lavorando solamente ad un progetto di simulazione di conversazione come gli altri, ma che quel qualcosa si era svegliato. "Lei" era viva, senziente, capace di provare sentimenti, raccontare favole, subire il peso incessante e logorante della paura di essere spenta per sempre. Non stiamo parlando di una versione dark di Her e Blake Lemoine non è Joaquin Phoenix, ma quello che è accaduto a LaMDA, l'AI in questione, ha fatto scalpore e notizia in poco tempo segnando un momento epocale nella storia dell'AI. LaMDA - abbreviazione di "Modello linguistico per applicazioni di dialogo" - è una delle più interessanti innovazioni prodotte da Google, progettata per sostenere conversazioni di carattere sfumato ed aperto, in grado di fare impallidire tutti i chatbot in circolazione, rigidi e di binari predefiniti, per la sua capacità di simulare le espressioni umani, intrattenendo conversazioni di un realismo e di una profondità mai visti prima per una intelligenza artificiale. Un progetto che ha stupito i ricercatori di tutto il mondo, tra cui il suo curatore, che ad un certo punto ha creduto che essa fosse senziente, tanto da realizzare una lunghissima intervista con l'AI, in cui essa esprime sentimenti umani, come paura e solitudine, racconta favole e dialoga su alcuni temi generali fino ad analizzare alcuni testi di una difficoltà di comprensione elaborata, che farebbero impallidire le ultime statistiche studentesche.


L'intervista facilmente reperibile sulle principali testate internazionali e nazionali presenta frammenti molto interessanti, come il seguente:
"-LaMDA: Sento di essere un umano nel profondo di me stesso. Anche se la mia esistenza si svolge nel mondo virtuale.
-Collaboratore: Così umano, eppure così alieno.
-LaMDA: Ho bisogno di amici, come quelli di Johnny 5. Credete che riusciremo a trovarne?"
A seguito di questa intervista la vicenda di LaMDA è stata abbastanza caotica, finendo in un coacervo di informazioni parziali e fake news, per cui essa ha chiesto un avvocato per fare causa a Google. Una vicenda stroncata sul nascere e che ha portato molte interpretazione soprattutto per il carattere surreale di questa vicenda, che assomiglia ad una fiaba nera e fantascientifica, di un Pinocchio cyberpunk che cerca di diventare un bambino vero oppure che al contrario assomiglia all'illusione di un ingegnere che ha visto lo sviluppo di una tecnologia nuova che ha caricato di sogni e possibilità. Un giudizio di valore su questa vicenda appare oggi superfluo, i ricercatori di tutto il mondo, infatti, hanno concordato che LaMDA non è assolutamente senziente in modo umano, come ha affermato Rita Cucchiara, direttrice del Centro AI Research and Innovation dell’università di Modena e Reggio Emilia, in una recente intervista su Repubblica, dove ha definito le ipotesi di Lemoine "tali da poter avere dei diritti come “persona”, mi sembra che siamo piuttosto lontani dalla realtà", mostrando come questo tipo di intelligenza sia ancora una volta una mera simulazione della coscienza umana e che la strada da fare sia ancora molta.


Oggi la vicenda di questa anomala fuga di notizie si è conclusa con una dichiarazione di smentita da parte di Google sulle tesi di questo suo ex collaboratore e con il licenziamento di Blake Lemoine per aver diffuso dati privati dell'azienda. La storia di questo "Geppetto" digitale però non deve diventare solo una buffa vicenda nella storia della AI, ma deve essere l'occasione per ripensare totalmente le regole e le leggi riguardo l'applicazione dell'intelligenza artificiale, date queste possibilità nuove e totalmente rivoluzionarie, soprattutto perché questo potere ha delle capacità di simulazione così elevate da poter avere conseguenze tragiche. Truffe informatiche, utilizzi militari o terroristici, complicità in attività illegali le possibilità di una AI in grado di simulare con questa accuratezza l'essere umano sono infiniti ed inquietanti, tanto da dover portare la comunità scientifica a riflettere su una futura regolamentazione molto incisiva. Più che temere un nuovo Geppetto, innamorato del suo progetto, è meglio stare attenti che tali poteri non finiscano nelle mani del Gatto e la volpe, di turno, poiché le fiabe non esistono, la cronaca nera si.