C'era una volta la grande divisione tra scienze naturali e scienze dello Spirito (Geisteswissenschaften o moral sciences), tra l'"universo della precisione", cui siamo infine arrivati, e il "mondo del pressappoco", quello dal quale proveniamo: non solo superstizione, mito e religione, ma tutti quei saperi e quelle pratiche che non soddisfano i criteri di esattezza richiesti alle scienze vere. Ed esattezza significa ripetizione: stesse condizioni, stessi risultati – la base del metodo sperimentale, ma anche, di fatto, il principio fondamentale di ogni macchina, l'automatismo.
La grande divisione nasce qui: la scienza, quella vera, inizia a concepire se stessa a partire dalla macchina. Perché di macchine è piena la storia, anche quella antica (pensiamo ad Archimede), ma solo con la Modernità nasce il "macchinismo": la macchina come modello del sapere umano, come metro della civiltà.
Tutte le discipline vengono così sottoposte ad una sorta di calcolo costi-benefici, che è tarato sull'impiegabilità tecnica di risultati certificabili, esposti in un linguaggio chiaro e distinto, prossimo al rigore della matematica, lontanissimo dall'allusività della poesia e dagli imperativi dell'etica.
Anche la filosofia (o una gran parte di ciò che intendiamo con questo termine) rientra, o almeno fino a poco tempo fa rientrava, nel novero degli inesatti e quindi inutili. Edifici poggiati, chissà quando, su fondamenta incerte, che restano in piedi anche se non sappiamo bene come. Li davamo per spacciati, in attesa di demolizione, privati dei fondi necessari alla ricostruzione. E invece...
Ora che la macchina è in grado di parlare simulare la lingua che parliamo noi, il linguaggio di tutti i giorni, un linguaggio inesatto, approssimativo, intriso di storia e di etica, ora che abbiamo capito quanto ci piace (ChatGPT ha superato il milione di utenti a cinque giorni dal lancio e i cento milioni due mesi dopo), anche il mercato, da sempre avido di competenze, inizia a richiedere valori, erodendo la distinzione tra scienze naturali e scienze umane. L'etica e il diritto entrano nei corsi di ingegneria e l'informatica in quelli di filosofia. Il mercato chiama e le università rispondono. Vedremo se risponderanno anche i filosofi (e quali, e come).
Di certo: nonostante tutti i nomignoli che possiamo dare alla nostra creatura ("intelligente", "generativa") e alla sua evoluzione al suo sviluppo (machine learning, deep learning), l'IA non sa creare e non sa decidere. Non è libera, non sa imparare. Perchè imparare, per noi, significa anche e soprattutto libertà, libertà nell'apprendimento, libertà nell'interpretazione. Un salto oltre la mera ripetizione, un salto oltre il maestro, oltre il dato, oltre la tradizione di provenienza.
Benintesto: l'intelligenza umana non è, non solo e non sempre, puro genio, creatività e giudizio. È anche routine, fisiologia, coazione (da cum-agere): un grande Con che agisce nel mio agire.
Solo raramente siamo in grado di mettere in questione noi stessi e le nostre abitudini, ereditate o acquisite: la filosofia, in fondo, non è altro che questo. Solo raramente sappiamo davvero decidere e creare. E dopo duemila anni di filosofia (e quattrocento di metodo sperimentale), l'etica e l'arte restano, anche per noi che le pratichiamo, un mistero. Che si rinnova: ed è proprio questo il mistero, il rinnovamento.
La macchina può operare sterminate catene di deduzioni in pochi millisecondi. Ma si tratterà in ogni caso di automatismi: parte da un insieme di dati, di comandi, di prompt, mentre l'umano può oltrepassarli. Può astenersi dall'adempiere a un dovere, può rifiutarsi. Può interpretare una norma (etica o estetica) in un'esecuzione imprevista, un'improvvisazione, una variazione sul tema dello stesso comando, un "quasi adempimento". Condizioni simili, risultati diversi: il modo in cui, a volte, andiamo "fuori programma", non è misurabile in termini di esattezza e quindi non è insegnabile a una macchina. Un qualsiasi cavallo addestrato (che per questo chiamiamo "destriero") lascerà sempre campo libero all'arma che il cavaliere brandisce con la destra, correndo con la testa leggermente inclinata a sinistra, anche su tipi di terreno che non ha mai incontrato in addestramento.
La macchina fa molta più fatica, soprattutto in campo etico: non riconosce il principio della somiglianza, tra due norme etiche come tra due contenuti moralmente riprovevoli. Le devi dire (quasi) ogni volta: "questo no". E ovviamente occorre qualcuno che lo dica.
È un lavoro estenuante, data l'immensità della rete. Lo svolgono i nuovi filosofi? I nuovi prompt engineer? No: a svolgerlo ci sono decine di migliaia di data labeler, etichettatori di dati, come quelli assunti da Sama, una società di San Francisco che lavora per OpenAI, Microsoft, Meta, Google, ma che recluta in Kenya, Uganda e India. Lavoratori di certo sottopagati (da 1,3 a 2 dollari l'ora), talvolta persino rispetto allo stipendio medio dei paesi di provenienza. Turni massacranti di 9 ore piene di contenuti osceni e violenti da etichettare. Un lavoro da automi, che gli automi non sanno fare, ma di cui hanno bisogno. Ce lo ha rivelato un'inchiesta del Time già nel gennaio 2023: solo così ChatGPT è riuscita a conquistare il mercato. Con la versione precedente, pronta nel 2020, si poteva tranquillamente conversare di stupri e omicidi.
Ma in fondo siamo tutte e tutti data labeler. Pensate all'acronimo CAPTCHA: Completely Automated Public Turing test to tell Computers and Humans Apart. La macchina verifica che l'utente sia umano, e intanto ne annota le risposte. A miliardi.
Insomma, il salto dell'interpretazione è ancora soltanto umano. La macchina è un mezzo formidabile ma solo rispetto ad un fine prefissato. Può rivelarsi velocissima ad eseguire ordini, ma non sa darsi i comandi da sola. Non sa darsi uno scopo. Come uno schiavo, direbbe Aristotele: se "le spole e i plettri tessessero e suonassero da sé, né gli architetti dovrebbero far ricorso ai muratori, né i padroni agli schiavi".
Per Aristotele lo schiavo è una macchina, uno "strumento animato". Nell'epoca della cancel culture, tanto basterebbe per bandirlo dai programmi scolastici. E di fatto un qualche bando c'è stato. Quanti fondi abbiamo destinato, ultimamente, a chi lo studia? Senonchè Aristotele non si studia per riattualizzare la sua giustificazione della schiavitù. Il passato si studia per interrogare il presente e costruire il futuro. Ad esempio, per chiederci: ora che le spole sembrano in grado di tessere da sole, e i plettri di suonare da sé, abbiamo davvero smesso di dividerci in padroni e schiavi? E "noi" chi? Chi è oggi il servo, chi il padrone?
Tutte e tutti serviamo all'IA, perché abbiamo quello che non ha: la possibilità di oltrepassare l'automatismo, e soprattutto la responsabilità che ne deriva. Ma questi sono doni che possiamo anche perdere. Nonostante la sua vertiginosa ascesa, la macchina non ci raggiungerà mai. Però noi possiamo raggiungere lei. Possiamo perdere l'istinto della creatività, possiamo de-responsabilizzarci. Forse siamo già a buon punto. A prescindere dalle nuove richieste del mercato, la pedagogia di domani dovrà preservare l'esercizio dell'umanità, una scienza inesatta, come la filosofia: non serve a niente, però, per questo, è libera dalla servitù.