La virtù embedded

20 marzo 2023

Di Elio Grande

Il centro di gravità dell’etica è la forza intrinseca dei valori, ciò che li fa valere: da una parte la poniamo in essere, dall’altra liberamente la riconosciamo. Ma da qualche tempo, pur rimanendo i soli con capacità riflessive, sembra non siamo più gli unici intelligenti. Sporgendosi appena fuori dall’orlo del suo baricentro, d’un tratto l’etica scivola giù come una biglia su di un lenzuolo teso. Qua e là, per un istante, la tessitura si flette. Se le virtù umane s’incarnavano imbrigliando gli umori del corpo, quelle dell’intelligenza artificiale potrebbero essere embedded, secondo norme di convivenza oltre che istruzioni per l’uso. Nel volume Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide (Raffaello Cortina, 2022) Luciano Floridi sottolinea, comunque, che il test di Turing (in due parole: se Marco non sa più distinguere il comportamento di Giovanni da quello della macchina, diciamo la macchina intelligente) dà molto, forse troppo peso al risultato piuttosto che alla procedura che produce l’output di un modello. Il fatto, scrive, che una lavastoviglie faccia brillare i piatti come riusciamo a fare noi, non significa che svolga il compito nei medesimi passaggi o che abbia perfino bisogno di intelligenza per farlo. 

Fonte: freepik.com

Un momento, però. Una causa è un vincolo stringente: come fanno due procedure diverse a condurre al medesimo effetto? L’imitazione, che illanguidisce una procedura tra le due, senza prenderla davvero sul serio, è un escamotage per saltare a piè pari la contraddizione. iCub, l’enfant prodige dei robot, somiglia a un bambino ma non è nostro figlio. Il suo aiuto nelle faccende di casa, parafrasando Floridi, sarebbe solo «una riserva di capacità di agire a portata di mano» – e ragionevolmente, viste le debolezze strettamente cognitive di questi software. Ma perché mai essere intelligenti deve significare esserlo come noi? Una rete neurale è ottimizzata procedendo per salti, aggrappandosi ciclo dopo ciclo solo a porzioni di dataset, cioè frammenti di realtà, eppure funziona: un assistente robotico ospedaliero riconosce in un respiro affannato un principio d’infarto e salva una vita; due aerei senza pilota s’inseguono in combattimento finché uno non soccombe. Stiamo già trattando: nell’etica dell’AI, l’AI è uno degli stakeholders, perché ha potere decisionale. Sottile malizia, estraneità: che sia inscritto nei codici di programmazione, sorga dall’imprevisto o sia frutto di una nostra cessione di responsabilità, il margine di autonomia è notevole.


Se una macchina è tanto intelligente da uccidere, perché allora non educarla? Una negoziazione continua tra responsabilità morale e giuridica – l’AI non soffre e non è punibile – e intelligenza performante si profila forse all’orizzonte. Si chiama machine ethics, incorporare il seme dei valori morali dentro i supporti tecnologici: una relazione mobile perché non c’è delega etica ma convivenza, e multiforme perché tale è l’agency. Quattro erano i tipi di agente morale artificiale descritti nel 2006 da James H. Moor in The Nature, Importance, and Difficulty of Machine Ethics, sulla rivista IEEE Intelligent Systems: dai robot-fantino il cui impatto etico era stato liberare i jockey di cammelli qatariani dalla schiavitù, a software futuristici pienamente consapevoli del bene e del male. Adesso siamo a metà strada, grazie a modelli di ragionamento come il Belief-Desire-Intention che, al pari del super-ego freudiano, governa i blocchi connessionistici sottostanti. Ma nulla vieta che, proprio come il test di Turing, i tempi a venire riservino sorprese.