“Come fanno le macchine a prevedere per noi?”

27 ottobre 2021
L’ultima uscita di Massimo Chiriatti indaga sull’incoscienza artificiale

Di Claudia Fiasca

Rileggerete le prime pagine dell’introduzione una seconda volta per lo stupore provocato da un “escamotage” dell’autore. Un bluff per indurre il lettore a essere maggiormente consapevole sul tema oggetto dell’ultima pubblicazione di Massimo Chiriatti, tecnologo ed esperto di innovazione e futuro del lavoro, “Incoscienza artificiale. Come fanno le macchine a prevedere per noi”, edito per LUISS University Press. Il testo è accompagnato da una prefazione di Luciano Floridi e da una postfazione di Vincenzo Paglia.

Chiriatti illustra i punti salienti di un confronto serrato tra le due reti neurali: quella umana, nel suo articolato e complesso sistema di funzionamento, che coinvolge a partire dal sistema neurologico anche la sfera emotiva e comportamentale (in costante work in progress), e quello della macchina “un sofisticato calcolatore di simboli”, cui l’uomo ha già affidato alcune decisioni. Sappiamo già, difatti, che le dinamiche sociali, economiche, politiche e giuridiche in cui è implicata l’Intelligenza Artificiale saranno sempre più complesse e delicate.

Quella che stiamo vivendo è una sfida e, allo stesso tempo, un rischio. Un dilemma tra bios e tèchne che coinvolge in modo crescente le vite umane vincolate alla tecnologia dell’iper-connessione, dei big data, sollecitate costantemente dalla richiesta di dover stare al passo con la velocità di apprendimento, di elaborazione, di processo. È chiara la posizione dell’autore: “…un paradosso: chiediamo a un computer di prevedere il nostro futuro, o meglio la probabilità di verificarsi, senza l’intenzione di farci sottomettere. La predizione della macchina non dovrebbe mai essere una sentenza.”


Partendo dunque dall’origine dell’IA - un’ambizione che definisce “ancestrale per l’eterno desiderio di creare qualcosa a partire da noi stessi” - Chiriatti ripercorre le tappe di questa frenetica evoluzione analizzandone la terminologia (“ci manca un vocabolario neutrale con cui descrivere i fenomeni artificiali”, vi siete mai chiesti perché si parli di machine learning se, per noi umani, l’apprendimento è un concetto connesso alla capacità astrattiva legata a un sistema culturale e basato anche sull’esperienza?) e riflettendo sul problema etico e filosofico che l’uso dell’IA sta sollevando.

Sul tema l’autore lascia emergere una contraddizione di fondo notando come, nonostante si parli di “Umanesimo Digitale” nella nostra epoca, mentre si stia sempre più delegando alle macchine la capacità di prendere decisioni sulla base di previsioni elaborate a partire da algoritmi. Ci si affida alla tecnologia mancante di una “consapevolezza soggettiva” senza considerare che: “...il pensare, come lo intendiamo noi umani, richiede un contenuto semantico, mentre il calcolo ha soltanto una sintassi, cioè dei processi formali e simbolici, ed è insufficiente per realizzare intenzionalità, sentimenti, emozioni, dolore, e così via.”

“Chiarire noi a noi stessi” è allora il monito dell’autore per evitare che i dati di cui l’IA si nutre diventino i padroni. Impedire ciò è possibile solamente avviando un processo che implica affrontare una grande sfida culturale pluripartecipata (tra i soggetti coinvolti) al fine di democratizzare l’it. Governance, accessibilità, sicurezza e trasparenza sono alcuni dei principi cui attenersi per garantire un progresso che sia in armonia con le esigenze dell’individuo e della collettività. Un passo da compiere - necessario e doveroso - per rimettere al centro l’uomo con il suo sentire, i suoi intuiti e la sua coscienza “essenza stessa della nostra esistenza”.



Nel fluire dell’analisi sullo scenario attuale, l’autore ammonisce e invita ragionevolmente, senza usare toni allarmanti, a una maggiore consapevolezza: “la macchina non ha senso di responsabilità e non possiamo delegare la nostra fiducia a un’entità che non è in grado di comprendere quello che comporta ogni sua azione di cui non può essere responsabile.”

Se dunque il processo in cui siamo immersi è quello caratterizzato da una “perdita di conoscenza e di autonomia” che sta invertendo il rapporto gerarchico tra noi e le macchine, ribaltando così i nostri processi decisionali, Chiriatti fornisce sul finale alcune proposte che vedono coinvolti i politici, le aziende, gli accademici, gli sviluppatori dell’IA e i singoli cittadini.

Formazione, investimenti e cooperazione intellettuale rimangono gli strumenti da utilizzare affinché eticamente sia garantito l’uso di una tecnologia al servizio dell’uomo, a partire da un’adeguata alfabetizzazione del codice informatico e una maggiore accessibilità alla lettura e scrittura del coding.

Davanti a un’IA che sarà sempre più abile e convincente nel giustificare le sue decisioni e le conseguenti azioni, all’umanità restano “Ethos, logos e pathos”, le tre armi della retorica aristotelica, per tornare a essere protagonista di questo nuovo “Illuminismo moderno”.