Intelligenze artificiali o Xenophobic Machines?

di Siria Carrara

15 settembre 2023

Ancora una volta un fatto di cronaca evidenzia le problematicità dell’uso incontrollato delle tecnologie.
Il governo olandese si è servito, nel campo dei sussidi per l'assistenza all’infanzia (2021), di sistemi di intelligenza artificiale.
Tuttavia, il processo decisionale algoritmico utilizzato per determinare se le richieste di assistenza all'infanzia fossero errate o potenzialmente fraudolente, nascondeva in sé sistemi di proliferazione razziale. In tal senso si pensi che veniva contrassegnato come un fattore di rischio il fatto che il richiedente non avesse la cittadinanza olandese.
Ciò ha prodotto, oltre ad una forte discriminazione, la richiesta di restituzione delle somme ottenute verso decine di migliaia di genitori provenienti per lo più da famiglie a basso reddito, falsamente accusati di frode dalle autorità fiscali olandesi, colpendo in modo sproporzionato persone provenienti da minoranze etniche.  
A fronte di tale episodio, numerosi organismi internazionali, tra cui Amnesty International – di cui si troverà l’articolo qui sotto- ha richiesto ai governi di prevenire la violazione dei diritti umani in relazione all’uso di sistemi decisionali algoritmici, stabilendo un meccanismo di monitoraggio e supervisione in tal senso, e una maggiore responsabilizzazione dei dipendenti pubblici chiamati a prendere questo tipo di decisioni.