CSAM Detection: la Apple in lotta contro la pedopornografia, tra fini nobili e sorveglianza di massa

06 settembre 2021

Di Andrea Venanzoni

Un acronimo in apparenza rassicurante sta incendiando il dibattito pubblico tra scienziati, ricercatori, politici ed esperti privacy.

Si tratta di CSAM Detection, sigla che sta per Child Sexual Abuse Material, l’ultimo progetto elaborato dalla Apple e che si basa su NeuralHash, un sistema algoritmico per scansionare e scannerizzare le immagini presenti negli iPhone e verificare se gli stessi contengono immagini di minori abusati.

Il sistema, in chiave tecnica, è assai raffinato e si basa sulle funzioni crittografiche hash, ovvero la costruzione di una mappa-codice a stringa binaria di dati: è una modalità univoca per ricostruire e identificare, attraverso l’hash appunto, la descrizione di una immagine, mediante l’accoppiamento tra la foto che si scansiona e un database.

Nel caso di specie, il dabatase di cui la Apple si servirà per verificare gli iPhone, per ora solo quelli venduti nel mercato americano, è quello del Centro nazionale dei minorenni scomparsi e abusati.

Consapevoli della delicatezza e delle controversie che l’operazione avrebbe potuto ingenerare, i piani alti della Apple hanno diffuso le specifiche tecniche di CSAM Detection, che sono in effetti consultabili in file pdf online. Inoltre hanno sottolineato come il progetto non colpirà né ridurrà la privacy degli utenti, posto che il sistema algoritmico non avrà, a quanto asserito, accesso ai metadati, né altri utenti avranno modo di visualizzare o accedere al magazzino dei dati accumulati da CSAM.

CSAM scansionerà le immagini prima che vengano immesse in iCloud, e nei casi più indefiniti e controversi, dopo la verifica algoritmica, la decisione verrà presa da un essere umano. Una volta accertato, in questo modo, l’essere in presenza di materiale pedopornografico, verranno avvertite le autorità.

Ma queste rassicurazioni, altrettanto comprensibilmente, non hanno placato le polemiche. E può apparire ironico, anche se sembra rientrare in una precisa strategia di mercato, come la critica più altisonante e feroce alla Apple arrivi da un altro gigante della tecnologia, spesso accusato di sorveglianza di massa: Facebook.

Il social di Menlo Park, parlando a nome dell’altra sua creatura, Whatsapp, ha diramato un durissimo comunicato in cui senza mezzi termini la Apple è accusata di nascondersi dietro il nobile obiettivo della lotta alla pedofilia e all’abuso sui minori al fine di spiare competitor commerciali e cittadini.

Dichiara Will Cathcart, di Whatsapp, ‘invece di rendere più facili le segnalazioni dei contenuti da parte degli utenti, Apple ha creato un software in grado di scansionare tutte le foto private sul telefono, anche quelle che non hai condiviso con nessuno. Questa non è privacy’.

A prescindere da quella che può apparire come concorrenza tra giganti hi-tech, i pericoli dell’operazione sono stati sottolineati con forza da esperti privacy, di crittografia e dalla comunità accademica. D’altronde la stessa Apple non è in grado di assicurare al cento per cento che la foto innocente di un bambino nudo intento a fare il bagnetto non sia scambiata e fraintesa per pedopornografica. Presumibilmente non dovrebbe accadere, si dice. Presumibilmente.

C’è un altro aspetto da tenere in considerazione, oltre quello della sorveglianza di massa. E lo sottolinea con vigore Matthew Green, professore al Johns Hopkins Information Security Institute nonché uno dei maggiori esperti di crittografia a livello mondiale: la possibilità che un esperto informatico buchi l’iPhone e ci posizioni dentro, strategicamente, una foto controversa per poi farla finire segnalata, producendo la disgrazia mediatica del possessore dell’iPhone. Una operazione non troppo complessa per un esperto informatico.

Una modalità che in una incandescente campagna elettorale potrebbe apparire come ideale per un candidato senza troppi scrupoli e desideroso di screditare il proprio antagonista.

Sempre Green torna poi sulla ipotesi della lotta alla dissidenza politica mediante il sistema NeuralHash: appare infatti evidente che la Apple potrebbe ricevere richieste commerciali da governi, come quello cinese, non troppo sensibili ai diritti umani. E in quel caso, probabilmente, la scansione delle immagini potrebbe non essere legata al contrasto alla pedofilia, ma al dissenso politico. Basti pensare a quanto avviene a Hong Kong.