Dai soldati armati alle armi senza soldati

28 luglio 2021

Di Lorenzo Giardinetti

Le IA sono programmate dagli umani e risentono dei potenziali pregiudizi, anche latenti, presenti nella nostra società

Dai soldati armati alle armi senza soldati. Un recente report dell'Organizzazione delle Nazioni Unite rende noto che le forze legata ad Al Serraj, durante la guerra civile libica abbiano usato macchinari bellici completamente autonomi contro le milizie del generale Haftar.

Si tratta dei droni Kargu-2, forniti dalla Turchia e capaci di compiere operazioni di target killing (uccisioni mirate) senza alcun controllo umano, sfruttando alcuni algoritmi per il riconoscimento facciale. Una nuova frontiera, proprio inquietante, nel campo dei droni.

Ci si destina a una progressiva de-personalizzazione dei conflitti. Il costo irrisorio di questi e la possibilità di risparmiare truppe direttamente sul campo, uniti ai nuovi avanzamenti tecnologici come il dispiegamento in sciame (drone swarm) ed a un aumento, come nel caso del Kargu, dell'automazione, ne fanno come il più concreto esempio di ciò che la guerra può rapidamente diventare.

La sfida per l'egemonia globale oggi si combatte anche sul campo dello sviluppo di nuovi robot letali: gli USA hanno completato un programma di produzione a basso costo di droni (programma LOCUST), producendo uno sciame di 30 unità al costo di un singolo missile basilistico ed espandendo anche al settore marittimo la sperimentazione di armi automatizzate.

Dall'altra parte la Repubblica Popolare Cinese da tempo investe nei velivoli autonomi, già impiegati a scopo coreografico nelle celebrazioni di stato, e recentemente sono stati diffusi video di sciami di droni cinesi in grado di individuare i bersagli o cambiare la propria formazione in volo grazie a sistemi di Intelligenza Artificiale.

Il proliferare di tali tecnologie in ambito bellico, nonché la possibilità, dati i costi contenuti, di accedervi anche da parte di paesi minori o addirittura di formazioni terroristiche, ha creato un allarme condiviso da numerose istituzioni, organizzazioni e scienziati.

La campagna più strutturata è “Campaign to Stop Killer Robots”, una lega di diverse organizzazioni ed individui che vanta l'appoggio di più di 4500 accademici, 30 paesi e di importanti istituzioni intergovernative (fra cui il Parlamento Europeo), con l'obiettivo di stimolare il dibattito pubblico attorno alla necessità di un nuovo trattato internazionale che porti al bando delle armi totalmente automatizzate ed a un impegno nel riportare l'uso della forza sotto il controllo degli esseri umani.

Una risposta quindi che viaggi anche verso un impegno legislativo e tecnologico: le implicazioni negative derivanti dai robot killer, infatti, non abbracciano solamente la sfera dell'etica, ma interessano anche questioni di ordine giuridico e sociale.


Le armi automatizzate non sarebbero infatti in grado di rispondere a determinate norme derivate dalle leggi che regolano i conflitti, come per esempio la proporzionalità dell'attacco o il distinguo fra civili e militari. Inoltre, nel caso di violazione delle convenzioni di guerra o di errori di natura tecnica -con una ricaduta però su delle vite umane in questo caso- sarebbe difficile, secondo la campagna per fermare i robot killer, individuare l'imputato di tali inconvenienti: il programmatore? Il produttore? Chi ha condotto o pianificato l'azione militare? Oppure la macchina stessa?

Gli scenari di incomprensione normativa che si aprirebbero sarebbero enormi e rischierebbero di andare ad incidere anche sulla tutela dei diritti umani.

La salvaguardia di quest'ultimi infatti, in caso di occupazione militare, ricade sul soggetto occupante, ma nel caso di un'offensiva totalmente automatizzata risulta ancora oggi difficile capire se sussista effettivamente uno stato di occupazione.

Tali armi automatizzate e l'applicazione di Intelligenze Artificiali ed algoritmi potrebbero essere, inoltre, presto non solo utilizzati in contesti bellici, ma interessare anche la nostra quotidianità, trovando spazio nella pubblica sicurezza.

Anche in questo caso gli scenari di ambiguità fatali sarebbero innumerevoli.

Numerosi studiosi hanno infatti spesso sollevato il problema della disparità razziale nei database che alimentano le IA. Esse sono infatti comunque programmate dagli umani e risentono quindi dei potenziali pregiudizi, anche latenti, presenti nella nostra società.

Un esempio scollegato dai contesti bellici e di sicurezza, ma in grado di offrire la cifra di quest'ultima affermazione è riportato dal professor Pasquale nel libro “Le Nuove Leggi della Robotica”: alcuni studi hanno dimostrato come algoritmi e software di riconoscimento di malattie della pelle, utilizzati in ambito medico, abbiano una minore capacità di efficienza verso i pazienti di colore.

Questo perché semplicemente programmati con un pacchetto di dati che vede in gran parte modelli ricavati da individui bianchi. Un bias ingenuo, spesso legato a una semplice percezione del programmatore rispetto alla propria realtà personale, ma che potrebbe portare a grandi equivoci da parte delle macchine. Pensare che problemi di tale sorta possano realizzarsi in contesti di sicurezza pubblica o, peggio, di conflitto aperto è assolutamente preoccupante.

La necessità di portare al centro del dibattito l'utilizzo di armi completamente automatizzate è oggi quindi assoluta ed ancora nei giusti tempi per prevenire, piuttosto che curare.

Una citazione attribuita al celebre scienziato Albert Einstein recita: “Non ho idea di quali armi serviranno per combattere la terza Guerra Mondiale, ma la quarta sarà combattuta coi bastoni o con le pietre”.

Un'affermazione provocatoria, tesa a mettere in guardia l'umanità sulle conseguenze della sempre maggiore ricerca di efficienza e letalità degli armamenti.

Probabilmente al tempo neanche una fra le più grandi menti scientifiche della Storia poteva immaginare che saremmo arrivati ad un punto in cui sarebbero state le armi stesse a combattere da sole. 

Disgraziatamente per le nostre coscienze anche la Guerra, ciò che fin da piccoli ci insegnano ad odiare, è parte della nostra natura ed è terribilmente umana. Delegare ciò a delle macchine, come delegare loro creatività ed emozioni, questa sì è una distopia.