Responsabilità da intelligenza artificiale: arriva la proposta europea

di Laura Greco

22 ottobre 2022

In un’indagine realizzata nel 2020 sulla diffusione delle tecnologie basate sull’intelligenza artificiale (di seguito, per brevità, “IA”) tra le imprese europee, la responsabilità – o meglio, la mancanza di una regolamentazione in materia di responsabilità delle applicazioni di IA – è emersa quale uno dei tre ostacoli principali all’uso dell’IA da parte delle imprese europee.
Una tale lacuna, oltre a disincentivare l’adozione di sistemi di IA e a ostacolare il progresso tecnologico, contribuisce a un minor livello di accettazione sociale dell’IA e di fiducia nei prodotti e nei servizi basati sull’IA.
Oggi il legislatore europeo tenta di colmare questa lacuna con l’adozione della proposta di “Direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale” (AI Liability Directive).
La proposta si è resa necessaria tanto per ridurre l’incertezza giuridica dei portatori di interessi, quali i danneggiati, gli assicuratori o le persone potenzialmente tenute a rispondere del danno, quanto per prevenire la frammentazione derivante da adeguamenti specifici all’IA delle norme nazionali in materia di responsabilità civile. A tal riguardo ci si potrebbe domandare perché sia stato utilizzato lo strumento della direttiva, e non quello del regolamento che, come è noto, è direttamente applicabile negli ordinamenti nazionali e non richiede un atto di recepimento. Probabilmente il legislatore europeo ha dovuto contemperare l’esigenza di armonizzazione e di certezza del diritto con la necessità di accordare agli Stati membri un certo margine di flessibilità per consentire l’integrazione delle misure europee senza attriti nei rispettivi regimi nazionali di responsabilità.
La proposta si inserisce dunque all’interno un pacchetto normativo che, attraverso un approccio olistico, mira a regolare l’IA a tutto tondo. Accanto all’AI Act (la proposta di Regolamento sull’intelligenza artificiale) volta a stabilire requisiti per ridurre i rischi per la sicurezza e i diritti fondamentali, e alle proposte di regolamento in materia di sicurezza dei prodotti macchina e delle apparecchiature radio basati sull’IA, si colloca la presente proposta di Direttiva che contempla misure risarcitorie e rimedi a favore dei singoli che hanno subito danni causati dall’IA.
Tuttavia, come si legge al considerando n. 14, la proposta segue un approccio di armonizzazione minima, limitandosi ad armonizzare solo le norme in materia di responsabilità per colpa che disciplinano l’onere della prova a carico di coloro che chiedono il risarcimento del danno causato da sistemi di IA, e non anche gli aspetti generali della responsabilità civile disciplinati in modi diversi dalle norme nazionali in materia.
Obiettivo della proposta è infatti quello di sanare il divario risarcitorio che si realizza nei casi in cui il danno sia causato da un sistema di IA, da quelli in cui il danno derivi dal concorso di tecnologie diverse dall’IA. Nei primi casi, infatti, il danneggiato può trovarsi in condizioni di estrema difficoltà, se non di impossibilità, a soddisfare l’onere della prova per via dell’effetto c.d. black box, dato dalla complessità, dall’autonomia e dall’opacità caratteristiche dei sistemi di IA.
Per queste ragioni, la proposta introduce meccanismi fondati su presunzioni e implementa l’esercizio dei diritti di accesso del danneggiato agli elementi di prova.
In particolare, la proposta prevede che, anche prima della presentazione della domanda di risarcimento, il potenziale attore possa richiedere all’organo giurisdizionale di ordinare la divulgazione degli elementi di prova pertinenti, purché sussistano elementi sufficienti a suffragare la plausibilità di una domanda di risarcimento. Tale ordine dovrebbe essere indirizzato alle persone già soggette all’obbligo di documentare o registrare informazioni a norma dell’AI Act, in qualità di convenuti o di terzi in relazione alla domanda. Qualora il convenuto non si conformi a questo ordine dell’organo giurisdizionale, la proposta prevede una presunzione di non conformità agli obblighi di diligenza che tali elementi di prova erano intesi a dimostrare.
A determinate condizioni, poi, è introdotta anche una presunzione relativa di causalità, ossia una presunzione circa l’esistenza del nesso di causalità tra la colpa del convenuto e l’output prodotto da un sistema di IA o la mancata produzione di un output da parte di tale sistema, che a sua volta ha causato il danno.
Tuttavia, giova notare che, salvo la presunzione di causalità, i rimedi sopra descritti si applicano soltanto quando il danno sia presumibilmente provocato da un sistema di IA ad alto rischio, secondo la definizione dell’AI Act. Sembrerebbe dunque che le altre applicazioni di IA, non riconducibili a tale categoria, rimangano escluse dall’ambito di applicazione della proposta, lasciando in parte ancora aperto il dibattito sulla responsabilità da intelligenza artificiale.