Intelligenza artificiale e responsabilità: la AI Liability Directive della Commissione europea

di Mariarita Cupersito

L’intelligenza artificiale riveste un ruolo fondamentale nello sviluppo economico di molti Paesi e condiziona notevolmente le trasformazioni concernenti il mondo del lavoro, dell’IT e della vita quotidiana.
L’assenza di una compiuta governance in materia ha dato vita nel corso degli anni a lacune giuridiche e scenari inediti che hanno contribuito a rafforzare le molte perplessità ancora legate a questo settore, ragion per cui l’Unione Europea è da tempo in prima linea per garantire che i sistemi di IA utilizzati siano sicuri, etici, imparziali e controllabili. Il 21 aprile 2021 l’UE ha presentato l’Artificial Intelligence Act, o Legge sull’Intelligenza Artificiale, una proposta di regolamento che mira a dettare regole armonizzate sull’intelligenza artificiale per garantire ai cittadini europei che le nuove tecnologie siano sviluppate nel rispetto dei diritti fondamentali riconosciuti e tutelati. Al contempo, la creazione di una disciplina ad hoc si muove di pari passo con la necessità di adeguare al mutato scenario tecnologico la preesistente normativa.
La responsabilità civile si annovera senza dubbio tra i settori che maggiormente soffrono dell’anacronismo giuridico rispetto ai progressi registrati nel campo dell’impiego di IA: sebbene i sistemi di intelligenza artificiale non possano considerarsi autonomi centri di imputazione di situazioni giuridiche e obblighi risarcitori, permane infatti la necessità di disciplinare i casi in cui l’eventuale danno causato dall’impiego di tali tecnologie mediante procedure automatizzate potrebbe non essere in alcun modo riconducibile alla condotta umana.
Per adeguare la normativa in tema di responsabilità civile allo sviluppo tecnologico, la Commissione Europea ha adottato lo scorso 28 settembre una proposta di direttiva, denominata AI Liability Directive, che ha come obiettivo la risoluzione delle richiamate criticità, con particolare riguardo alla disciplina della responsabilità dell’intelligenza artificiale verso terzi.
La prima rilevante novità a garanzia dei cittadini introdotta dalla AI Liability Directive consiste in un alleggerimento dell’onere della prova: il danneggiato non dovrà dimostrare direttamente la causalità tra una colpa e il suo danno, ma sarà sufficiente dimostrare l’esistenza di una colpa e che sia probabile un nesso di causalità con le prestazioni dell’intelligenza artificiale.
La Commissione precisa che tali disposizioni non mirano a tutelare solo i potenziali danneggiati, ma anche le aziende che sviluppano sistemi di IA, in quanto non si verifica un’inversione dell’onere della prova (che finirebbe per dar vita ad una presunzione di colpevolezza a carico degli sviluppatori).
Un secondo elemento di novità introdotto dalla AI Liability Directive è costituito dalla possibilità per il danneggiato di ottenere informazioni e prove sulla sequenza di eventi culminati nel danno da lui sofferto, sequenza che spesso si compone di distinte fasi operative che coinvolgono diversi gestori e fornitori e di cui difficilmente il terzo potrebbe avere esatta conoscenza.
Con la AI Liability Directive il cittadino potrà chiedere a un giudice di ottenere e rendere note le informazioni della suddetta sequenza, così da appurare dove si sia verificato il problema e chi potrebbe risponderne.
La necessità di trasparenza nell’ambito dell’intelligenza artificiale ha spinto gli esperti del settore a sostenere la crescita della Explainable AI, un insieme di tecniche che permettono di rendere comprensibile ogni passaggio effettuato nell’impiego delle tecnologie. Sebbene tale prospettiva non sia guardata con favore dall’industria, poco propensa alla condivisione di informazioni, l’Explainable AI potrebbe favorire un maggiore impiego dell’intelligenza artificiale in settori in cui è ancora poco sfruttata.
Anche l’Italia punta sull’IA con un progetto legato al Piano Nazionale di Ripresa e Resilienza (Pnrr) e guidato dal Consiglio Nazionale delle Ricerche con il suo Istituto di informatica e telematica. Finanziato con più di 120 milioni di euro, il progetto mira a creare un’intelligenza artificiale che sia etica (tema particolarmente sentito in questi ultimi mesi, a seguito del massiccio utilizzo dell’IA nella guerra russa in Ucraina) e che possa essere sviluppata in settori in cui è ancora poco presente.