Ue. Linee guida per l’uso dell’intelligenza artificiale in campo militare e civile

di Maurizio Molinari * –

Il Parlamento europeo afferma che l’intelligenza artificiale deve essere soggetta al controllo umano, in modo da essere corretta o disabilitata in caso di comportamenti imprevisti.
Nella risoluzione approvata oggi si chiede un quadro giuridico comunitario sull’IA con definizioni e principi etici, che coprano anche il suo impiego in campo militare. I deputati chiedono, inoltre, all’UE e agli Stati membri di garantire che l’IA e le tecnologie ad essa correlate siano incentrate sull’uomo (ovvero destinate al servizio dell’umanità e del bene comune).
Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensioni.
Gli eurodeputati sottolineano che la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività UE nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo.
L’uso di sistemi d’arma autonomi e letali (LAWS, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati ribadiscono la richiesta di una strategia UE che li proibisca e la messa al bando dei cosiddetti “robot assassini”. La decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.
L’Unione deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l’uso militare dell’IA, a fianco dell’ONU e della comunità internazionale.
L’aumento dell’uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’IA e dovrebbero avere la possibilità di fare ricorso.
Quando l’IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. Nel settore della giustizia, invece, l’uso delle tecnologie dell’IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo.
Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il PE chiede che alle autorità pubbliche sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale” (per il monitoraggio e la valutazione dei cittadini). I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di “destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali”. I creatori dovrebbero essere obbligati ad etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.
Il relatore Gilles Lebreton (ID, FR) ha affermato: “Di fronte alle molteplici sfide poste dallo sviluppo dell’IA, abbiamo bisogno di risposte legali. Per preparare la proposta legislativa della Commissione sul tema, questa relazione mira a mettere in atto un quadro che ricordi essenzialmente che in qualsiasi ambito, e specialmente in campo militare e nei settori gestiti dallo Stato come la giustizia e la salute, l’IA deve sempre rimanere uno strumento utilizzato solo per assistere il processo decisionale o per aiutare ad agire. Non deve mai sostituire o sollevare gli esseri umani dalla loro responsabilità”.

* Responsabile Media del Parlamento europeo.