Ue. AiAct: rischi e divieti nel nuovo Regolamento per l’Intelligenza Artificiale

di Mariarita Cipersito

Il Parlamento europeo ha approvato l’Artificial Intelligence Act, la prima proposta di legge che mira ad introdurre un quadro normativo comune per i software di intelligenza artificiale all’interno dell’Unione europea così da vincolare le nuove tecnologie al rispetto delle leggi Ue e dei principi fondamentali.
Il parere positivo da Strasburgo ha registrato un’ampia maggioranza con 499 voti a favore, 28 contrari e 93 astenuti, e il testo non ha subìto modifiche rispetto alla proposta presentata nelle scorse settimane.
Sono quattro i livelli di rischio delle applicazioni identificati dalla Commissione: Rischio inaccettabile, per i sistemi che vìolano i valori europei e che non potranno essere utilizzati all’interno dell’Unione; rischio alto, per i sistemi che hanno effetti controversi sui diritti della persona e sulla sicurezza e per i quali l’Ue chiede la sussistenza di una serie di requisiti; rischio limitato, per i sistemi che non comportano particolari pericoli e per i quali viene richiesto solo un numero limitato di requisiti (es. trasparenza); rischio minimo, quando non sono previsti particolari obblighi legali;
L’Europarlamento respinge completamente l’impiego di tecnologie di riconoscimento biometrico in tempo reale nei luoghi pubblici, bocciando l’emendamento che proponeva alcune eccezioni a tale divieto per poter utilizzare telecamere a riconoscimento facciale nelle strade e ai confini dell’Unione per ragioni di sicurezza nazionale o in caso di minori scomparsi.
Tra le tecnologie incluse nelle ipotesi di rischio inaccettabile, dunque vietate, figurano i sistemi di social scoring (già impiegati in Cina), che valutano gli individui in base ai propri comportamenti, nonché gli strumenti di polizia predittiva (in uso negli Stati Uniti), che utilizzano i dati per definire anticipatamente la pericolosità di un individuo. Vietati anche i sistemi che individuano utenti considerati vulnerabili, come ad esempio i bambini, e la manipolazione subliminale che può portare a conseguenze dannose.
Tra le sanzioni previste dal Regolamento per chi non soddisfa i requisiti per i sistemi ad alto rischio o per chi diffonde applicazioni proibite figurano multe fino a 30 milioni di euro o pari al 6% di fatturato annuo dell’azienda responsabile, che per giganti come Google o Microsoft potrebbe tradursi in cifre miliardarie.
“Siamo stati la prima Camera al mondo a votare su un regolamento complessivo sull’Intelligenza artificiale”, ha dichiarato sui propri canali social il commissario Ue al Mercato interno, Thierry “Questo voto dimostra che possiamo conciliare fiducia e innovazione”.