Intelligenza Artificiale, prima riunione del Consiglio di Sicurezza dell’Onu

Guterres, ‘Necessità di regole globali’.

di Mariarita Cupersito

Si è svolta martedì 18 luglio la prima riunione del Consiglio di Sicurezza dell’Onu dedicata all’Intelligenza Artificiale con l’obiettivo di definirne le regole di utilizzo a livello mondiale; l’IA entra dunque a pieno titolo tra le potenziali minacce globali che le Nazioni Unite devono monitorare, al pari di terrorismo, conflitti bellici, cambiamenti climatici ed epidemie.
Il segretario generale Antonio Guterres ha dichiarato: “L’IA generativa ha un enorme potenziale per il bene e il male su larga scala. I suoi stessi creatori hanno avvertito che ci attendono rischi molto più grandi, potenzialmente catastrofici ed esistenziali. Senza un’azione che affronti questi rischi, siamo inadempienti rispetto alle nostre responsabilità verso le generazioni presenti e future”.
Il tutto nasce dalla pubblicazione di ChatGpt, che in pochi mesi ha raggiunto centinaia di milioni di persone. “Si stima che entro il 2030 le tecnologie basate sull’Ai genereranno tra i 10 e i 15 trilioni di dollari”, ha proseguito Guterres. “Nemmeno i suoi creatori sanno dove l’IA può arrivare. Quello che stiamo vedendo è solo l’inizio, e sappiamo che queste tecnologie possono incrementare il livello di disinformazione, creare deepfake, o manipolare messaggi, idee, parole dette dalle persone, aumentando i rischi di discriminazioni e minacce per le minoranze”.
Ciò che in particolare preoccupa le Nazioni Unite sono le possibili implicazioni dell’utilizzo in campo militare dell’IA. “L’uso delle armi basate su sistemi di intelligenza artificiale rappresenta un rischio per l’umanità, come l’atomica. Così come gli usi che organizzazioni terroristiche possono fare di queste tecnologie”.
Data l’urgente necessità di norme regolatrici, Guterres ha proposto una serie di disposizioni incentrate su tre principi: il rispetto delle leggi umanitarie, un accordo sull’utilizzo dell’IA in campo militare e, infine, regole mondiali per il controllo delle tecnologie basate sui dati per il controllo delle attività terroristiche.
Il mese scorso il segretario generale ha avallato la proposta di alcuni manager di aziende che lavorano a soluzioni di IA (tra cui anche Sam Altman, il fondatore di OpenAi che ha lanciato ChatGpt) per creare un organismo internazionale di controllo come l’Agenzia internazionale per l’energia atomica (Aiea). Rishi Sunak, primo ministro britannico, si è detto favorevole e ha manifestato l’intenzione di rendere la Gran Bretagna sede della regolamentazione globale in materia di sicurezza dell’IA. Consensi anche dalla Cina, che però punta l’attenzione sulla necessità che le regole siano impostate principalmente in chiave militare e antiterroristica.
Tra gli esperti convocati per l’occasione rileva quanto dichiarato da Jack Clark, cofondatore di Anthropic, il quale ha ammesso: “È vero che alcune Intelligenze artificiali fanno cose che nemmeno chi le ha progettate immaginava. Ed è anche vero che finora tutte le cose che hanno sorpreso sono in linea di massima positive. Ma non è sempre detto che sarà così”.
Il segretario generale ha esortato il Consiglio di sicurezza, responsabile della pace e della sicurezza internazionale, a “esercitare la leadership sull’IA” tracciando il percorso per l’adozione di misure comuni in tema di trasparenza, responsabilità e supervisione. “Dobbiamo lavorare insieme per un’intelligenza artificiale che colmi i divari sociali, digitali ed economici, non che ci allontani ulteriormente. Vi esorto a unire le forze e creare fiducia per la pace e la sicurezza”, ha concluso.