Intelligenza Artificiale, raggiunto l’accordo di legge UE

Dopo 36 ore di rush finale, l’intesa europea per la prima legislazione al mondo sui sistemi di Intelligenza Artificiale.

Accordo storico fra parlamento europeo e governi nazionali, sulla prima legge al mondo sull’IA (Intelligenza Artificiale). Il regolamento AI Act è stato annunciato subito prima della conferenza stampa alla sera del 7 dicembre 2023 dal commissario europeo al mercato interno Thierry Breton (nella foto in alto, il primo a destra) e dall’eurodeputato Brando Benifei (nella foto in alto, il secondo da sinistra), relatore per conto del Parlamento europeo del provvedimento.

Dopo la lettera aperta della comunità scientifica italiana, la risposta delle istituzioni non si è fatta attendere, portando a compimento l’iter legislativo avviato due anni fa per la protezione dei diritti della democrazia e dello Stato di diritto, al tempo stesso conciliando innovazione e sostenibilità ambientale.

L’approccio europeo all’IA affidabile

Le nuove regole saranno applicate direttamente e allo stesso modo in tutti gli Stati membri, sulla base di una definizione di IA “a prova di futuro”, con un approccio basato sul rischio:

Rischio minimo. Le applicazioni dell’IA a rischio minimo, come i sistemi di raccomandazione o i filtri antispam, beneficeranno di un free-pass e dell’assenza di obblighi, poiché questi sistemi presentano un rischio minimo o nullo per i diritti e la sicurezza dei cittadini. Su base volontaria, le aziende possono comunque impegnarsi a rispettare codici di condotta aggiuntivi per questi sistemi di IA.

Ad alto rischio. I sistemi d’IA identificati come ad alto rischio dovranno soddisfare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, elevata qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, supervisione umana e un elevato livello di robustezza, accuratezza e sicurezza informatica. Tra gli esempi di sistemi di IA ad alto rischio, alcune infrastrutture critiche nei settori dell’acqua, del gas e dell’elettricità, dispositivi medici, sistemi d’accesso a istituzioni educative, amministrazione della giustizia, sistemi d’identificazione biometrica.

Rischio inaccettabile. Questi sistemi saranno vietati. Si tratta di sistemi o applicazioni di IA che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come i giocattoli che utilizzano l’assistenza vocale per incoraggiare il comportamento pericoloso dei minori o sistemi che consentono il “social scoring” da parte di governi o aziende, nonché alcune applicazioni di polizia predittiva. Inoltre saranno vietati alcuni usi dei sistemi biometrici, come i sistemi di riconoscimento delle emozioni sul posto di lavoro e di categorizzazione delle persone o identificazione biometrica remota in tempo reale (con alcune eccezioni).

Rischio specifico di trasparenza. Quando si utilizzano sistemi come i chatbot, gli utenti devono essere consapevoli che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’IA dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare i sistemi in modo che i contenuti sintetici audio, video, testo e immagini siano contrassegnati in un formato leggibile dalla macchina e possano essere individuati come generati o manipolati artificialmente.

Oltre a sanzioni e multe a chi non rispetta le regole, per i modelli molto potenti che potrebbero comportare rischi sistemici, saranno previsti ulteriori obblighi vincolanti relativi alla gestione dei rischi e al monitoraggio degli incidenti gravi, alla valutazione dei modelli e ai test avversari. Questi nuovi obblighi saranno resi operativi attraverso codici di condotta sviluppati dall’industria, la comunità scientifica, la società civile e da altre parti interessate insieme alla Commissione, che ha rilasciato in un comunicato il proprio parere.

I prossimi passi

L’accordo politico è ora soggetto all’approvazione formale del Parlamento europeo e del Consiglio ed entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta Ufficiale. La legge sull’IA diventerà quindi applicabile 2 anni dopo la sua entrata in vigore, ad eccezione di alcune disposizioni specifiche: I divieti si applicheranno già dopo 6 mesi, mentre le norme sull’IA per scopi generali si applicheranno dopo 12 mesi.

Per superare il periodo di transizione prima che il regolamento diventi generalmente applicabile, la Commissione lancerà un AI Pact. Il Patto sull’IA riunirà sviluppatori di IA europei e di tutto il mondo che si impegneranno su base volontaria ad attuare gli obblighi fondamentali della legge sull’IA prima delle scadenze legali.

Per promuovere regole sull’IA affidabile a livello internazionale, l’Unione Europea continuerà a lavorare in forum come il G7, l’OCSE, il Consiglio d’Europa, il G20 e le Nazioni Unite. Proprio di recente, l’UE ha sostenuto l’accordo al summit dei G7 dello scorso 19 maggio 2023 nel processo di Hiroshima sull’IA, i principi guida internazionali e su un Codice di Condotta volontario per i sistemi avanzati di IA.

foto © Unione Europea

calendar_month

a cura di Redazione