Legge sull’intelligenza artificiale: le commissioni confermano l’accordo storico

  • Garanzie concordate sull’intelligenza artificiale per uso generale
  • Limitazione dell’uso dei sistemi di identificazione biometrica da parte delle forze dell’ordine
  • Divieti sul social scoring e sull’intelligenza artificiale utilizzati per manipolare o sfruttare le vulnerabilità degli utenti
  • Diritto dei consumatori di presentare reclami e ottenere spiegazioni significative

I deputati hanno approvato a livello di commissione l’accordo provvisorio sulla legge sull’intelligenza artificiale che garantisce la sicurezza e rispetta i diritti fondamentali.

Martedì, le commissioni per il mercato interno e le libertà civili hanno votato 71-8 (7 astensioni) per approvare il risultato dei negoziati con gli Stati membri sulla legge sull’intelligenza artificiale.

Il presente regolamento mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dall’IA ad alto rischio. Allo stesso tempo, mira a promuovere l’innovazione e a rendere l’Europa leader nel campo dell’IA. Le norme stabiliscono obblighi per l’IA in base ai suoi potenziali rischi e al suo livello di impatto.


Applicazioni vietate


L’accordo vieta alcune applicazioni di IA che minacciano i diritti dei cittadini, tra cui i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, lo scraping non mirato di immagini facciali da Internet o filmati CCTV per database di riconoscimento facciale, il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, il punteggio sociale, la polizia predittiva basata esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche e l’IA che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.


Esenzioni per le forze dell’ordine


L’uso di sistemi di identificazione biometrica (RBI) da parte delle forze dell’ordine è vietato in linea di principio, tranne che in situazioni elencate in modo esaustivo e definite in modo restrittivo. L’RBI “in tempo reale” può essere utilizzato solo in presenza di rigorose garanzie, ad esempio limitate nel tempo e nell’ambito geografico, previa autorizzazione giudiziaria o amministrativa. Tali usi comportano, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di tali sistemi a posteriori (“RBI post-remoto”), che è considerato ad alto rischio, richiede anche un’autorizzazione giudiziaria e deve essere collegato a un reato.


Obblighi per i sistemi ad alto rischio


Sono stati inoltre concordati obblighi chiari per altri sistemi di IA ad alto rischio, che potrebbero avere un impatto significativo sulla salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo Stato di diritto. Gli usi ad alto rischio comprendono quelli nelle infrastrutture critiche, nell’istruzione e nella formazione professionale, nell’occupazione, nei servizi essenziali (ad esempio l’assistenza sanitaria, le banche), in alcuni sistemi di contrasto, nella migrazione e nella gestione delle frontiere, nella giustizia e nei processi democratici (ad esempio per influenzare le elezioni). I cittadini avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni in merito alle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.


Requisiti di trasparenza


I sistemi di IA generici (GPAI) e i modelli su cui si basano devono soddisfare determinati requisiti di trasparenza e rispettare la legge dell’UE sul diritto d’autore durante la loro formazione. I modelli GPAI più potenti che potrebbero comportare rischi sistemici dovranno affrontare requisiti aggiuntivi, tra cui l’esecuzione della valutazione del modello, la valutazione del rischio e la segnalazione degli incidenti. Inoltre, i contenuti di immagini, audio o video artificiali o manipolati (“deepfake”) devono essere chiaramente etichettati come tali.


Misure a sostegno dell’innovazione e delle PMI


A livello nazionale saranno istituiti spazi di sperimentazione normativa e test nel mondo reale, che offriranno alle PMI e alle start-up l’opportunità di sviluppare e formare un’IA innovativa prima dell’immissione sul mercato.


Passaggi successivi


Il testo attende un’adozione formale in una delle prossime sessioni plenarie del Parlamento e l’approvazione finale del Consiglio. Sarà pienamente applicabile 24 mesi dopo l’entrata in vigore, ad eccezione dei divieti di pratiche vietate, che si applicheranno 6 mesi dopo l’entrata in vigore; codici di condotta (nove mesi dopo l’entrata in vigore); norme generali sull’IA, compresa la governance (12 mesi dopo l’entrata in vigore); e gli obblighi per i sistemi ad alto rischio (36 mesi).