Il Parlamento europeo ha approvato il nuovo testo del primo regolamento al mondo che regola l’utilizzo dell’intelligenza artificiale ed è pronto ad avviare i negoziati con la Commissione per giungere all’approvazione definitiva della legge entro fine anno.
Il testo, che contiene delle modifiche rispetto alla proposta presentata dalla Commissione nel 2021, è stato approvato con 499 voti a favore, 28 contrari e 93 astensioni.
“La tecnologia evolve, l’innovazione ci permette di progredire e apre a nuove possibilità e come legislatori dobbiamo essere in grado di cogliere queste opportunità, dobbiamo capire che non possiamo permetterci di restare fermi per paura del futuro”, commenta Roberta Metsola, Presidente del Parlamento europeo.
“Avremo il bisogno di limiti e barriere chiare all’utilizzo dell’AI e se c’è una tema su cui non faremo alcun compromesso è quello che ogni volta che la tecnologia avanza deve andare di pari passo con la tutela dei diritti dei cittadini e dei nostri valori democratici”, aggiunge.
Il testo, ricordiamo, introduce un sistema basato sul rischio che l’applicazione pone rispetto ai diritti dei cittadini riconosciuti e tutelati dai trattati europei, con alcune pratiche (le più invasive per la privacy dei cittadini) vietate e altre regolamentate a seconda del livello di rischio associato.
Indice degli argomenti
Si amplia l’elenco delle applicazioni vietate
I sistemi di AI con un livello inaccettabile di rischio per la sicurezza delle persone saranno quindi vietati. Tra questi vi sono quelli utilizzati per il social scoring (in uso, ad esempio, in Cina), che consentono la classificazione delle persone in base al loro comportamento sociale o alle loro caratteristiche personali.
I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’AI, come:
- Sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico
- sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, sesso, razza, etnia, cittadinanza, religione, orientamento politico)
- sistemi di polizia predittiva (basati su profili, ubicazione o comportamenti criminali passati)
- sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni scolastiche
- lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy)
Le applicazioni classificate come “ad alto rischio”
Per quanto riguarda la classificazione delle applicazioni ad alto rischio, il regolamento approvato dal Pe includerà ora i sistemi di AI che pongono danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone.
I sistemi di AI utilizzati per influenzare gli elettori e l’esito delle elezioni e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti) sono stati aggiunti alla lista ad alto rischio.
Quest’ultimo punto è stato di particolare rilevanza in vista delle elezioni europee del giugno 2024 per cui alcuni Stati membri (Belgio, Germania, Austria, Grecia e Malta) hanno stabilito la possibilità di voto anche ai giovani di 16 e 17 anni.
Anche se il regolamento non entrerà in vigore in tempo per la data delle elezioni, la Presidente Metsola ha ricordato che, invece, il Digital Service Act dovrebbe entrare in vigore nel marzo del 2024 e che quindi fornirà già un buon livello di protezione contro fake news e algoritmi manipolativi.
Nuove regole per l’AI generativa e i modelli di fondazione
Confermata anche l’introduzione di nuove regole per l’AI generativa e i modelli di fondazione dell’AI, uno sviluppo nuovo e in rapida evoluzione nel campo dell’AI.
Nello specifico, i fornitori di modelli di fondazione dell’AI dovranno valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto) e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato dell’UE.
I sistemi di AI generativi basati su tali modelli, come ChatGPT, dovranno rispettare i requisiti di trasparenza, ad esempio rivelando che il contenuto è stato generato dall’AI e aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali, oltre ad assicurare garanzie contro la generazione di contenuti illegali.
Inoltre, dovrebbero inoltre essere resi disponibili al pubblico riepiloghi dettagliati dei dati protetti da copyright utilizzati per l’addestramento.
Sostenere l’innovazione e proteggere i diritti dei cittadini
Per stimolare l’innovazione dell’AI e sostenere le PMI, gli eurodeputati hanno aggiunto esenzioni per le attività di ricerca e per i componenti di AI forniti con licenze open-source.
La nuova legge promuove le cosiddette regulatory sandbox, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’AI prima della sua distribuzione.
Infine, il testo approvato intende rafforzare il diritto dei cittadini di presentare reclami sui sistemi di AI e di ricevere spiegazioni sulle decisioni basate su sistemi di AI ad alto rischio che hanno un impatto significativo sui loro diritti fondamentali.
Gli eurodeputati, infine hanno anche riformato il ruolo dell’Ufficio dell’UE per l’AI, che avrà il compito di monitorare l’attuazione del regolamento sull’AI.
“In questo lungo iter legislativo abbiamo voluto mettere dei punti fermi: prima di tutto siamo voluti arrivare a una definizione comune e un mandato chiaro per quanto riguarda la definizione degli standard, che saranno definiti secondo un approccio bottom-up, quindi ascoltando i pareri degli stakeholder coinvolti”, spiega Dragos Tudorache (Renew, Romania), uno dei relatori del testo.
“In secondo luogo, dobbiamo lavorare a livello mondiale per portare anche altri Paesi ad allinearsi a questo regolamento perché occorre guidare insieme l’evoluzione di questa tecnologia”, aggiunge.
Tudorache sottolinea anche la sfida della riqualificazione della forza lavoro europea, necessaria per costruire le competenze richieste per utilizzare nuove applicazioni di AI e per assicurare che lo sviluppo tecnologico abbia il supporto della popolazione.
Le sanzioni per le aziende non conformi
L’obiettivo del regolamento europeo sull’intelligenza artificiale è anche quello di stabilire una chiara responsabilità per quanto riguarda il rispetto delle leggi europee.
Occorre ricordare che questo regolamento agisce non solo sui sistemi Made in Europe, ma su tutti quei sistemi e applicazioni che vengono commercializzate all’interno del mercato europeo.
“Il nostro obiettivo era quello di chiarire che gli obblighi ricadono sui produttori e non sugli utilizzatori“, spiega Tudorache.
“Il regolamento prevede una serie di strumenti volti ad assicurare che le regole siano rispettate: in primo luogo si avvia un’investigazione ‘amichevole’ con l’azienda che ha prodotto il sistema. Se si dovesse riscontrare un’infrazione e l’azienda non ha intenzione di collaborare per conformarsi alle regole europee possiamo procedere con la rimozione del sistema dal nostro mercato o con una multa equivalente fino al 7% del suo fatturato“, aggiunge.
Verso l’approvazione del testo entro fine anno: i nodi ancora da sciogliere e la proposta per l’entrata in vigore anticipata
“Quando abbiamo iniziato a lavorare sul testo tanti ci dicevano che non era qualcosa di cui c’era bisogno. Ora invece tutti ci chiedono di fare presto e, personalmente, credo che almeno per quanto concerne l’AI generativa e i modelli di fondazione dovremmo valutare un’entrata in vigore anticipata“, commenta Brando Benifei, eurodeputato italiano del gruppo S&D e relatore del testo in Parlamento.
Proprio perché si avverte un senso di estrema urgenza, i negoziati con il Consiglio inizieranno già nella serata di oggi. I relatori sono fiduciosi che il testo potrà essere approvato già entro fine anno, ma restano alcuni nodi da sciogliere.
In occasione della discussione del testo del parlamento, prima del voto, alcuni deputati del Ppe (Partito popolare europeo) hanno presentato due emendamenti che miravano a consentire l’utilizzo di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico in caso di minori scomparsi o di indagini in corso relative a un attentato terroristico.
Gli emendamenti non sono passati e secondo il testo approvato dal Pe, l’utilizzo di queste immagini può avvenire solo a posteriori e previa autorizzazione da parte di un giudice, mentre invece la proposta iniziale della Commissione prevedeva deroghe al divieto di utilizzo di tali sistemi per questi due casi.
Questo potrebbe essere uno dei punti di scontro tra i negoziatori del Pe e quelli della Commissione.