Con la presentazione del regolamento europeo sull’Intelligenza Artificiale (AI), l’Unione Europea vuole rafforzare la sua posizione su un mercato dove non può ancora competere a livello tecnologico con Cina e Stati Uniti, ma in molti sono dubbiosi sul fatto che il regolamento riuscirà davvero a proteggere i diritti dei cittadini. Sono alcune delle considerazioni emerse durante il dibattito pubblico, promosso dalla Scuola Universitaria Superiore Sant’Anna di Pisa, proprio sul tema del regolamento europeo proposto dalla Commissione.
Evento che la scuola ha promosso per discutere dei possibili impatti che questo regolamento potrà avere sul mondo della ricerca e dell’innovazione imprenditoriale. Un tema strettamente connesso alla Terza Missione dell’Università – termine che si riferisce all’impegno delle università di promuovere non solo la formazione e la ricerca, ma anche attività volte a diffondere cultura, conoscenze e trasferire i risultati della ricerca al di fuori del contesto accademico – e all’impegno dell’Università nello studio e nello sviluppo delle tecnologie digitali.
L’Università Sant’Anna ha, infatti, fondato il Centro EURA (Centro Europeo di Eccellenza per la Regolamentazione della Robotica e dell’Intelligenza Artificiale), l’unico centro in Europa e tra i pochi al mondo a studiare la regolamentazione di queste tecnologie, che è stato riconosciuto come d’eccellenza della Commissione Europea.
Indice degli argomenti
Il regolamento europeo sull’AI, dall’etica al diritto
Uno dei temi principali affrontati nel corso del dibattito è proprio il carattere rivoluzionario dell’approccio utilizzato dalla Commissione Europea, che per la prima volta scegli di affrontare il dibattito sul rapporto tra uomo e Intelligenza Artificiale in un discorso giuridico.
Della necessità di un approccio antropocentrico all’adozione di queste tecnologie si discute da tempo e il regolamento europeo si muove proprio in questa direzione. Nel testo, infatti, si legge che “le regole che disciplinano l’AI in Europa devono essere centrate sull’essere umano, per garantire fiducia nel fatto che la tecnologia venga utilizzata in maniera sicura e coerente con il diritto, inclusi i diritti fondamentali”.
Anche l’OCSE aveva più volte sottolineato la necessità di un framework condiviso a livello globale, che garantisse il rispetto dei diritti fondamentali nell’applicazione delle tecnologie dell’AI.
Andrea Bertolini, Direttore e Coordinatore scientifico dell’EURA, accoglie con favore la scelta dello strumento normativo. “Sono contento che si sia fatto il passaggio dall’etica al diritto, per troppo tempo i policymaker hanno abusato del termine etica per non affrontare determinati argomenti”.
L’approccio basato sul rischio non convince
Tuttavia, secondo il Direttore dell’EURA, alla grande ambizione europea di posizionarsi come leader nella regolamentazione dell’Intelligenza Artificiale non sono seguite le decisioni giuste. A destare perplessità è l’approccio basato sul rischio scelto per la regolamentazione.
Ricordiamo che la proposta della Commissione prevede la suddivisione delle tecnologie e dei sistemi di AI in:
- Tecnologie con “rischio inaccettabile” che comprendono tutti i sistemi AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone. Rientrano in questa categoria sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che usano l’assistenza vocale incoraggiando comportamenti pericolosi dei minori) e sistemi che permettono il “punteggio sociale” da parte dei governi. Queste tecnologie saranno vietate;
- tecnologie con “rischio alto“, che comprendono ad esempio i sistemi AI di verifica dei documenti per il passaggio di frontiera, di affidabilità delle prove in sede giudiziaria e di identificazione biometrica a distanza. Questi sistemi dovranno aderire ad obblighi e standard rigorosi prima di venire immessi sul mercato;
- tecnologie a “rischio minimo“, come filtri anti-spam o videogiochi abilitati dall’Intelligenza Artificiale, che rimarranno esclusi dal regolamento.
Non tutti però sono convinti che questo approccio riuscirà veramente a garantire il rispetto dei diritti umani. Perplessità che sono state espresse anche dalle Fundamental Rights Agency, l’agenzia europea per la salvaguardia dei diritti umani, come spiega Federica Merenda, dell’Istituto Dirpolis (Istituto dell’Univesrità Sant’Anna che conduce ricerche innovative nei campi del diritto, dell’economia e delle scienze politiche).
“La scelta di un approccio basato sul rischio non era scontata e non è imparziale. Non è scontato che questo approccio sia basato sui diritti umani, anzi. Di per sé non lo è, perché accetta comunque una percentuale di rischio che gli Stati non rispettino i diritti umani”, commenta.
La scommessa europea sull’AI
Se, ovviamente, soltanto con il tempo si potrà dare qualche prima valutazione sull’efficacia del regolamento in questo ambito, bisogna anche tener conto che quella presentata dalla Commissione è una proposta di regolamento. Il testo, quindi, potrà subire modifiche nel corso dell’iter legislativo in Parlamento e in Consiglio.
L’intento però è chiaro: l’Unione Europea si vuole posizionare come attore di riferimento in questo settore, offrendo un’alternativa al modello Statunitense e a quello Cinese. Due approcci molto diversi: negli Stati Uniti, in assenza di una legislazione specifica, vengono applicate le regole a tutela dei consumatori, volte soprattutto a evitare pratiche ingannevoli e discriminatorie. I poteri in questo campo spettano, infatti, alla Federal Trade Commission (FTC), l’autorità garante dei diritti dei consumatori.
In Cina, contrariamente, gli algoritmi di Intelligenza Artificiale vengono utilizzati per assegnare ai cittadini un social scoring, un punteggio che in tutto e per tutto determina la loro vita: dall’accesso ad alcuni servizi (come la possibilità di richiedere un prestito bancario), alla possibilità o meno di ricevere un’offerta di lavoro, fino ad arrivare a limitazioni agli spostamenti (sotto a un determinato punteggio ai cittadini non è permesso di uscire dal Paese).
“Con questa proposta di regolamento, l’Unione Europea vuole contrastare lo strapotere degli Stati Uniti e della Cina. Non può farlo con le tecnologie, perché si trova in una posizione di arretratezza tecnologica rispetto ai due Paesi e quindi vuole di farlo attraverso la regolamentazione del mercato”, spiega Paolo Dario, Direttore dell’Istituto di BioRobotica della Scuola Superiore Sant’Anna.
Il regolamento, infatti, non è rivolto ai provider di queste tecnologie, ma agli utenti: questo fa sì che anche aziende straniere dovranno rispettare questi criteri se vogliono continuare a vendere i loro prodotti sul mercato europeo. Un mercato non certo di poco valore, considerando che conta circa 500 milioni di consumatori.
All’interno dell’iter che ha portato alla presentazione di questa proposta l’Italia ha avuto un ruolo troppo marginale, sostiene Dario, rispetto a Paesi come Francia e Paesi Bassi “L’Italia è una delle potenze fondatrici dell’Europa, dobbiamo giocare un ruolo di protagonisti. L’Uscita del Regno Unito dall’Ue ha lasciato un vuoto che possiamo e dobbiamo colmare, anche perché non abbiamo di certo bisogno di lezioni sulla nostra industria o sulle nostre competenze in diritto”, aggiunge.