La Bce “promuove” il regolamento europeo sull’Intelligenza Artificiale, ma avverte: “Occorre fare chiarezza su governance e vigilanza”

Su richiesta del Consiglio, la Banca Centrale Europea si è espressa in merito al regolamento europeo sull’Intelligenza Artificiale, che introduce standard comuni relativi ai sistemi di AI che possono essere utilizzati e commercializzati all’interno dell’Unione. La Bce ha fornito un giudizio generale positivo, pur specificando che deve essere fatta chiarezza su alcuni punti, tra cui quali siano le autorità che dovranno vigilare l’applicazione del regolamento e le competenze della Bce in materia.

Pubblicato il 30 Dic 2021

bce sede


Dalla Banca Centrale Europea (Bce) arriva un giudizio complessivamente favorevole sul regolamento europeo sull’Intelligenza Artificiale (AI) presentato dal Consiglio e dal Parlamento europeo, che introduce standard comuni relativi ai sistemi di AI che possono essere utilizzati e commercializzati all’interno dell’Unione.

Un regolamento con cui l’UE vuole assumere un ruolo di primo piano sullo scenario mondiale in ambito di AI, puntando appunto sulla regolamentazione di questi sistemi, anche per arginare la dominanza tecnologica di altri Paesi, come Cina e Stati Uniti

Lo stesso Consiglio aveva richiesto il parere della Bce sul regolamento, presentato lo scorso 21 aprile, in virtù dei compiti di sorveglianza che i trattati europei affidano alla Banca Centrale, in particolare per quanto riguarda i compiti della relativi alla vigilanza prudenziale degli enti creditizi.

Dal documento, firmato dalla Presidente Christine Lagarde, emerge dunque un quadro generale favorevole, anche se vengono sottolineati alcuni punti da chiarire.

Questi riguardano, soprattutto, il ruolo di vigilanza della Bce che ha il compito di garantire la sicurezza e la solidità degli istituti di credito, mantenendo un elevato standard di vigilanza prudenziale, a prescindere dall’applicazione di qualsiasi particolare tecnologia.

Tra le raccomandazioni inserite nel parere, vi è quella di istituire un’autorità europea indipendente sull’Intelligenza Artificiale responsabile dell’applicazione armonizzata del regolamento proposto in tutto il mercato unico per le questioni di salute, sicurezza e diritti fondamentali dei cittadini. 

La necessità di un’autorità europea indipendente

Proprio su questo punto si concentra la prima parte del documento, in cui la Banca Centrale riconosce le numerose potenzialità derivanti dall’applicazione dell’AI nel settore bancario.

Anche in virtù di questo, e al fine di tutelare il mercato unico e i suoi cittadini, la Banca Centrale invita i legislatori europei a considerare l’istituzione di un’autorità europea indipendente “responsabile dell’applicazione armonizzata del regolamento proposto in tutto il mercato unico per quanto riguarda le questioni specifiche di salute, sicurezza e diritti fondamentali”.

Positivo il giudizio complessivo sul documento presentato lo scorso 21 aprile, soprattutto poiché va ad integrare (e non a sovrapporsi) la disciplina già esistente, ossia la direttiva del Pe e del Consiglio del 26 giugno 2013 sull’accesso all’attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento.

Tuttavia, per quanto riguarda l’utilizzo da parte di enti creditizi dei sistemi di AI giudicati “ad alto rischio”, la Bce invita il Consiglio e il Pe ad adottare “ulteriori orientamenti per chiarire le aspettative delle autorità di vigilanza riguardo agli obblighi in materia di governance interna”, vista la complessità e la novità di questi sistemi.

Altra indicazione data nel documento riguarda i criteri dell’utilizzo di questi sistemi nell’ambito dei contratti di esternalizzazione. “L’applicazione del regolamento non dovrebbe sostituire i criteri settoriali già stabiliti dall’Autorità bancaria europea (EBA) per quanto riguarda i contratti di esternalizzazione, compresa l’identificazione, la valutazione e la mitigazione di tutti i rischi associati”, si legge nel parere della Bce.

Infatti, mentre il regolamento sull’AI presenta una distinzione di obblighi per produttori e utilizzatori di sistemi di AI, gli standard stabiliti dall’EBA in questo ambito sono più stringenti. Per questo, la Bce invita i legislatori europei a fornire ulteriori chiarimenti in questo ambito.

I punti ancora da chiarire: il ruolo della Bce in tema di vigilanza del mercato

Chiarimenti dovranno essere forniti anche per quanto riguarda il ruolo della Banca Centrale Europea, dal momento che dall’analisi svolta dalla Bce emerge una contraddizione tra la legislazione europea vigente e quanto proposto dal regolamento e tra parti del regolamento stesso.

In particolare, la Bce chiede chiarimenti per quanto riguarda le sue competenze di vigilanza prudenziale in generale e in relazione la sorveglianza del mercato e alla valutazione della conformità rispetto al regolamento, nonché chiarimenti in merito all’impatto dell’applicazione del regolamento proposto sullo svolgimento dei compiti affidati alla Bce dai trattati.

Nel regolamento proposto, infatti, il compito di vigilanza è declinato a livello nazionale: spetta agli Stati membri, infatti, decidere quale autorità nazionale si farà carico della vigilanza in merito al rispetto del regolamento. Il teso presentato, quindi, esclude la Bce da questo compito.

Tuttavia, al tempo stesso il regolamento stabilisce che “per i sistemi di Intelligenza Artificiale immessi sul mercato, messi in servizio o utilizzati da istituti finanziari regolamentati dalla legislazione dell’Unione sui servizi finanziari, l’autorità di vigilanza del mercato ai fini della proposta di regolamento è l’autorità competente responsabile della vigilanza finanziaria di tali istituti secondo la legislazione europea”. Una definizione che, quindi, include anche la Bce.

Su tale base, la Bce suggerisce che, per essere coerente con le competenze di vigilanza prudenziale della Bce stabilite dal Trattato sul Funzionamento dell’Unione Europea (TFUE) e dal regolamento SSM – che stabilisce meccanismi di coordinamento e per lo scambio di informazioni tra la Bce e le autorità nazionali di vigilanza – “il testo del regolamento proposto dovrebbe chiarire senza ambiguità che la Bce non è designata come autorità di vigilanza del mercato né le sono affidati compiti di vigilanza del mercato”.

Altro nodo da sciogliere è quello relativo ai criteri di valutazione di questi sistemi di AI nel determinare il punteggio di credito degli utenti degli istituti creditizi. In questo ambito, sottolinea il documento, devono essere fornite indicazioni più chiare affinché venga accertata la correttezza delle informazioni, sia in merito a come vengono raccolte che per assicurare che non siano discriminanti verso gli utenti.

Inoltre, sempre per quanto riguarda la vigilanza in questo ambito, oltre ai criteri relativi al controllo interno ex ante, la Bce insiste sulla necessità di una valutazione a posteriori, sempre nell’ottica della tutela degli utenti e per assicurare che i sistemi utilizzati non siano discriminatori.

Infine, le modifiche suggerite al testo sono rivolte a tutelare l’indipendenza della Bce e delle banche nazionali nell’utilizzo dei sistemi di AI per lo svolgimento dei propri compiti, “ad esempio quando utilizzano qualsiasi applicazione di Intelligenza Artificiale per definire e attuare la politica monetaria e per promuovere il regolare funzionamento dei sistemi di pagamento”.

Il parere sulla classificazione dei sistemi di AI

Altro passaggio chiave del documento riguarda la classificazione dei sistemi di AI che, ricordiamo, il regolamento europeo sull’AI definisce in base al rischio che i sistemi stessi e le loro applicazioni pongono alla salute, alla sicurezza o a altri diritti fondamentali di cui godono i cittadini dell’Unione, stabilendo oneri normativi molto elevati per tutte quelle applicazioni giudicate “ad alto rischio”.

In base ai criteri indicati dal regolamento, un software che è sviluppato per generare output come contenuti, previsioni, raccomandazioni o decisioni, utilizzando approcci statistici e di apprendimento automatico, così come metodi di ricerca e di ottimizzazione, costituisce un sistema AI.

Una classificazione che parte da un concetto molto ampio dei software che possono essere classificati come “sistemi di Intelligenza Artificiale”, che i legislatori europei hanno voluto fornire proprio per includere le molteplici applicazioni (quelle esistenti e quelle future) dell’AI.

In base a questa definizione, la grande maggioranza delle attività di credit scoring che fanno uso di sistemi di AI sarebbe automaticamente soggetta ai requisiti minimi trasversali imposti ai sistemi di AI ad alto rischio. Di conseguenza, diverse attività, tra cui il targeting delle acquisizioni per il marketing, la modellazione delle riscossioni e i modelli standard di credit scoring (ad esempio, una scorecard che utilizza la regressione logistica), dovrebbero essere conformi agli stessi requisiti.

Per una maggiore chiarezza in merito alle aspettative di vigilanza e in linea con l’approccio tecnologicamente neutrale della Bce, il documento suggerisce che i sistemi di AI destinati a essere utilizzati per valutare il merito di credito delle persone fisiche o per stabilire il loro punteggio di credito e che fanno leva sull’uso di algoritmi di AI e di Machine Learning sotto la supervisione umana, non dovrebbero essere classificati come sistemi di AI ad alto rischio, a condizione che l’impatto di tali approcci sulla valutazione del merito di credito delle persone fisiche o del punteggio di credito sia minima.

Inoltre, visto che queste attività sono condotte quotidianamente dagli enti creditizi, la Bce raccomanda che l’applicazione delle disposizioni previste dal regolamento europeo sull’Intelligenza Artificiale in questo ambito dovrebbe essere ritardata fino all’adozione da parte della Commissione di specifiche comuni in materia.

Tali specifiche, precisa la Bce, dovrebbero sia precisare le condizioni di conformità dei sistemi di AI ad alto rischio in questo settore, sia definire quando i sistemi di AI dovrebbero essere considerati come “messi in servizio da fornitori su piccola scala per uso proprio”, e quindi rientrare nell’ambito dell’eccezione alla qualifica di sistema di AI ad alto rischio.

Inoltre, nel caso in cui le specifiche riguardino i sistemi di AI utilizzati per valutare il merito di credito delle persone fisiche o per stabilire il loro punteggio di credito, la Bce richiede di essere inserita tra gli organismi consultati prima dell’adozione di tali disposizioni.

Buono il giudizio dato dalla Bce in merito alla possibilità, stabilita dal regolamento, di rivedere e ampliare la lista dei sistemi di AI che devono rispettare i criteri comunitari in base all’avanzamento della tecnologia.

In questo ambito, la Banca Centrale Europea fornisce la sua disponibilità ad essere consultata e a fornire pareri per quanto riguarda l’utilizzo di questi sistemi da parte degli enti creditizi, anche nell’indivuazione di nuovi sistemi e applicazioni che possono costituire un rischio per i diritti dei cittadini.

Il documento

Qui sotto il documento integrale, disponibile in inglese.

parere Bce regolamento AI

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 2