Le aziende che utilizzano strumenti di AI generativa, come ChatGPT, dovranno dichiarare l’utilizzo di qualsiasi materiale protetto da copyright impiegato per sviluppare i loro sistemi: è quanto avrebbero deciso, secondo l’agenzia Reuters, i legislatori europei nell’ambito dei negoziati informali (triloghi) sul Regolamento europeo sull’intelligenza artificiale.
Il regolamento, ricordiamo, è stato presentato dalla Commissione europea due anni fa, con l’obiettivo di regolare gli strumenti di AI commercializzati all’interno del mercato unico europeo – quindi non solo quelli prodotti in Europa, ma anche provenienti da altri Paesi – per garantire trasparenza e tutela dei dati dei cittadini, promuovendo così la fiducia necessaria a dare ulteriore slancio alla tecnologia.
Indice degli argomenti
La proposta per disciplinare anche l’AI generativa
Secondo quanto riporta l’agenzia, alcuni membri delle commissioni interne al Pe (Parlamento europeo) avrebbero inizialmente proposto di vietare del tutto l’utilizzo di materiale protetto da copyright per l’addestramento di modelli generativi di AI, come ChatGPT o il generatore di immagini Midjourney.
La proposta, tuttavia, sarebbe poi stata abbandonata a favore dell’introduzione di un requisito di trasparenza che prevede, appunto, di dichiarare l’utilizzo del materiale protetto da copyright.
Il regolamento europeo sull’AI, a che punto siamo?
Questo sempre per favorire uno sviluppo etico dell’AI che promuova la fiducia necessaria verso la tecnologia.
Un obiettivo che, come abbiamo spiegato nel dettaglio in questo articolo, l’UE intende raggiungere introducendo un sistema di regolamentazione basato sul rischio, che classifica i sistemi di AI in:
- rischio minimo (filtri anti-spam o videogiochi abilitati dall’intelligenza artificiale), a cui il regolamento non verrà applicato
- rischio limitato, tutti quei sistemi di AI che richiedono specifici obblighi di trasparenza (come chatbot), la cui presenza deve essere sempre segnalata in modo che gli utenti possano prendere una decisione informata di continuare a utilizzare lo strumento o meno
- rischio alto, ovvero tecnologie utilizzate in infrastrutture critiche, formazione scolastica o professionale, occupazione, servizi pubblici o privati essenziali, applicazione della legge, gestione della migrazione e amministrazione della giustizia. Tali sistemi dovranno aderire ad obblighi e standard rigorosi prima di venire immessi sul mercato
- rischio inaccettabile, come sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti e sistemi che permettono il “punteggio sociale” da parte dei governi, che sono invece vietati
Il regolamento si trova quindi in fase di trilogo, vale a dire che è oggetto di una negoziazione tra Commissione, Consiglio e Parlamento europeo che attraverso i “triloghi” – riunioni informali interistituzionali a cui partecipano i rappresentanti delle tre istituzioni – stanno cercando di arrivare a una posizione condivisa sul testo.
Un obiettivo che è spesso tutt’altro che facile da raggiungere. Va altresì ricordato che anche dopo l’adozione formale di una posizione comune, il testo entrerebbe in vigore all’inizio del 2026 e che quindi, vista la velocità con cui l’AI sta evolvendo, si potrebbe rendere presto necessaria un’integrazione o una revisione.