AI generativa

L’appello della comunità scientifica italiana: introdurre a monte regole certe sull’AI generativa

Diversi esponenti della comunità scientifica italiana dell’AI (oltre 200 individui e 6 istituzioni) hanno firmato una lettera lanciando un appello al Governo italiano affinché si adoperi per includere nel regolamento europeo sull’AI (AI Act) regole a monte per i grandi modelli generativi per garantire la trasparenza, sicurezza ed affidabilità delle soluzioni basate su di essi. Senza queste regole, avvertono i firmatari, la compliance ricadrà tutta sulle spalle delle PMI europee che tuttavia non potranno assicurare l’assenza di rischi, visto che gli sviluppatori di soluzioni basati su questi modelli sono in prevalenza extra europei.

Pubblicato il 30 Nov 2023

l'AI generativa gioca un ruolo fondamentale nel settore industriale riducendo i tempi di inattività delle macchine e aumentando la loro longevità.


Stabilire a monte delle regole per i grandi modelli generativi di AI nell’ambito dell’AI Act, il regolamento europeo sull’Intelligenza Artificiale: è questo l’appello lanciato dalla comunità scientifica italiana dell’AI al Governo italiano.

La lettera, che sottolinea l’urgenza di intervenire con regole a monte per tutelare i cittadini e le imprese europee (soprattutto le PMI) ha visto, finora, l’adesione di 200 individui – tra cui alcuni pionieri dell’AI moderna, come Yoshua Bengio, Stuart Russell e Raja Chatila – e 6 adesioni istituzionali, fra cui la Fondazione FAIR (il partenariato nazionale PNRR sulla Future AI Research), la Associazione Italiana per l’Intelligenza Artificiale, il lab AIIS-CINI e il Dottorato Nazionale in AI.

Perché sono necessarie regole per i “foundation model”

I firmatari sottolineano la pervasività dei modelli linguistici generativi come GPT-2, GPT-3(.5) e GPT-4 – i cosiddetti “foundation model”, ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro) – che negli ultimi mesi hanno dimostrato di poter essere applicati con risultati più che soddisfacenti.

Questi modelli hanno un potenziale impatto dirompente poiché possono essere specializzati per l’applicazione in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione, etc., alimentando un ecosistema e una catena del valore innovativi.

Tuttavia, sottolineano i firmatari, si tratta di tecnologie ancora immature e che hanno già evidenziato alcune lacune sul fronte dell’affidabilità e della sicurezza, sia poiché vi è una scarsa trasparenza sui dati che vengono utilizzati per addestrare questi modelli, sia perché sono soggetti ad errori imprevedibili e bias.

A queste criticità si aggiunge la facilità con cui questi strumenti possono essere impiegati per scopi manipolativi e la difficoltà di interpretare e spiegare le risposte che producono.

“Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’AI generativa”, si legge nel documento.

Proteggere cittadini e imprese europee

Oltre a queste criticità, l’assenza di regole certe per questi modelli minerebbe la competitività delle aziende europee, per lo più PMI, che stanno sviluppando e che svilupperanno soluzioni basate su questi modelli.

Ricordiamo, infatti, che il regolamento europeo sull’AI regola indirettamente le soluzioni di AI prodotte all’esterno dell’UE, introducendo criteri e standard applicabili ai prodotti commercializzati all’interno del Mercato Unico. In questo scenario, l’assenza di regole a monte, spiegano i firmatari, “comporterebbe il trasferimento dell’intera responsabilità sulle piccole e medie imprese europee, che dovrebbero garantire la conformità alle disposizioni dell’AI Act senza però avere alcun controllo sui modelli generativi utilizzati all’interno dei loro prodotti. Ciò potrebbe mettere a rischio la robustezza, la trasparenza e l’affidabilità di tali prodotti e servizi”.

Ben lontana dall’essere un freno all’innovazione europea, la regolamentazione fornirà una misura di protezione che beneficerà sia l’industria europea e italiana che l’ecosistema emergente dell’Intelligenza Artificiale, garantendo che i grandi sviluppatori forniscano meccanismi di trasparenza e fiducia per i numerosi attori che operano a valle.

“In assenza di tali regole, gli utenti finali si troverebbero esposti a rischi che i fornitori di servizi a valle, in particolare le PMI, non sarebbero in grado di gestire tecnicamente”, avvertono gli esperti.

“Le ‘carte modello’ e i codici di condotta volontari, che non sono soggetti a sanzioni, si sono dimostrati insufficienti, come dimostra l’esperienza passata. È quindi fondamentale introdurre una regolamentazione snella ma certa per i modelli generativi, in modo da garantire la sicurezza dell’industria europea e dei cittadini europei. Questa regolamentazione consentirà di sfruttare al meglio le opportunità offerte dall’Intelligenza Artificiale, fornendo al contempo le necessarie salvaguardie”, concludono.

Non si tratta del primo appello di questo tipo lanciato dalla comunità scientifica: solo qualche settimana fa, infatti, 24 accademici (tra cui anche Geoffrey Hinton e Yoshua Bengio), avevano lanciato un simile avvertimento all’itnerno di una loro pubblicazione scientifica che sottolineava l’importanza di affrontare questioni etiche e regolamentative con estrema urgenza davanti alla rapida (e incerta) evoluzione dell’AI.

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 3