Gli sviluppi dell'AI

All’Europa serve un Centro per l’Intelligenza Artificiale sul modello del CERN

L’IA offre enormi benefici, ma pone anche rischi etici, socioeconomici e ambientali. Per governarla, servono regole globali condivise, come per l’energia atomica. L’Europa dovrebbe creare un centro di ricerca sull’IA sul modello del CERN, per studiarne le potenzialità, mitigarne i rischi e sviluppare un’IA “spiegabile” e sicura. L’opinione di Gianni Manco, referente per la Campania degli Stati Generale dell’Innovazione (SGI).

Pubblicato il 25 Ott 2024

shutterstock_695169133-1


Per il suo rivoluzionario impatto sulla nostra società l’Intelligenza Artificiale è ormai al centro di molti studi e dibattiti finalizzati a comprenderne meglio le sue attuali potenzialità e il suo sviluppo, a valutare i rischi e benefici, e a individuare i criteri e gli strumenti con cui governarla al fine di renderla un vero motore di sviluppo per l’intera umanità.

L’IA non è una novità assoluta perché da millenni l’uomo cerca di costruire macchine che in modo automatico svolgono delle sue attività, cosi come cerca di comprendere e rappresentare il funzionamento del comportamento del suo cervello. Ma solo nel 1956 John McCarthy coniò il termine Artificial Intelligence, lanciando cosi l’ambiziosa sfida di costruire una macchina che potesse operare come il cervello umano simulandone le funzioni (la cosiddetta IA Forte o AGI – Artificial General Intelligence). Da allora in poi ci sono stati periodi caratterizzati da successi seguiti da significative delusioni con drastiche riduzione della spesa in R&S.

Oggi grazie allo sviluppo di nuovi metodi di Machine Learning (ML) con reti neurali profonde (Deep Learning), alla crescita della potenza di calcolo e alla grande disponibilità di dati, l’IA sta vivendo una nuova fase di sviluppo e l’AGI appare sempre più vicina. Infatti si è passati dall’emulazione del cervello umano (approccio “comportamentistico” o IA Debole), ottenendo buoni risultati per compiti specifici come nel caso dei Sistemi Esperti, alla sua simulazione seguendo l’approccio “connessionistico” dell’AGI (ma c’è chi punta anche all’ASI Artificial Super Intelligence, ovvero a una macchina che opera in modo migliore del cervello umano).

Tuttavia allo stato, nonostante le previsioni di ottimistiche di Sam Altman CEO di OpenAI che ha fatto una stima di cinque anni, l’AGI non è ancora una realtà e le attuali macchine/applicazioni sono ancora di tipo IA Debole.

I settori in cui l’IA è già presente sono tanti e al di là del successo di quella generativa basata ormai sul LMM (Large Multimodal Language) di cui ChatGpt-4o è un esempio, ci sono altri ambiti rilevanti che stanno avanzando, come IA Fisica ( si pensi alla guida autonoma gestita dall’IA) e l’Internet of Skills, che punta a digitalizzare e trasmettere attraverso la rete abilità umane (un esempio è la chirurgia robotica che fa uso dell’IA). Nei prossimi anni è ragionevole pensare che si assisterà più che a uno sviluppo generalista ad uno verticale per ambiti specifici.

L’AI: benefici, rischi e l’impatto sull’ambiente

Sui benefici dell’IA non ci sono dubbi. In generale essi riguardano la possibilità di migliorare la produttività e la qualità dei beni e servizi, liberare le persone da lavori ripetitivi/faticosi/rischiosi, dare un forte impulso all’innovazione.

Sicuramente uno dei problemi sarà quello dell’impatto sull’ambiente, perché l’IA richiede molta acqua per il raffreddamento dei server e molta energia elettrica. Per quest’ultima le varie Big Tech stanno investendo sul nucleare.

Ma l’IA presenta anche dei rischi etici e socioeconomici che impattano, per esempio, sulla democrazia: si pensi a come l’IA può condizionare le scelte e le convinzioni delle persone, semmai usando anche fake news. C’è poi il tema dell’impatto sull’occupazione: secondo l’Osservatorio IA del Polimi nei prossimi dieci in Italia le macchine IA potranno svolgere il lavoro di 3,8 milioni persone).

A fronte di questi rischi, come sempre è accaduto per le rivoluzioni tecnologiche, è necessario mettere in campo azioni che rendano la transizione dal vecchio al nuovo contesto socialmente accettabile, rispettosa dei diritti delle persone e portatrice del benessere collettivo.

Nel caso dell’IA la sfida è dura e riflette le difficoltà sinora incontrate con Internet e i Social Media: uno sviluppo molto rapido, gestito senza troppe regole da poche Big Tech che i governi e l’intera società non riescono a seguire con la giusta comprensione e velocità. Come ammonisce il nuovo premio Nobel per la fisica Geoffry Hinton, uno dei padri del Deep Learning, la creazione di macchine complesse che autoapprendono può portare alla perdita del controllo da parte dell’uomo. Per tali ragioni, pensando pure all’uso in campo militare, è motivato dire che l’AGI necessita di un’attenzione paragonabile a quella per l’energia atomica.

L’economista Anton Korinek nella sua recente analisi sulle sfide dell’era dell’IA, parlando dei possibili scenari sullo sviluppo dell’AGI, evidenzia come le macchine saranno tra i fattori economicamente rilevanti della produzione creando, in quanto riproducibili senza particolari limiti, una nuova abbondanza del fattore lavoro. Mette poi in guardia dai rischi dell’accrescere delle ineguaglianze e la formazione di un “Intelligence Divide”.

Non solo, Korinek sottolinea che ci saranno nuove sfide per la governance globale, che richiederanno adeguati criteri per gestire le dinamiche di potere: nel tempo l’AGI, con la sua forza trasformativa, potrà rimodellare le strutture di potere globale ed esacerbare le disuguaglianze esistenti tra le nazioni.

L’urgenza di policy condivise

È allora evidente che, pur essendo l’IA ancora in via di sviluppo, i rischi vanno tutti affrontati perché non si può e non si deve rinunciare ai suoi benefici. Cosi come non bisogna dimenticare che una macchina sarà sempre una costruzione dell’uomo che opererà con una logica deterministica, senza possedere mai una vera coscienza e il libero arbitrio, quindi avere quella creatività e sentimenti che caratterizzano gli esseri umani. Sicuramente rispetto a compiti specifici e per velocità elaborativa potrà essere più efficiente ed efficace, ma l’uomo, anche per i non credenti, non è nato per fare calcoli ma per conoscere se stesso e il mondo esterno, creare, amare, emozionarsi: Einstein non era solo capace di fare dei calcoli.

Va poi considerato che nel loro insieme la fisica quantistica (che a differenza di quella classica non è deterministica), le neuroscienze, le biotecnologie e l’AI, porteranno a continui cambiamenti sul nostro modo di comprendere il mondo e di vivere che includerà anche un nuovo rapporto con le macchine.

Ovviamente, per gestire questi cambiamenti sarà necessario un grande investimento in educazione e istruzione delle persone, a cui gli stessi strumenti dell’IA dovranno contribuire. Su come in concreto affrontare i rischi dell’IA, tutti parlano della necessità di riaffermare i valori etici, l’agire con responsabilità e l’adozione di politiche con regole che mettono al centro l’uomo e il bene collettivvo.

Lo stesso AI ACT della UE va in questa direzione, ma è evidente che non può bastare sia per la complessità della sua applicazione sia perché senza una condivisione globale potrebbe, come dicono vari attori, penalizzare la competitività della UE. Gli stessi diritti della proprietà intellettuale vanno meglio regolamentati per non frenare lo sviluppo: bisogna evitare gli effetti negativi di quello che David Bellos chiama il “capitalismo della creatività”.

Purtroppo realizzare certe politiche globali su materie che investono sfide come quelle indotte dall’IA, non è facile. Ma l’Europa settant’anni fa (nel 1954), raccogliendo la proposta di valorosi scienziati, ha dato vita ad un esempio di successo, il CERN di Ginevra, con lo scopo di renderla competitiva nel mondo della fisica delle particelle, riportare a casa gli scienziati europei emigrati con la seconda guerra mondiale e mettere la scienza al servizio del bene comune e della pace (per inciso il web è nato al CERN nel 1989 ad opera di Tim Berners).

Un centro sull’IA sul modello del CERN

Per l’IA, come già proposto in questi ultimi anni da alcuni ricercatori e organizzazioni (un esempio è il rapporto sull’IA di Aspen Institute Italia-Intesa San Paolo del 2024), serve un centro UE sul modello del CERN e come tale aperto a paesi anche non europei e all’utilizzo delle sue infrastrutture di supercalcolo.

Realizzare un centro sull’IA con approccio multidisciplinare avrebbe lo scopo non solo di valorizzare i nostri ricercatori e produrre risultati industrialmente utilizzabili, ma anche di conoscere in profondità la sua natura e il funzionamento.

Inoltre potrebbe contribuire ai regolamenti globali e proporre analisi e strumenti per affrontare tutti rischi dell’IA. La ricerca sull’IA potrebbe consentire lo sviluppo della cosiddetta IA Spiegabile (XAI-Explainable AI), che da all’uomo la possibilità di controllo delle macchine IA, e la creazione di meccanismi interni per il rispetto delle regole etiche e di sicurezza adottate: una metodologia questa non nuova per l’ingegneria che si sta già applicando, per esempio, per la certificazione delle foto.

Al momento la UE, oltre all’AI Act con il neo ufficio Europeo per l’IA, sostiene molte iniziative di ricerca e sviluppo sull’IA, a cui si affiancano quelle di consorzi, aziende pubbliche o private e associazioni, tra queste l’iniziativa ELLIS.

Anche Draghi nel suo rapporto sulla competitività dell’UE, propone per l’IA un maggiore sforzo sinergico, rilevando che il 70% dei modelli di IA degli ultimi anni sono stati prodotti negli USA. Ci sono, quindi, molte ragioni, per auspicare, la creazione di un Centro Europeo per l’IA e l’Italia potrebbe candidarsi ad ospitarlo.

Valuta la qualità di questo articolo

Gianni Manco
Gianni Manco

Consulente in Digital Trasformation, Referente per la Campania degli Stati Generali dell'Innovazione(SGI)

Articoli correlati

Articolo 1 di 5