Accesso ai dati, sviluppo delle competenze e fiducia nella tecnologia: le tre sfide da vincere per sfruttare appieno il potenziale dell’intelligenza artificiale

Secondo lo studioso Daron Acemoglu, contrariamente a quanto si temeva, siamo ancora molto lontani dall’avere reali applicazioni di intelligenza artificiale generale che possano pienamente sostituire l’uomo. Della questione si è discusso nel corso della conferenza internazionale sull’Intelligenza Artificiale organizzata dall’Ocse. Tra le sfide che impediscono il pieno sviluppo del mercato dell’AI c’è anche la mancanza di competenze (umane) e di fiducia nei confronti della tecnologia. E poi c’è la questione cruciale dell’accesso ai dati, ad oggi appannaggio di pochi giganti tech

Pubblicato il 22 Feb 2022

intelligenza_artificiale_mise


Nel 2016 Geoffrey Hinton, informatico britannico considerato tra i padri fondatori del Deep Learning, disse che negli Stati Uniti non sarebbe stato più necessario formare radiologi perché da lì a cinque anni le macchine avrebbero svolto quel lavoro meglio degli umani. “Ma la realtà è che oggi non abbiamo abbastanza radiologi e che l’Intelligenza Artificiale ha ancora un impatto marginale in questo settore”, spiega Jim Bessen, Executive Director della Technology & Policy Research Initiative alla Boston University School of Law. 

Anche se nell’immaginario collettivo quando si parla di Intelligenza Artificiale (AI) si pensa spesso a macchine super intelligenti che si contrappongono all’uomo per intelligenza e capacità, la realtà è ben diversa. Infatti, siamo “lontani almeno 80 anni da arrivare ad applicazioni di un’intelligenza artificiale generale”, spiega Daron Acemoglu, Professore di economia al MIT, il Massachusetts Institute of Technology.

Nonostante questo, le persone guardano ancora con diffidenza l’Intelligenza Artificiale e lo fanno, principalmente, per due motivi: non si fidano di come aziende e governi raccolgono e utilizzano i dati personali o temono di perdere il posto di lavoro a causa dell’AI.

Promuovere la fiducia nella tecnologia è essenziale allo sviluppo del mercato dell’AI. Per raggiungere questo scopo, tuttavia, i regolatori si trovano davanti alla sfida di affrontare le disuguaglianze – sociali e non – causate sia da uno squilibrio nell’accesso ai dati necessari per realizzare applicazioni di AI, sia dall’impatto che la tecnologia ha sui lavoratori e sul mercato del lavoro.

Di questi temi si è parlato nel corso della prima giornata di discussioni nell’ambito della conferenza internazionale sull’Intelligenza Artificiale promossa dall’Ocse, l’Organizzazione per la cooperazione e lo sviluppo economico, in programma dal 21 al 25 febbraio, che chiama a raccolta esponenti del mondo accademico, politico e industriale per affrontare i temi caldi che riguardano l’AI, tra promesse ancora non pienamente realizzate, possibilità e sfide legate al cambiamento.

Il monopolio di pochi giganti polarizza il mercato

Una delle sfide più importanti riguarda l’accesso ai dati, che ha anche pesanti ripercussioni sulla composizione del mercato.

Le aziende che ad oggi sono in grado di sfruttare grandi pool di dati per applicazioni di AI riescono infatti a sbloccare vantaggi competitivi che gli forniscono una posizione di mercato più forte rispetto alle altre: si tratta di aziende con un grado di digitalizzazione in media più elevato, capaci di attirare i migliori talenti e maggiormente internazionalizzate rispetto a quelle aziende che ancora si trovano indietro nello sviluppo di strategie di data analysis.

Questo ha portato negli anni a una polarizzazione del mercato, con l’aumento del divario di produttività tra chi utilizza l’AI e i non adopter, in un modello del tipo “winner-takes-all” che, in economie caratterizzate dalla prevalenza di piccole e medie imprese, rischia di compromettere gli equilibri di mercato, oltre ad avere ripercussioni sociali non trascurabili.

“Quello che è cambiato, rispetto alle tecnologie del passato, è che prima le grandi aziende erano disposte a rendere disponibili al mercato, attraverso delle licenze, le loro soluzioni. Con l’AI, invece, vediamo la concentrazione del potere in poche grandi aziende, che tutelano gelosamente la loro proprietà intellettuale”, spiega Bessen.

Una situazione a cui hanno contribuito, secondo Bessen, regole più stringenti in materia di proprietà intellettuale – che hanno introdotto frizioni nel trasferimento delle conoscenze –  e anche le normative vigenti in materia di privacy e trattamento dei dati, come il regolamento europeo (GDPR), che se da un lato introduce criteri a tutela dei consumatori, dall’altro richiede uno sforzo maggiore alle aziende per assicurare la compliance.

Uno sforzo che le grandi aziende hanno assorbito con più facilità rispetto alle PMI e alle start-up, sia perché avevano già in casa le competenze necessarie per poter gestire la compliance, oppure perché avevano a disposizione delle risorse maggiori per cercarle esternamente.

“Quando si alza il livello del cost of compliance, le grandi aziende possono affrontarlo mentre le piccole aziende hanno più difficoltà, quindi si sta dando un vantaggio competitivo alle grandi imprese“, commenta Bessen. 

Cosa possono fare i policy maker per democratizzare l’AI?

Una situazione che ha portato a una riduzione della mobilità dei lavoratori e a un crescente divario tra le condizioni lavorative e la composizione della forza lavoro tra le aziende in grado di implementare strategie basate sull’analisi dei dati e quelle che ancora non hanno pienamente accesso alle applicazioni di AI.

Democratizzare l’accesso alla tecnologia è però importante anche per promuovere lo sviluppo di applicazioni di AI: è proprio a causa dell’adozione ancora troppo limitata, infatti, che non è ancora possibile quantificare gli effetti dell’utilizzo dell’Intelligenza Artificiale in molti ambienti, soprattutto per quanto riguarda l’aumento di produttività.

Ma come si può “democratizzare” una tecnologia? È in questa direzione che si sta muovendo l’Unione Europea, con diverse proposte legislative e azioni di policy volte proprio a creare un quadro di riferimento chiaro che stimoli, da un lato, la fiducia nei cittadini nei confronti dell’AI e, dall’altro, che metta in condizioni le PMI – che rappresentano il 99% del sistema imprenditoriale dell’Unione – di accedere alla tecnologia e sperimentare applicazioni che portino valore aggiunto.

“Da una nostra indagine abbiamo riscontrato che per il 65% dei business la mancanza di fiducia nell’AI rappresenta una delle principali barriere di accesso. L’AI ha questa reputazione di tecnologia che può portare a violazioni di diritti fondamentali e della sicurezza nazionale”, commenta Lucilla Sioli, che all’interno del Direttorato Generale della Commissione Europea dedicato alle Reti di comunicazione, dei contenuti e delle tecnologie (DG Connect) dirige la divisione dedicata proprio all’Intelligenza Artificiale e l’Industria digitale.

Ed è proprio per superare queste barriere e, al tempo stesso, fornire un quadro normativo chiaro, che guidi lo sviluppo della tecnologia e protegga i diritti fondamentali dei cittadini, che la Commissione Europea ha presentato il suo regolamento sull’Intelligenza Artificiale, il primo nel suo genere.

“Quello che stiamo facendo è costruire delle regole per governare l’utilizzo dell’AI in alcuni contesti rischiosi. Solamente in questi contesti pensiamo che le regole dovrebbero applicarsi”, continua.

Il regolamento, infatti, si applica ai sistemi di AI commercializzati all’interno dell’Unione. Una scelta presa, spiega Sioli, proprio per non limitare la ricerca sull’Intelligenza Artificiale ma, al tempo stesso, fornire indicazioni chiare alle imprese, per evitare che lavorino a soluzioni che, una volta messe sul mercato, siano invece considerate rischiose per i cittadini. 

Ma fornire strumenti di tutela non è sufficiente per garantire lo sviluppo di un ecosistema di innovazione europeo basato sull’Intelligenza Artificiale perché se è vero che la fiducia è fondamentale, altrettanto importanti sono consapevolezza, accesso ai servizi e alle competenze necessarie per poter costruire e utilizzare applicazioni. In questi ambiti, la Commissione Europea si sta muovendo in diverse direzioni:

  • diffondere la consapevolezza dei vantaggi del digitale e dell’AI tra le imprese europee, aiutando le PMI ad essere più competitive e promuovendo la contaminazione di idee e il trasferimento del know-how tra i Paesi membri. A questi scopi si rivolge la rete dei Digital Innovation Hub europei,  i poli di innovazione digitale europei
  • favorire l’accesso delle PMI ai dati, creando un mercato unico europeo dei dati (Data Act)
  • creazione di strutture di sperimentazione e testing per testare l’utilizzo di applicazioni di AI in ambienti fisici
  • favorire la creazione delle competenze rilevanti per l’analisi dei dati e l’utilizzo delle applicazioni di AI nei diversi settori dell’economia

Per quanto riguarda le competenze, l’Unione Europea sta portando avanti diverse policy di intervento – tra cui rientra l’Agenda per le competenze, parte integrante della strategia industriale europea – rivolte sia alla formazione delle future generazioni di lavoratori che ai percorsi di reskilling rivolti alla forza lavoro già attiva.

Competenze e formazione: occorre fare di più, ma anche essere realistici

Del bisogno di cambiare approccio alla formazione si discute da tempo. La digitalizzazione dell’economia e della società ha accelerato i cambiamenti del mercato del lavoro e delle competenze richieste: il focus si sposta non solo sulle competenze tecniche necessarie per sfruttare le nuove tecnologie, ma anche su quelle competenze interpersonali (le cosiddette soft skill) necessarie a navigare in un mercato dove con l’automazione di task a basso valore cognitivo restituisce importanza a quelle capacità che ci rendono umani, come le capacità di comunicazione, collaborazione, problem solving e molto altro.

Competenze che diventano trasversali alle professioni, proprio perché le tecnologie digitali, tra cui l’AI, trovano applicazioni in diversi contesti lavorativi.

“La sfida è cambiare l’approccio all’insegnamento: veniamo da una realtà dove la scuola è il principale educatore che fornisce delle competenze che pensavamo potessero bastare per una vita intera. Adesso vediamo che non è così, le competenze stanno cambiando e quindi abbiamo bisogno di nuove istituzioni e nuovi modi per impartire una formazione continua“, spiega Jim Bessen.

Si tratta quindi di ripensare ai curricula di studio rivolti ai giovani, inserendo percorsi base di programmazione anche in quei percorsi di studio non STEM, proprio perché le competenze richieste per utilizzare sistemi di AI e ML diventeranno indispensabili in un numero sempre maggiore di professioni.

“Sta anche a noi indirizzare i giovani verso quei percorsi accademici che risponderanno alle esigenze future del mercato del lavoro e possiamo farlo, ad esempio, promuovendo borse di studio legate all’AI anche in quei percorsi non STEM, come stiamo già facendo, continuando a lavorare per offrire opportunità di internship nel digitale e, soprattutto, migliorare nella diversità di genere“, spiega Sioli.

Sulla necessità di fare di più per attrarre anche la forza lavoro femminile nelle materie STEM insiste anche Francesca Lazzeri, Principle Data Scientist Manager per Microsoft e Adjunct Professor per la Columbia University.

“Non è solo una questione di inclusione, abbiamo bisogno di talenti per lo sviluppo delle applicazioni di AI e ML. Dobbiamo quindi lavorare per rimuovere quelle convinzioni che queste materie non siano accessibili ad alcuni gruppi sociali, perché nel futuro ci saranno molti ruoli e professioni legate all’utilizzo di queste tecnologie”, commenta.

Ma questo non è sufficiente, perché se da un lato vanno intensificati anche i percorsi di reskilling rivolti alla forza lavoro già impiegata, va anche affrontata una realtà un più scomoda: non tutti i lavoratori possono essere riqualificati.

Dagli studi effettuati sul mercato del lavoro statunitense, emerge che sono i lavoratori di mezza età, quell più vicini all’età del pensionamento, tra le categorie più esposte alla perdita del lavoro come conseguenza dell’automazione di alcune task.

“Dobbiamo essere realistici su quanto effettivamente possiamo fare per questi lavoratori. Non tutti i lavoratori possono essere riqualificati e per coloro che non possiamo riqualificare dobbiamo prevedere delle reti sociali di sicurezza, delle policy che li tutelino”, commenta Daron Acemoglu.

AI e diritti: come riconciliare la tecnologia con il processo democratico?

Secondo Acemoglu, infatti, per quanto la formazione all’utilizzo delle tecnologie digitali e dell’AI sia importante  viene troppo spesso vista come il fattore chiave per guidare il corretto utilizzo della tecnologia.

La formazione è troppo spesso una scusa dietro cui si nascondono molti economisti per ‘giustificare’ l’uso scorretto dell’Intelligenza Artificiale”, spiega.

Un esempio fatto dal Professore – che in una recente pubblicazione ha analizzato i rischi legati all’utilizzo dell’AI, tra cui anche i possibili danni al processo democratico – riguarda l’utilizzo dei social media. Se è vero che l’educazione è importante per rendere la popolazione consapevole dei rischi che queste piattaforme possono comportare al dibattito democratico, è altrettanto vero che da sola l’educazione non basta.

Pensiamo, ad esempio, agli algoritmi che servono a connettere persone con interessi comuni o a sponsorizzare prodotti, pagine e gruppi in base al comportamento dell’utente. Si creano spesso vere e proprie camere dell’eco, dove l’utente viene esposto allo stesso messaggio (giusto o sbagliato che sia), trovando negli utenti intorno a lui la conferma dell’esattezza del messaggio stesso.

Ed è in tali contesti che è semplicistico e riduttivo, secondo il Acemoglu, indicare l’educazione all’uso delle tecnologie come unico strumento di risoluzione di queste frizioni.

“Pensare che attraverso piccoli cambiamenti possiamo cambiare aziende come Meta è una fantasia. Non basta l’educazione per tutelare il processo democratico, dobbiamo cambiare i modelli di business”, spiega.

Modelli che devono distaccarsi dal marketing basato sulla target dell’utente con campagne pubblicitarie mirate. Una percorso necessario per riportare l’Intelligenza Artificiale lungo il corretto cammino, riprendendo quella promessa che, secondo Acemoglu, è ad oggi disattesa: la promessa di uno sviluppo umano-centrico, dove le tecnologie sono a servizio dell’uomo, senza sostituirlo, ma complementandolo e risaltandone le qualità che lo rendono umano.

“È un cambiamento che i business non faranno da soli, ma che i regolatori devono imporre. Che noi dobbiamo imporre. Tecnologia e formazione devono incontrarsi a metà strada, non si tratta di cambiare l’adozione della tecnologia, quanto di cambiare la tecnologia stessa e il modo con cui la utilizziamo”, conclude.

Valuta la qualità di questo articolo

C
Michelle Crisantemi

Giornalista bilingue laureata presso la Kingston University di Londra. Da sempre appassionata di politica internazionale, ho vissuto, lavorato e studiato in Spagna, Regno Unito e Belgio, dove ho avuto diverse esperienze nella gestione di redazioni multimediali e nella correzione di contenuti per il Web. Nel 2018 ho lavorato come addetta stampa presso il Parlamento europeo, occupandomi di diritti umani e affari esteri. Rientrata in Italia nel 2019, ora scrivo prevalentemente di tecnologia e innovazione.

email Seguimi su

Articoli correlati

Articolo 1 di 5