In un mondo sempre più popolato da macchine intelligenti, capaci di prendere decisioni, anche importanti, non possono passare inosservate alcune preoccupazioni che accompagnano questa “rivoluzione” delle macchine e che riguardano l’etica. L’intelligenza artificiale, infatti, è diventata ormai un fattore pervasivo dalla nostra vita, non solo lavorativa, ma anche sociale – basta solo pensare agli assistenti virtuali – e per questo motivo diventa fondamentale una riflessione.
A discutere di questi temi, e a chiarire anche alcuni interrogativi la nuova puntata di Italia 4.0, la trasmissione condotta da Andrea Cabrini andata in onda mercoledì 27 marzo sul canale Class Cnbc (Sky, Canale 507) e ora disponibile in streaming qui. A discutere del tema Andrea Montefusco docente alla scuola di business della Luiss, Piero Poccianti, presidente associazione italiana intelligenza artificiale, e Alessandra Santacroce presidente della Fondazione IBM italia, con un contributo video di Maria Chiara Carrozza, Direttore scientifico della fondazione Don Carlo Gnocchi.
Indice degli argomenti
Che cosa sono e come si definiscono le intelligenze artificiali
Una discussione che parte, comunque, da un punto necessario, ovvero quello della definizione di intelligenza artificiale, sulla quale tutti devono essere d’accordo. “L’intelligenza artificiale è una disciplina che è nata nel 1955, con una definizione ben precisa – sottolinea Piero Poccianti – ovvero cose che le macchine fanno e che, se fossero fatte da un uomo diremmo che sono macchine intelligenti. Noi distinguiamo tra quella chiamiamo General Artificial Intelligence, che è quella che cerca di riprodurre un essere senziente, ma siamo ancora molto lontani, e la Narrow Artificial Intelligence, quella ristretta che, su alcuni compiti specifici fa fare alle macchine delle cose che sono intelligenti”.
E proprio in questo secondo filone possiamo trovare, oggi, la maggior parte delle applicazioni che adottano l’intelligenza artificiale e che, in alcuni compiti molto specifici, come la capacità di riconoscere il parlato, oppure dei pattern, possono essere anche superiori all’uomo. “Siamo ancora lontani da una macchina che pensi, prosegue, perché abbiamo macchine che hanno capacità logiche o percettive ma la ricerca, in questo momento sta puntando a mettere insieme queste cose. Per ora i prodotti che vediamo sui telefoni, oppure sugli assistenti virtuali, sono, più che altro, macchine a comando vocale, programmate per capire il parlato, molto bene, ma che poi non ragionano. Noi vogliamo portarle ad avere anche capacità logiche”.
Intelligenza artificiale e iperautomazione
Non tutto quello che spesso definiamo come intelligenza artificiale, però, è da ritenersi tale. Anzi, molte di queste cose fanno parte dell’automazione spinta che entra nelle nostre case e, sopratutto, nelle aziende. Le differenze, però, sono sostanziali anche perché non tutte le macchine che fanno cose al posto nostro sono intelligenti.
“Spesso c’è confusione tra intelligenza artificiale e automazione – spiega Andrea Montefusco – che è ciò che la macchina può fare al posto nostro. A volte queste definizioni coincidono, perché ci sono macchine che possono prendere decisioni meglio di quanto possiamo fare noi, ma esistono macchine con comportamenti decisionali che non hanno vere forme di intelligenza, ma funzionano, banalmente, su algoritmi”.
L’invito, quindi, è proprio a riflettere sul concetto di automazione complessa. “Noi stiamo lavorando, con alcuni colleghi su questo tema dell’iperautomazione – prosegue Montefusco – perché ci sono funzioni dove l’operatore riesce a vedere ciò che la macchina fa al posto suo, e questa è una generazione di automazione che abbiamo ben chiara, ma, con il crescere delle capacità di calcolo le macchine fanno cose che non riusciamo a rappresentare. Se l’autopilota dell’MD80 era una macchina che, semplicemente, agganciava i cavi al posto del pilota e muoveva tutti i comandi, e il pilota li vedeva muovere fisicamente, quello di un Airbus moderno si fonda su migliaia di sensori, e il pilota non riesce a rappresentarsi ciò che fanno questi algoritmi. E questa, per noi, è l’iperautomazione”.
Sviluppo e regole, il “doppio binario” dell’Unione Europea
Si tratta di temi che non potevano certo lasciare indifferenti alle istituzioni. A dare il segnale più importante la Commissione Europea che ha messo in campo misure diversificate, sia per sostenere le imprese che si occupano di innovazione, che per normare attività che possono avere una forte influenza sulla vita dei cittadini. “L’Unione europea, già nel 2018, ha identificato nell’intelligenza artificiale una grande possibilità di crescita – spiega Alessandra Santacroce – e ha capito che questo grande potenziale comportava, però, tutta una serie di problemi etici. È per questa ragione che, da un lato ha stanziato fondi perché la tecnologia dell’intelligenza artificiale possa far crescere le aziende e i paesi, dall’altro ha istituito l’High Level Expert Group on Artificial Intelligence, per sistematizzare lo sviluppo di questa tecnologia stabilendo un codice etico”.
L’obiettivo di questo gruppo di lavoro che comprende 52 esperti sarà elaborare, attraverso il dialogo con le imprese, analisi e indicazioni per guidare le politiche dell’Unione Europea in questo comparto. “Questo gruppo di esperti ha l’obiettivo di declinare il concetto di intelligenza artificiale affidabile – prosegue Santacroce – e i lavori si sono articolati su due punti sostanziali, la tutela dei diritti fondamentali dell’individuo e la robustezza tecnica della tecnologia legata all’Intelligenza artificiale. Il tutto attraverso un approccio multidisciplinare, perché l’intelligenza artificiale ha implicazioni che vanno dall’etica alla filosofia, all’economia alla sociologia. Il lavoro è quasi terminato, i nei primi di giorni di aprile sarà presentato e poi ci sarà una pubblicazione per sull’uso etico dell’intellgenza artificiale affidabile”.
In pratica il gruppo ha messo a punto sette raccomandazioni, che saranno accolte dalla Commissione Europea. “La cosa più interessante – conclude Santacroce – è che la pubblicazione di questo materiale sarà corredata da una sorta di check list, un insieme di domande per coinvolgere il mondo delle imprese delle startup, e guidarle nell’implementazione attraverso questo approccio collaborativo, che l’Unione Europea ha avuto e che, a nostro vedere è quello giusto. Quando arriva una tecnologia dirompente – conclude – fare subito regole o leggi rigide non serve, ma bisogna accompagnarla, indicando la strada che è l’etica”.
Sensibilizzare le imprese e formare il personale
E se, da un lato, si lavora per creare regole che possano rendere il tema dell’intelligenza artificiale compatibile con uno sviluppo sostenibile, dall’altro, però, serve un passo avanti da parte delle imprese italiane, sopratutto sul tema della formazione.
A sottolineare questo aspetto Maria Chiara Carrozza, Direttore scientifico della fondazione don Carlo Gnocchi: “C’è un dato allarmante – spiega – perché solamente una piccola parte delle imprese italiane ha avviato progetti di scouting e di business intelligence sull’intelligenza artificiale. Noi che proveniamo dal mondo accademico dobbiamo lavorare per sensibilizzare sempre di più le imprese perché non basta investire in nuovi prodotti ma è necessario che il personale sia formato per capire, fino in fondo le potenzialità dell’intelligenza artificiale e usarla al meglio”.
Il rischio, infatti, è quello di una marginalizzazione delle nostre imprese che, se tralasciano il tema delle competenze, rischiano di perdere questa occasione. Serve puntare anche sulle infrastrutture immateriali, che sono le competenze dei nostri giovani. “Se non ne abbiamo a sufficienza, e se le imprese non trovano giovani preparati – sottolinea – il nostro mondo produttivo non sarà all’altezza delle sfide che si pone. Per quanto riguarda il tema delle regole penso che sia necessario interrogarsi sui principi etici nel metodo di lavoro ma, allo stesso tempo, evitare uno scontro su un percorso di legislazione, prima di sapere cosa potrà avvenire e come saranno le tecnologie. Sicuramente, c’è stata una sovraesposizione sull’intelligenza artificiale e anche una attenzione eccessiva – conclude – ma non è l’unica tecnologia rilevante, ce ne sono molte altre, e dobbiamo stare attenti a non creare la bolla dell’intelligenza artificiale”.