L’intelligenza artificiale si sta sviluppando sempre di più. Le sue applicazioni, già operative o ancora sperimentali, continuano a crescere, in molti settori e attività.
Ma, considerando che cos’è l’Artificial intelligence (AI), e cioè “far fare alle macchine operazioni che se fatte dall’uomo richiederebbero intelligenza” (nella definizione della neuropsicologa Brenda Milner), tutto ciò solleva importanti questioni anche di carattere etico.
A cominciare da: chi decide i valori, e quindi le regole, da inserire in una tecnologia? E un’altra questione cruciale è questa: bisogna assumersi la responsabilità di dire, scegliere, decidere, che cosa può essere e che cosa non può essere automatizzato. Insomma, occorre fissare i paletti, i confini invalicabili. Decidere che cosa spetta all’uomo, e dove può arrivare la macchina. Fino a che punto e per quali ambiti decide la mente umana, e quanto spazio dare a quella artificiale. Le incognite sono già note e ben chiare, ma mancano ancora molte risposte.
In più, nello sviluppo e nell’utilizzo dell’AI, è il caso di evidenziare un altro aspetto importante: non esiste una sola Artificial intelligence. Ce ne sono almeno due, al proprio interno ha due anime: l’AI collaborativa e quella competitiva.
Questioni e prospettive analizzate anche nel corso di un recente convegno organizzato all’Università Bocconi di Milano da D-Avengers, “la community per i protagonisti della metamorfosi digitale” (come si definiscono), in collaborazione con Aica (Associazione italiana per l’informatica e il calcolo automatico) e Sda Bocconi.
Indice degli argomenti
Le due anime dell’Artificial intelligence
“Spesso si parla di Artificial intelligence come se fosse qualcosa di omogeneo e univoco. Invece, ci sono al suo interno due direzioni evidenti, due anime contrapposte”, fa notare Francesco Rainini, specialista Hi-tech che fa parte dell’Acceleration Team di Sas.
Che rimarca: “Ci sono due tipi di intelligenza artificiale, quella collaborativa e l’altra competitiva. La prima va bene se e quando tutti gli utenti hanno un obiettivo comune e condiviso. Per fare un esempio facile e concreto, è quello dell’App mobile di navigazione stradale Waze, basata sul concetto di crowdsourcing. In questo caso, l’intelligenza artificiale viene usata al servizio di tutti, e con il contributo di molti, in modo collaborativo appunto, per segnalare lo stato del traffico, ed evitare le code”.
È un’intelligenza artificiale condivisa, aperta, massificata e massificante. Come lo sono anche molte chat-bot, che forniscono assistenza a tutti quelli che ne hanno bisogno. E gli esempi potrebbero continuare a oltranza.
L’intelligenza artificiale competitiva
C’è poi, invece, l’AI competitiva, quella proprietaria, non aperta, quella che non si condivide. È l’Artificial intelligence fatta appunto per competere e non collaborare, per avere un vantaggio o un guadagno rispetto agli altri, e che esclude gli altri. È il caso esattamente opposto rispetto all’intelligenza artificiale collaborativa.
E, in ambito etico, mentre l’AI collaborativa ha per certi versi un funzionamento più trasparente, e soprattutto non vuole svantaggiare nessuno, le regole – anche etiche – alla base di sistemi e applicazioni di AI competitiva possono essere molto più opache, controverse, sleali e discutibili. “Cresce la consapevolezza della necessità di lavorare sui temi e contenuti etici”, rimarca Vera Schiaffonati, docente di Logica e Filosofia della Scienza al Politecnico di Milano, “ancora di più quando si ha a che fare con decisioni delicate e critiche, in molti ambiti sensibili. E quando l’intelligenza artificiale ha e avrà un impatto forte sulla vita degli individui e dell’intera società”.
I casi e gli esempi possono essere già numerosi, a partire da quelli nel campo medico e sanitario, o della giustizia, nel caso di un giudice che potrebbe avvalersi di algoritmi per definire una sentenza. Fino ai sistemi applicati alla selezione e valutazione del personale, alle industrie e al lavoro, alle armi e agli eserciti, o anche ai trasporti, auto a guida autonoma comprese.
Tecnologia e società si plasmano a vicenda
In sostanza, l’uomo ha ovviamente un ruolo primario e cruciale nel definire lo sviluppo delle nuove tecnologie e quindi anche dell’intelligenza artificiale, è pura Fantascienza – almeno per ora –, lo scenario di una tecnologia che evolve da sola e per conto proprio, indipendentemente dalla volontà umana.
In realtà, tecnologia e società si plasmano a vicenda (in inglese, ‘co-shape‘, termine che dà il nome a questo principio), ma occorre stabilire bene come plasmarle.
“Un approccio etico più ‘disinvolto’ rispetto a un’etica globale, come quello che applica ad esempio la Cina, in ambito di Privacy o di inquinamento, può dare rilevanti vantaggi competitivi, ma allo stesso tempo, o nel lungo periodo, avere effetti negativi e controproducenti per il bene e l’interesse comune”, rileva Schiaffonati. Che mette in guardia: “i nostri valori devono dare forma e contenuti agli algoritmi, nell’invisibilità delle operazioni informatiche“.
Occorre “moralizzare le nuove tecnologie, per renderle funzionali allo sviluppo, e non a una involuzione della nostra società”, e i principali rischi da scongiurare sono: “la riduzione dell’autonomia umana; il controllo delle macchine sull’uomo; rischi di immoralità o pigrizia morale; tecnocrazia al posto della democrazia”, sottolinea la docente di Logica e Filosofia della Scienza al Politecnico milanese.
Non delegare le scelte ai tecnologi
“L’etica in campo tecnologico e scientifico è un processo aperto e senza fine”, fa notare Norberto Patrignani, professore di Computer ethics al Politecnico di Torino. E osserva: “le tecnologie e le loro capacità vengono spesso descritte e proposte come un’alternativa all’uomo, devono invece essere dei cobot, devono essere viste e usate come risorse collaborative con l’uomo”.
E questo accade mentre “c’è una spinta enorme a delegare tutto al mercato, il risultato è una potenza enorme nelle mani dei tecnologi, e di chi controlla gli strumenti, e allo stesso tempo, se tutto ciò non è governato attentamente e correttamente, ci potrà essere un rischio enorme per l’umanità”.
Le macchine imparano in due modi
“L’etica non è solo fredda razionalità. Ma è anche e soprattutto cuore, valori, capacità di distinguere tra bene e male. Tutte prerogative che i computer non hanno oggi e non avranno mai”, rimarca Franco Filippazzi, ingegnere informatico protagonista di molte innovazioni dell’Olivetti negli anni Sessanta e Settanta, e per questo socio onorario dell’Aica.
Le macchine e i computer, poi, e in questo contesto vale la pena sottolinearlo, ‘imparano’ in due modi, esistono due tecniche di apprendimento (Machine learning): quelle supervisionate dall’uomo, e quelle non supervisionate, automatizzate in tutto e per tutto. E sono ancora di più queste ultime le modalità di sviluppo dell’intelligenza artificiale che risultano delicate e critiche dal punto di vista etico, delle tegole da seguire, dei confini da non oltrepassare.