Una delle questioni più delicate, intricate, ma anche avvincenti, che riguardano presente e futuro dell’Intelligenza artificiale è: quale etica dare a macchine, robot, algoritmi e software?
Cosa prevedere e programmare come giusto, da fare, e come sbagliato, da evitare? Come orientare l’elaborazione artificiale dei computer perché sia davvero una “intelligenza”? E, più in generale, come governare il mondo digitale?
Sono aspetti strategici ed essenziali, nello sviluppo del settore, con una vastità di scelte e applicazioni da definire, e con un altrettanto vasto ventaglio di conseguenze ed effetti, molto pratici e concreti. Le politiche del digitale, a livello necessariamente internazionale, devono indicare percorsi e soluzioni.
Per fare un esempio tra i tanti: che linee guida etiche, e quindi “comportamentali”, si devono dare all’Artificial Intelligence (AI) che guida un’automobile Hi-Tech? In caso di imminente rischio di incidente tra due vetture, con passeggeri a bordo ma magari circondate da pedoni o ciclisti ai lati, l’auto a guida autonoma dovrebbe sterzare bruscamente, per evitare lo scontro ma mettendo in grave pericolo i pedoni attorno, o addirittura investendoli? O invece dovrebbe continuare nella sua traiettoria verso l’altro veicolo frenando il più possibile ma senza sterzare di colpo, proprio per non colpire i pedoni, ma mettendo in maggiore pericolo i passeggeri a bordo?
Indice degli argomenti
Regole per il mondo digitale
In questa e tante altre situazioni critiche e di emergenza, l’Intelligenza artificiale che gestisce e guida un’automobile, uno strumento, un robot, come dovrebbe comportarsi? Responsabilità e conseguenze di ciò che accade sarebbero del proprietario della macchina? O di chi l’ha programmata e istruita? O della compagnia con cui è assicurata, o di qualcun altro?
Ma la gestione e il governo del mondo digitale e dell’Intelligenza artificiale, oltre che i singoli individui e utilizzatori, riguarda e comprende scenari molto più grandi e strategici, a livello mondiale, in cui si intrecciano interessi economici, geopolitici, di sicurezza nazionale, produzione industriale e sviluppo tecnologico. L’industria, la sanità, il settore finanziario, infrastrutturale, militare, stanno sempre di più aumentando l’utilizzo di sistemi di intelligenza artificiale, con sviluppi che possono essere di grande impatto.
Ci troviamo di fronte alla necessità di rapportarci con una tecnologia che non è solamente un mero strumento che utilizziamo secondo la nostra volontà, ma può o potrà in molti casi sostituirci, o supportarci in maniera innovativa, nell’adozione di decisioni, scelte, attività operative, azioni molto concrete.
Già da diverso tempo, e a diversi livelli di specializzazione, ci si sta muovendo e addentrando in questi meandri e nelle prospettive di sviluppo del settore.
Come si muove l’Europa nel labirinto AI
In questo percorso, ancora ai primi passi, l’Europa sta interpretando un ruolo di primo piano, mentre né gli Stati Uniti né la Cina hanno per ora preso iniziative di rilievo: negli States si sta muovendo innanzitutto la società civile, mentre in Cina anche in questo ambito è in fase di sviluppo un sistema di controllo di massa. La Gran Bretagna, dal canto suo, e in un’ottica di ‘Digital Brexit’, ha da poco inaugurato il Centre for Data Ethics and Innovation, prima struttura al mondo dedicata a sostenere le decisioni di un governo su etica e innovazione digitale.
Per quanto riguarda l’Italia, in particolare, a fine dicembre il Ministero dello Sviluppo Economico ha reso noto la ‘squadra’ di professionisti ed esperti che collaboreranno con il Mise e il Governo per elaborare la strategia nazionale sull’Intelligenza artificiale, insieme all’analogo Team in materia di tecnologie Blockchain. Due gruppi di incaricati, tra docenti universitari, manager, uomini di aziende e istituzioni, su alcuni nomi dei quali non sono mancate le polemiche sui Social e sulla stampa. Ma, ora che è stata formata la ‘Nazionale’ dell’Intelligenza artificiale, nei prossimi mesi si attendono i primi risultati sul campo.
A livello europeo, in occasione del Digital Day 2018 dello scorso aprile, 25 Paesi, tra cui l’Italia, hanno siglato un accordo per il potenziamento e lo sviluppo dell’Intelligenza artificiale all’interno dell’Unione Europea. Un’intesa che punta a collaborare in ambito continentale, in modo da garantire all’Europa e ai suoi cittadini i benefici e le opportunità derivanti dall’utilizzo sempre più ampio e diffuso dell’AI.
Con il lavoro del Gruppo di Alto livello nominato dalla Commissione Ue, poi, lo scorso 18 dicembre è stata resa nota la prima bozza delle ‘Ethic Guidelines to Trustworthy AI‘, che potremmo tradurre come “Linee guida per un’intelligenza artificiale di cui ci si possa fidare”, un codice etico a tutti gli effetti che dovrebbe essere adottato entro il prossimo marzo.
L’obiettivo è quello di fornire un quadro di regole a livello etico per assicurare che un sistema di intelligenza artificiale sia “affidabile”, secondo una visione umano-centrica e dei diritti fondamentali dell’Uomo.
I valori alla base dei programmi europei
Il documento individua alcuni principi e valori generali che devono essere rispettati. Questi ‘capisaldi’ sono:
- il principio di beneficenza (fai il bene): inteso come la necessità che un sistema di Intelligenza artificiale sia progettato e sviluppato allo scopo di aumentare il benessere individuale e collettivo
- il principio di non maleficenza (non fare il male): che implica che un’Intelligenza artificiale non deve far del male all’essere umano, dovendo proteggere la sua dignità, libertà, Privacy e sicurezza nella società e al lavoro
- il principio di autonomia (preservare l’agente umano): il rispetto dell’essere umano, nel senso che non può essere subordinato o sopraffatto da un’Intelligenza artificiale, essendo necessario che venga sempre rispettato il principio di auto-determinazione dell’Uomo
- il principio di giustizia (sii equo): nel contesto dell’intelligenza artificiale “affidabile” questo principio implica che devono essere evitate discriminazioni o pregiudizi, assicurando il pari trattamento degli esseri umani
- il principio di trasparenza (opera in maniera trasparente): che implica la possibilità di controllare il sistema decisionale di un’intelligenza artificiale, il quale deve essere comprensibile e intellegibile per gli uomini di diversi livelli di esperienza e conoscenze.
Basterà tutto ciò per governare le super macchine Hi-Tech del nuovo mondo digitale?
Trattandosi di linee guida etiche, non hanno efficacia vincolante per i Paesi dell’Unione Europea. Il documento assumerà però grande importanza nel momento in cui si dovranno adottare delle scelte di politica legislativa all’interno dell’Unione sul tema dell’intelligenza artificiale, come ad esempio le responsabilità collegate al suo uso e i diritti dei cittadini.
I principi etici del Forum AI4People
Un anno fa è stato costituito un altro Forum europeo di esperti, AI4People, coadiuvato da Atomium, European Institute for Science Media and Democracy, che di recente ha pubblicato una lista di 5 principi etici fondamentali, 20 raccomandazioni applicative, e una Roadmap al 2020, affinché l’Intelligenza artificiale possa essere un adeguato fattore di sviluppo, e per una “Good AI Society” europea.
Le raccomandazioni elaborate da AI4People sono state pubblicate online nel numero di dicembre dell’organo specializzato ‘Minds and Machines‘, e riprese nel codice etico. Dal documento emergono alcuni punti strategici.
Ad esempio, la necessità di definire e sviluppare meccanismi di risarcimento e compensazione per i danni provocati dai sistemi intelligenti, in tante casistiche differenti, dalla discriminazione di un utente nei servizi di credito o di assistenza sanitaria, al danno fisico provocato da un incidente con un veicolo autonomo, come nella situazione descritta in precedenza.
Un altro elemento essenziale è la creazione di una sorta di struttura e agenzia europea per la protezione del bene e dell’interesse pubblico in materia, in modo da supervisionare e controllare i nuovi prodotti come sistemi intelligenti, software e servizi, e le relative Policy digitali. Altre ‘raccomandazioni’ e linee guida riguardano poi la formazione e divulgazione in ambito digitale, per conoscere e gestire al meglio i cambiamenti in atto, sfide e opportunità, non solo tra gli specialisti e addetti ai lavori, ma in ogni settore della società, dalla scuola al mondo delle imprese.
Evitare un Far West digitale
Gettando lo sguardo a quanto accade oltre i confini europei, negli Stati Uniti è soprattutto la società civile che sta lavorando e spingendo per una regolamentazione.
A ottobre 2018 la Public Voice Coalition, con sede a Washington, ha pubblicato le ‘Universal guidelines for Artificial intelligence‘, in cui sono presenti alcuni degli stessi principi e requisiti che si ritrovano nella bozza delle Linee Guida della Ue, ma con l’aggiunta di altre specifiche. L’Organizzazione delle Nazioni Unite (Onu) a sua volta ha istituito una piattaforma, denominata ‘AI and global Governance‘, che punta a favorire il confronto tra i vari attori coinvolti e a supportare i Paesi membri nell’affrontare le prospettive dell’intelligenza artificiale a livello mondiale.
In Cina, il gigante asiatico sta sviluppando un sistema di controllo di massa della popolazione attraverso un Social Credit System applicato a varie attività dei cittadini, dagli acquisti, alla gestione del credito, amicizie, relazioni, e via dicendo, che sarà pienamente operativo dal 2020 e si baserà anche su sistemi di identificazione di riconoscimento facciale.
L’Intelligenza artificiale è quindi al momento un’enorme, sconfinata prateria, che crescerà ancora, in cui serve con urgenza piantare ‘paletti’ e mettere regole per evitare che le opportunità e gli sviluppi del mondo Hi-Tech diventino un Far West digitale.