Il 7 maggio 2016 negli Stati Uniti il pilota automatico di una berlina Model S di Tesla, l’azienda fondata da Elon Musk, non riconosce la fiancata bianca di un tir come ostacolo e ci si schianta contro. Nell’impatto il conducente del veicolo, un ex marine, che in quel momento aveva affidato i comandi al software, muore. A fine gennaio di quest’anno il dipartimento degli Stati Uniti ha archiviato l’inchiesta nei confronti della casa automobilistica: nessun difetto tecnico. Ma quali sono i profili giuridici dell’uso dell’intelligenza artificiale?
Indice degli argomenti
La responsabilità dei robot
La domanda è tutt’altro che bizantina, visto che un sempre maggiore numero di intelligenze artificiali, in aggiunta sempre più sofisticata, si affaccia nella vita di tutti i giorni. Quali sono le conseguenze legali degli atti dei robot? Chi ne risponde? “Oggi si fa riferimento alla responsabilità oggettiva di prodotto, ma è una norma redatta 35 anni fa. Quando di intelligenza artificiale non si parlava – osserva Giulio Coraggio, legale dello studio internazionale DLA Piper -. In quanto oggettiva, non bisogna dimostrare una negligenza. Se si crea un danno e io sono produttore, io sono responsabile”.
La norma, però, inquadra solo una parte del problema e identifica il prodotto con standard che, nel frattempo, hanno fatto passi da gigante. Pensiamo sempre a un’auto che si guida da sola e che si trova davanti all’improvviso un bambino che attraversa la strada. Le probabilità di sterzare per evitarlo indicano che il veicolo si ribalterà, mettendo a repentaglio la vita del conducente. Ma se prosegue per la sua strada, quella più sicura dal punto di calcolo, una vita è comunque in pericolo. “Di fronte a scelte di questo tipo bisogna dare indicazioni etiche alle intelligenze artificiali”, prosegue Coraggio.
Lavoro e privacy
Le evoluzioni della robotica tuttavia pongono questioni anche sulle frontiere dell’occupazione e della gestione dei dati personali. Se un’azienda decide di assumere un robot e di assegnargli una serie di compiti che prima svolgevano una o più persone, le quali sono licenziate, cosa succede? Il licenziamento come viene giustificato? E come gestisce l’azienda la dipendenza crescente dal fornitore esterno di tecnologia? Sono quesiti su cui gli studi legali più avvertiti iniziano a interrogarsi.
Anche la gestione dei dati da parte di un’Ai pone profili legali. “Di chi sono?”, è la prima domanda che pone Coraggio. E la seconda: come sono usati? L’esempio più consono arriva dal mondo delle assicurazioni. “Le compagnie assicurative hanno sistemi robotizzati per valutare le polizze – osserva il legale -. Ma la nuova direttiva sulla privacy prescrive che l’individuo ha il diritto di non essere giudicato da un sistema automatizzato. La persona può fare ricorso e ottenere di essere giudicata da una persona fisica. Si prospetta un costo incredibile per le assicurazioni, che per mantenere i robot devono dimostrare che l’unico modo di contrattualizzazione è un sistema di Ai. Se tutto il sistema fa affidamento sull’AI, la norma non ammette il ricorso”.
Ue al lavoro
Di fronte a questi dubbi, che ormai riguardano casi quotidiani, nei giorni scorsi i parlamentari europei hanno votato una risoluzione per chiedere alla Commissione un testo di legge su robotica e intelligenza artificiale. Nello specifico, il testo di Bruxelles dovrà pronunciarsi sulla responsabilità legata a incidenti causati da AI.