Le opportunità offerte dall’AI sono immense ma, allo stato attuale, non stiamo facendo abbastanza per mitigarne i rischi: è questo l’avvertimento che arriva da due grandi esperti di intelligenza artificiale, Geoffrey Hinton e Yoshua Bengio autori, insieme ad altri 22 accademici, di una pubblicazione scientifica dal titolo “Gestire i rischi dell’AI in un’era di rapido progresso”.
L’intelligenza artificiale si è sviluppata a ritmi da molti inattesi: nel 2019 il modello di AI generativa definito GPT-2 non era in grado di contare fino a 10 ed è a oggi in grado di riprodurre testi e immagini più che accettabili e in maniera autonoma. Anche se questo e gli altri modelli di AI in uso ora mancano di importanti capacità, l‘AI ha già superato l’uomo in diversi compiti cognitivi e non ci è dato sapere, con certezza, quanto in fretta e come si evolverà.
Indice degli argomenti
L’AI ha tutte le carte in regola per superare l’intelligenza umana
Una certezza, spiegano i ricercatori, è che l’AI ha tutte le carte in regola per superare l’intelligenza umana. “Rispetto agli esseri umani, i sistemi di AI sono in grado di agire più velocemente, di assorbire più conoscenza e comunicare con una larghezza di banda molto più elevata. Inoltre, possono essere scalati per utilizzare immense risorse computazionali e possono essere replicati a milioni”, scrivono.
L’evoluzioni di questi sistemi, nella direzione di mitigazione del rischio e di equità di accesso, dipende solo da noi e, purtroppo, finora non ci sono stati segnali troppo incoraggianti. Se, da un lato, le caratteristiche sopra citate dell’AI (e il suo potenziale) possono aiutare l’uomo ad affrontare sfide che solo qualche anno fa sembravano insormontabili, siamo già in ritardo per quanto riguarda la mitigazione dei rischi.
Si assiste, scrivono gli accademici, a grandi investimenti orientati a spingere ancora ulteriormente le capacità dei sistemi di AI, mentre si investe molto meno per la sicurezza e la mitigazione dei danni.
“Affinché l’AI sia un vantaggio, dobbiamo riorientarci; spingere le capacità dell’AI da sole non è sufficiente. Siamo già in ritardo su questo riorientamento. Dobbiamo anticipare l’amplificazione dei danni attuali e dei nuovi rischi e prepararci ad affrontare i rischi più gravi ben prima che si concretizzino”, proseguono.
Perché dobbiamo affrontare i rischi sociali dell’AI, presenti e futuri
Se non riusciamo a controllare in modo adeguato l’evoluzione di questi sistemi, essi potrebbero porre seri rischi per la nostra società. Alcuni, su cui molti esperti insistono già da diversi anni, riguardano l’accentuazione delle ineguaglianze sociali, ma altri riguardano la nostra sicurezza.
Il nodo cruciale, spiegano i ricercatori, è che si deve porre attenzione e cautela nel modo in cui questi modelli sono progettati e implementati. E anche questo potrebbe non bastare: man mano che diventano sempre più autonomi e potenti, questi sistemi potrebbero essere usati da criminali per porre in serio rischio la nostra sicurezza, ma potrebbero anche perseguire “obiettivi non desiderati” sia come risultato di accorgimenti non adeguati nella loro programmazione, che come risultato della “corsa per vincere la sfida dell’AI” a cui stiamo assistendo e che spesso porta a sacrificare l’importante controllo umano nei risultati ottenuti dai modelli a favore di una maggiore velocità e riduzione dei costi.
Ed è un passaggio che, invece, non possiamo permetterci di saltare. La strada che si sta designando porta verso una maggiore automazione di molti aspetti critici per la nostra sicurezza, soprattutto nel campo della guerra e della gestione di armamenti. E lo stiamo facendo senza avere chiaro come questi modelli possono reagire davanti a dilemmi etici o valori complessi.
Il rischio, spiegano i ricercatori, è che sia che questi sistemi trovino il modo di evitare l’intervento di correzione umano – si pensi allo spinoso problema del controllo del software – e che quindi possano sfuggire al nostro controllo.
Se alcuni rischi sono già evidenti, soprattutto sul fronte della discriminazione e della disinformazione altri, ben più seri potrebbero presto emergere. Se non adeguatamente affrontati, questi rischi potrebbero culminare in una perdita su larga scala di vite umane e della biosfera, nonché nell’emarginazione o addirittura nell’estinzione dell’umanità.
“Non si tratta di una questione di ‘uno o l’altro’. I rischi attuali ed emergenti spesso condividono meccanismi, modelli e soluzioni simili; investire in quadri di governance e nella sicurezza dell’AI porterà frutti su più fronti”, scrivono i ricercatori.
Come mitigare i rischi dell’AI
Come mitigare questi rischi? La ricerca, secondo gli accademici, potrebbe fornire importanti sviluppi nella creazione di AI con obiettivi sicuri ed etici, grazie a un approccio incentrato su:
- supervisione e onestà. I sistemi di AI più capaci sono in grado di sfruttare meglio le debolezze della supervisione e dei test, ad esempio producendo risultati falsi ma convincenti
- robustezza. I sistemi di AI si comportano in modo imprevedibile in situazioni nuove (in presenza di cambiamenti nella distribuzione o di input avversari)
- interpretabilità. Il processo decisionale dell’AI è opaco. Finora possiamo testare i modelli di grandi dimensioni solo per tentativi ed errori. Dobbiamo imparare a comprendere il loro funzionamento interno
- valutazione dei rischi. I sistemi di AI di frontiera sviluppano capacità impreviste che vengono scoperte solo durante l’addestramento o anche molto dopo l’implementazione. È necessaria una migliore valutazione per individuare prima le capacità pericolose
- affrontare le sfide emergenti. I futuri sistemi di AI più capaci potrebbero presentare modalità di guasto che finora abbiamo visto solo in modelli teorici. I sistemi di AI potrebbero, ad esempio, imparare a fingere obbedienza o a sfruttare le debolezze dei nostri obiettivi di sicurezza e dei meccanismi di spegnimento per raggiungere un determinato obiettivo
Affrontare questi rischi e sfide richiede la partecipazione tanto di realtà pubbliche che private.
Per quanto riguarda le aziende che sviluppano questi modelli, queste dovrebbero dedicare almeno un terzo del budget stanziato per attività di R&D in AI per assicurare l’etica e la sicurezza di questi modelli.
Dai governi e dalle autorità pubbliche dovrebbero invece arrivare standard per prevenire l’uso improprio di questi sistemi e uno sviluppo incauto. La regolamentazione dovrebbe essere, tuttavia, commisurata alla valutazione dei rischi che derivano dall’AI e non dovrebbe quindi porre inutili freni burocratici allo sviluppo di modelli semplici, prevedibili e a basso rischio.
Ma per sviluppare questo tipo di framework regolamentativo, occorre migliorare la comprensione che i policymaker hanno di queste tecnologie e adottare un approccio condiviso con altri stakeholder internazionali affinché queste pratiche siano condivise ed efficaci.
È inoltre necessario adottare un atteggiamento nei confronti degli sviluppatori che sia in grado di promuovere uno sviluppo responsabile e punire le aziende che per colpa o dolo non adottano tale approccio.
Cosa possiamo fare nel breve periodo?
Nel frattempo, ci sono degli accorgimenti che possono essere adottati, come: concedere licenze per lo sviluppo di modelli di AI, ma anche sospendere lo sviluppo in risposta a capacità preoccupanti, a imporre controlli di accesso e a richiedere misure di sicurezza delle informazioni robuste per gli hacker di livello statale.
Inoltre, i governi dovrebbero definire scenari di “se-allora”: misure di sicurezza specifiche che adotteranno se nei loro sistemi di AI vengono individuate specifiche capacità ad alto rischio.
“L’AI potrebbe essere la tecnologia che darà forma a questo secolo. Mentre le capacità dell’AI avanzano rapidamente, i progressi in materia di sicurezza e governance sono in ritardo. Per guidare l’AI verso risultati positivi e lontani dalla catastrofe, dobbiamo riorientarci. Esiste un percorso responsabile, se abbiamo la saggezza di percorrerlo”, concludono gli accademici.