I progressi nell’Intelligenza artificiale continuano senza sosta, spinti dalle forze della curiosità umana e dagli incentivi del mercato. Scienziati, programmatori e molte delle menti più brillanti stanno lavorando duramente per migliorare l’hardware e il software necessari per l’IA, stimolando sia una crescita esponenziale della potenza di calcolo, sia continui progressi nella capacità di comprendere e scrivere il software che sta dietro l’IA.
Finanziamenti e investitori stanno facendo la loro parte, premiando generosamente le crescenti capacità dei sistemi di IA esistenti, e versando centinaia di miliardi di dollari nello sviluppo di nuovi sistemi. In pratica, i progressi continui ed esponenziali sollevano già la questione cruciale: se l’Artificial intelligence, a un certo punto, supererà l’intelligenza umana. È la corsa verso la super-intelligenza.
Gli attuali sistemi mostrano un’Intelligenza artificiale ancora ‘ristretta’, che ha grandi, e spesso sovrumane, capacità in settori strettamente definiti e limitati, come giocare a scacchi, risolvere quiz o altre funzioni di elaborazione, analizzare dati, testi, leggi, annunci, o leggere le immagini ai raggi X. E molto altro, ma in funzioni specializzate e specifiche.
Al contrario, gli umani possiedono un’intelligenza ‘generale’, ovvero la capacità di agire in modo intelligente in un ampio numero di ambiti diversi, e di integrarli tutti. Questa capacità ci permette di utilizzare i poteri dell’IA al servizio dei nostri obiettivi umani. Tuttavia, ogni anno che passa, le capacità dei sistemi di Intelligenza artificiale stanno crescendo, e il vantaggio dell’IA rispetto agli umani in ogni ambito specifico si sta espandendo.
A meno che il progresso nell’IA non si arresti, e non se ne vede il motivo, sembra essere in gran parte una questione di tempo il traguardo in cui le macchine raggiungeranno i livelli umani e, di lì a poco, livelli sovrumani, di ‘intelligenza generale’.
Indice degli argomenti
Arriva l’Intelligenza generale artificiale
Anche se può sembrare fantascienza, diversi ricercatori prevedono che l’Intelligenza generale artificiale (Artificial general intelligence, abbreviata in AGI) sarà raggiunta già nel prossimo decennio, e la maggioranza dei ricercatori non va comunque oltre la seconda metà del Ventunesimo secolo.
Ci sono anche voci più scettiche che prevedono che l’IA non sarà mai in grado di replicare l’intelligenza generale umana, e che gli effetti economici dell’IA saranno molto meno significativi rispetto ad altre tecnologie di uso generale già introdotte nel Ventesimo secolo. Insomma, una sorta di bolla destinata a sgonfiarsi.
Tuttavia, date le vaste implicazioni potenziali dell’AGI per l’umanità, sembra prudente pensare seriamente alle ramificazioni per la nostra società, anche se l’avvento dell’AGI è solo uno dei vari scenari possibili per il futuro.
Le incognite dell’AI superintelligente
Che cosa implicherebbe per l’umanità l’Intelligenza generale artificiale e la Super Intelligenza, se questo scenario si materializzasse? La nostra intelligenza è la caratteristica che distingue l’umanità da altre specie animali e che ci ha permesso di crescere e governare sul Pianeta Terra, compresi tutti i co-abitanti meno intelligenti del nostro pianeta.
L’IA Super Intelligente tratterebbe l’umanità come gli umani hanno trattato gli altri animali, addomesticandoci e sfruttandoci quando utile, e ponendoci fine quando un fastidio? Quali altri ruoli rimarrebbero agli esseri umani? O potremmo forse infondere i nostri obiettivi e i nostri valori etici in macchine superintelligenti, in modo che ci aiutino a migliorare il nostro benessere con novità attualmente impensabili per le modeste menti umane?
Queste incognite sono molto discusse dai filosofi dell’IA, e per ora l’unica certezza è che sembra prematuro dare delle risposte precise. Ma, per quanto riguarda il dualismo e il conflitto tra valori etici della società e valore economico dell’innovazione, se lo scenario dell’Artificial general intelligence si concretizza, qualche considerazione utile si può già fare.
Il dualismo tra etica e portafoglio
Uno dei dilemmi centrali creati da un’Intelligenza artificiale sempre più intelligente è che i ‘fattori moralmente rilevanti‘ possono diventare sempre più irrilevanti dal punto di vista economico, mentre i ‘fattori economicamente rilevanti‘ possono non essere moralmente rilevanti. In pratica, le linee guida etiche possono essere sempre più schiacciate dal peso del portafoglio, mentre gli interessi di guadagno possono non coincidere o essere opposti all’etica.
Da un punto di vista economico, la Super Intelligence, l’Intelligenza artificiale a livello umano, potrebbe essere l’invenzione umana più produttiva e più redditizia di sempre. Il mercato apprezzerebbe molto i grandi ritorni potenziali che potrebbe generare.
Il lavoro umano, al contrario, può diventare economicamente ridondante nel caso in cui la SuperIntelligence venga raggiunta. Le macchine superintelligenti possono utilizzare la loro superiore capacità di risolvere i problemi per capire come eseguire compiti economicamente rilevanti in modo sempre più efficiente.
Se gli esseri umani diventano obsoleti
Se, a un certo punto, le macchine potessero svolgere tutti i compiti umani in modo più economico di quanto costa mantenere in vita gli esseri umani (cioè a un costo inferiore ai salari di sussistenza umana), allora non ci sarebbe più giustificazione economica per impiegare il lavoro umano, e gli esseri umani diventerebbero tecnologicamente obsoleti.
In questo scenario, il lavoro umano sarebbe un fattore di produzione ridondante: così come non usiamo più i buoi per arare i campi perché il costo del mantenimento dei buoi non vale il valore economico che producono, non varrebbe più la pena di pagare agli esseri umani ciò di cui hanno bisogno per sopravvivere. Questo scenario di SuperIntelligence condannerebbe così la stragrande maggioranza dell’umanità alla disoccupazione tecnologica.
Come fa notare Anton Korinek, economista, docente all’Università della Virginia, e membro del National Bureau of Economic Research statunitense, in una sua analisi appena pubblicata sull’IA, “se le nostre decisioni fossero guidate esclusivamente dal valore economico, allora sarebbe logico eliminare gradualmente l’umanità una volta che gli esseri umani sono diventati economicamente ridondanti”. Dal punto di vista del puro calcolo economico, non fa una piega.
E rincara la dose: “l’arco del nostro progresso materiale si sarebbe poi concluso: prima della Rivoluzione Industriale, l’umanità ha vissuto in un mondo malthusiano in cui il numero della nostra popolazione era frenato dalla mancanza di risorse materiali e dalla fame; dopo l’avvento della SuperIntelligenza, il lavoro umano diventerebbe ridondante, e il destino di tutti, tranne i più ricchi, finirebbe per essere nuovamente guidato dalle forze malthusiane, portando infine alla fame e al declino della popolazione umana”. Insomma, conviene essere ricchi. Per tutti gli altri, converrebbe maledire e sabotare la futura SuperIntelligence. L’umanità è avvertita.
L’evoluzione naturale e delle macchine
Il discepolo dell’economista e demografo inglese Thomas Malthus, e grande teorico dell’evoluzione delle specie e della selezione naturale, Charles Darwin, troverebbe l’ennesima conferma alle sue tesi in questa competizione sfrenata per accaparrarsi le scarse risorse tra gli esseri umani, e la sopravvivenza delle macchine più adatte di noi al mondo che verrà.
Del resto, ai tempi di Darwin non esistevano ancora i robot e i cervelloni elettronici, altrimenti il celebre antropologo lo avrebbe intuito subito che queste specie Hi-tech e artificiali prima o poi ci avrebbero serenamente fregato.
In termini economici, l’introduzione di un’innovazione dell’Intelligenza artificiale che riduce i salari al di sotto dei livelli di sussistenza metterebbe a rischio la sopravvivenza della maggior parte degli esseri umani: ciò che sarebbe in gioco non è semplicemente la disuguaglianza, ma la pura sopravvivenza umana.
“Se, in questo scenario, gli esseri umani non sono più in grado di guadagnare dal loro lavoro, ma è eticamente auspicabile mantenere in vita l’umanità, prospettiva che personalmente sostengo con forza”, rimarca oggi Korinek, “allora è necessario un meccanismo alternativo per provvedere ai bisogni materiali di quegli esseri umani che non hanno altra fonte di reddito”. E precisa: “in linea di principio, l’enorme crescita potenziale che può essere generata dalla SuperIntelligence potrebbe rendere relativamente facile fornire alcune risorse ai disoccupati tecnologici”.
SuperIntelligence e rischio esistenziale
Anche se la SuperIntelligence fa enormi promesse di migliorare la condizione dell’umanità, comporta anche rischi insondabili, che potrebbero non riflettersi molto negli obiettivi economici dei suoi creatori.
L’intelligenza è comunemente definita come la capacità di raggiungere obiettivi complessi, e una SuperIntelligence è quindi quasi per definizione più efficace degli esseri umani nel raggiungere i suoi obiettivi. “Se i suoi obiettivi sono in conflitto con quelli umani, è più probabile che l’IA super intelligente conquisterà gli umani”, rileva Korinek, e osserva: “i conflitti con gli obiettivi umani possono di fatto sorgere facilmente, specialmente come conseguenze indesiderate”.
Per rendere tangibili i rischi esistenziali collegati all’IA superintelligente, il filosofo svedese Nick Bostrom offre un esperimento di pensiero di un sistema programmato per perseguire un unico obiettivo ristretto (e piuttosto banale): produrre quante più graffette possibili.
Minacciati dai robot, e dalle graffette
Bostrom sostiene che non si può escludere del tutto che un tale sistema, una volta superintelligente, possa decidere di uccidere l’umanità nel perseguimento del suo obiettivo programmato. Ad esempio, per usare il ferro presente nel nostro corpo per le graffette, o per prevenire la minaccia di essere spento, che gli impedirebbe di massimizzare il suo obiettivo. Sono estremizzazioni, ma rendono l’idea.
Dato che il sistema non era stato programmato per perseguire obiettivi più ampi come il benessere umano, semplicemente non si sarebbe preoccupato della scomparsa dell’umanità. I ricercatori sulla sicurezza dell’Intelligenza artificiale hanno articolato decine di scenari aggiuntivi in cui l’IA superintelligente può mettere in pericolo l’umanità.
Più in generale, le motivazioni e gli obiettivi dei ricercatori di IA, e della società nel suo complesso, potrebbero non essere allineati quando si tratta di valutare i potenziali benefici dell’IA superintelligente rispetto ai suoi rischi.
La corsa, la sfida, i rischi
Un ricercatore che ha la possibilità di creare ed essere responsabile del più potente sistema di Artificial intelligence mai costruito, avrebbe un enorme potenziale in termini di fama scientifica, potere e ricompense materiali. Potrebbe anche essere un po’ troppo sicuro delle sue capacità di controllare un sistema di questo tipo. Ma l’umanità nel suo insieme ne pagherebbe il prezzo se le cose vanno male, come nell’esempio di rischio esistenziale di Bostrom.
Dato che può esserci un grande vantaggio per chi sviluppa per primo l’Intelligenza generale artificiale a livello umano, ci potrebbero essere forti incentivi a ignorare i valori etici e a programmare tali sistemi alla massima velocità possibile, senza tenere granché conto dei rischi.
Ancora più minacce possono arrivare da un’altra serie di potenti attori: i militari di tutto il mondo, che possono vedere un grande vantaggio strategico nel raggiungere la supremazia dell’AI.
Guidare il progresso tecnologico dell’AI
“Guidare il progresso tecnologico verso la SuperIntelligence può essere la sfida ultima per la società umana”, mette in guardia Korinek: “tuttavia, sebbene la posta in gioco possa essere molto più alta, le sfide sarebbero simili a quelle che stiamo affrontando con l’IA ristretta, ancora limitata ad ambiti applicativi, per assicurare che i sistemi di IA realizzino i nostri interessi economici mentre il loro comportamento è guidato dai nostri valori etici, evitando differenze nefaste tra priorità etiche ed economiche”.
E l’economista americano sottolinea: “dati i rischi esistenziali che l’umanità deve affrontare nel caso in cui la SuperIntelligenza si concretizzi, non dovremmo considerare il progresso verso i sistemi di IA superintelligente come un semplice progetto economico o un progetto di ricerca; le sfide etiche e la posta in gioco per l’umanità sono troppo elevate per essere determinate dagli interessi commerciali di ogni singola azienda, o dagli interessi di ricerca di ogni singolo gruppo di ricerca”.
Possibile soluzione: uno sforzo pubblico e collettivo, ampio e condiviso, per integrare le prospettive di tutte le parti interessate della società, potrebbe garantire che l’IA, e anche la mitica Super Intelligenza, si sviluppi in una direzione che sia economicamente ed eticamente vantaggiosa.
Anche qui, quindi, nelle prospettive della Super Intelligence, come in quelle più ordinarie dell’IA ‘ristretta’, e della vita quotidiana, bisogna conciliare i principi etici con le esigenze del portafoglio.
Leggi anche…
La lotta tra etica e mercato e il futuro dell’Intelligenza artificiale