Artificial intelligence

‘In principio era ChatGPT’, il libro che spiega come funziona l’intelligenza generativa di ChatGPT e i vantaggi dell’AI Open source

Nel libro ‘In principio era ChatGPT’, scritto da Mafe de Baggis e Alberto Puliafito e pubblicato da Apogeo del gruppo Feltrinelli, si tracciano opportunità e prospettive tra chatbot proprietarie e sistemi AI Open source

Pubblicato il 17 Mag 2024

IntelligenzaArtificiale


L’Intelligenza artificiale generativa è un modello probabilistico sempre più sofisticato che genera ‘output’, risposte e indicazioni a domande, richieste, istruzioni (prompt). Con svariate applicazioni e opportunità che si stanno diffondendo anche nel mondo delle imprese e del business, ad esempio le aziende possono utilizzare i dati proprietari abbinati a modelli di Generative AI per sviluppare e rafforzare strategie di mercato e il proprio vantaggio competitivo.

A portare l’Intelligenza artificiale generativa al centro dell’attenzione mondiale è stato innanzitutto ChatGPT (Generative Pre-trained Transformer), il chatbot creato dalla californiana OpenAI che ha aperto la strada di queste applicazioni al grande pubblico, sia di privati cittadini sia di professionisti e imprese.

ChatGPT non è un modello Open source, in quanto l’azienda proprietaria non ha nessuna intenzione di condividerne risorse e codice sorgente, ma proprio lo sviluppo impetuoso dell’Intelligenza artificiale generativa, in molti settori di attività, sta portando molti studiosi e specialisti a sostenere che sarà un sistema Open source, aperto e accessibile, a consentire lo sviluppo più democratico, trasparente e funzionale possibile dell’Artificial intelligence per la collettività mondiale.

Opportunità e prospettive che sono analizzati e approfonditi nel libro ‘In principio era ChatGPT’, scritto da Mafe de Baggis e Alberto Puliafito, e pubblicato da Apogeo del gruppo Feltrinelli.

Come funziona l’intelligenza generativa di ChatGPT

Il processo di addestramento di ChatGPT è diviso in due fasi: la pre-formazione e la sintonizzazione. Durante la fase di pre-formazione – simile alla fase di addestramento della macchina che impara a distinguere oggetti e soggetti diversi analizzando le loro foto, immagini, caratteristiche –, ChatGPT impara a prevedere la parola successiva in una frase, dato il contesto di quelle precedenti.

Attraverso questo processo acquisisce una ‘conoscenza’ generale della lingua, come la grammatica, il vocabolario, le espressioni comuni, ma anche molte delle associazioni tra parole e concetti che emergono proprio dai dati.

Dopo la pre-formazione, ChatGPT passa alla fase di sintonizzazione, dove viene addestrato su un set di dati più piccolo e specifico, generato con l’aiuto di revisori umani. Durante questa fase, i revisori seguono le linee guida fornite da OpenAI per valutare e classificare le risposte di ChatGPT a una serie di prompt, di comandi, che così ora diventano gli input. I feedback dei revisori vengono poi utilizzati per affinare il ‘comportamento’ del modello.

Calcolo statistico e spazio latente

ChatGPT risponde alle domande e ai prompt in base a ciò che ha ‘imparato’ durante la sua formazione: associazioni statistiche tra parole e frasi. Genera risposte “basandosi su come le parole e le frasi tendono a seguirsi l’una con l’altra nei dati con cui è stato addestrato”, rimarca Puliafito, “e lo fa usando un concetto chiamato ‘spazio latente’, uno spazio vettoriale multidimensionale in cui ogni parola, frase o concetto sono rappresentati da un punto. Le distanze tra questi punti nello spazio latente riflettono le relazioni semantiche tra parole, frasi e concetti”.

Quindi, quando ChatGPT deve generare una risposta, esamina lo spazio latente per trovare parole, frasi o concetti che sono semanticamente vicini all’input che ha ricevuto. Tutto ciò è ancora tutt’altro che privo di errori, le cosiddette ‘allucinazioni’ del sistema, sulle quali gli specialisti sono al lavoro per trovare nuove soluzioni.

Open data, ‘benzina’ per lo sviluppo dell’Intelligenza artificiale

Gli Open data – che necessariamente non sono i dati personali protetti dalle varie leggi sulla Privacy – sono dati messi a disposizione da Pubbliche amministrazioni e da aziende private per essere riutilizzati per diversi scopi, che possono essere utili e interessanti per una platea più ampia di pubblico e di utenti. I dati si possono considerare ‘open’, cioè disponibili e utilizzabili, quando sono in formato aperto, standardizzato e processabile da un’applicazione informatica.

Possono essere la ‘benzina’ fondamentale per i motori dell’Intelligenza artificiale, e anche per questo “è davvero difficile trovare solide motivazioni contrarie agli Open data”, fa notare Puliafito: “ciò non vuol dire che siano diffusi, facili da trovare, correttamente raccolti e distribuiti, ma che, almeno in teoria, i dati di interesse pubblico sia meglio metterli a disposizione di chiunque voglia usarli, anziché tenerli solo per sé o per pochi”.

I sistemi Open source che fanno crescere l’AI

Open source è il software aperto (non sempre gratuito) che, mettendo in rete e in comune l’intelligenza di designer e sviluppatori, ha definito un modo diverso di creare programmi e applicazioni. La stessa OpenAI che ha generato ChatGPT nasce nel 2015 come centro di ricerca e sviluppo Open source e No profit. Un tempo. Ora sono cambiate molte cose.

Come rileva Alberto Danese nella sua newsletter ‘All about Data’, se l’Intelligenza artificiale ha avuto una crescita impressionante “si deve in gran parte all’apertura, da parte delle Big tech, di innovazioni che un tempo sarebbero state brevettate e protette a tutti i costi”. Con ChatGPT siamo un po’ tornati indietro. Niente codice aperto, niente disponibilità diffusa, niente trasparenza sui dati usati per addestrare i modelli.

Semplificare e mettere a disposizione di tutti

In un’altra newsletter specializzata, ‘LaCulturaDelDato’, Stefano Gatti sottolinea che il mondo Open source “pur essendo un po’ in ritardo rispetto ai due progetti proprietari di OpenAI e Google, non sta certo a guardare passivamente l’evoluzione delle tecnologie di Generative AI, ma anzi, è in grande fermento. Esistono infatti importanti modelli fondamentali che hanno scelto la via dello sviluppo Open source, come il progetto Bloom e anche LLaMA, rilasciato in modalità Open source dal team di Meta a febbraio 2023”.

Sono proprio questi modelli quelli più interessanti in ottica di utilizzo e addestramento privato sul proprio dominio di business. Per favorire la fase di personalizzazione del modello e addestramento con i propri dati, stanno nascendo numerosi progetti che puntano a semplificare tutto questo processo.

Ci sono poi grandi aspettative di nuovi sviluppi e prospettive, anche da parte dei protagonisti imprenditoriali e tecnologici di questo mondo come, tra i tanti, Mozilla.ai, una startup e una community impegnate nello sviluppo di AI affidabile e Open source, e anche da progetti come Lamini AI, che consente di addestrare modelli linguistici di alto livello senza grandi difficoltà e con pochissimo codice informatico da sviluppare.

Valuta la qualità di questo articolo

C
Stefano Casini

Giornalista specializzato nei settori dell'Economia, delle imprese, delle tecnologie e dell'innovazione. Dopo il master all'IFG, l'Istituto per la Formazione al Giornalismo di Milano, in oltre 20 anni di attività, nell'ambito del giornalismo e della Comunicazione, ha lavorato per Panorama Economy, Il Mondo, Italia Oggi, TgCom24, Gruppo Mediolanum, Università Iulm. Attualmente collabora con Innovation Post, Corriere Innovazione, Libero, Giornale di Brescia, La Provincia di Como, casa editrice Tecniche Nuove. Contatti: stefano.stefanocasini@gmail.com

email Seguimi su

Articoli correlati

Articolo 1 di 5