L’interazione tra esseri umani e intelligenza artificiale sta dando forma a un nuovo sistema di pensiero, un nuovo schema cognitivo esterno alla mente umana ma capace di potenziarne le abilità cognitive: è quanto si legge in un articolo scritto da un team di ricercatori coordinato dal professor Giuseppe Riva, direttore del Humane Technology Lab dell’Università Cattolica del Sacro Cuore (campus di Milano) e del Laboratorio di Tecnologia Applicata per la Neuro-Psicologia presso l’Istituto Auxologico Italiano IRCCS, Milano.
L’articolo, dal titolo “The case for human-AI interaction as System 0 thinking”, è stato pubblicato sulla prestigiosa rivista Nature Human Behavior.
Secondo i ricercatori il nuovo sistema di pensiero, denominato “Sistema 0”, si colloca accanto ai due modelli di pensiero umano che sono il Sistema 1 – caratterizzato da pensiero intuitivo, rapido e automatico –, e il Sistema 2, un pensiero più analitico e riflessivo.
Tuttavia, il “Sistema 0” introduce un ulteriore livello di complessità, cambiando radicalmente il panorama cognitivo in cui operiamo e potrebbe dunque segnare un passo avanti epocale nell’evoluzione della nostra capacità di pensare e prendere decisioni. Sarà compito dell’umanità garantire che questo progresso sia utilizzato in modo da migliorare la nostra autonomia cognitiva, senza comprometterla.
Lo studio è stato condotto con Mario Ubiali fondatore e Ceo della start-up Thimus, Massimo Chiriatti del gruppo Infrastructure Solutions Group, Lenovo, a Milano, la professoressa Marianna Ganapini del dipartimento di Filosofia dello Union College, Schenectady a New York, del professor Enrico Panai della Facoltà di Lingue straniere e linguaggio della scienza presso l’Università Cattolica del Sacro Cuore, campus di Milano.
Indice degli argomenti
Dall’interazione con l’intelligenza artificiale una nuova forma di pensiero esterna
Come un hard disk esterno permette di immagazzinare dati non presenti nel computer, dati su cui lavorare collegandolo al pc ovunque siamo, così l’intelligenza artificiale, con la sua galattica capacità di calcolo ed elaborazione dati, può rappresentare un circuito esterno al cervello umano, in grado di potenziarlo.
Di qui l’idea del sistema 0 che non è altro che una forma di pensiero “esterno” che si basa sulle capacità dell’AI. Gestendo enormi quantità di dati, l’intelligenza artificiale può elaborare informazioni e fornire suggerimenti o decisioni basati su algoritmi complessi.
Tuttavia, a differenza del pensiero intuitivo o analitico, il Sistema 0 non attribuisce un significato intrinseco alle informazioni che elabora. In altre parole, l’AI può eseguire calcoli, previsioni e generare risposte senza realmente “comprendere” il contenuto dei dati con cui lavora.
Gli esseri umani, quindi, rimangono essenziali per interpretare e dare significato ai risultati prodotti dall’AI. È come avere un assistente che raccoglie, filtra e organizza informazioni in modo efficiente, ma che richiede comunque il nostro intervento per prendere decisioni informate. Questo supporto cognitivo fornisce input preziosi, ma il controllo finale deve sempre rimanere nelle mani dell’essere umano.
I rischi del Sistema 0: perdita di autonomia e fiducia cieca
“Il rischio è quello di affidarsi troppo al Sistema 0 senza esercitare un pensiero critico – sottolineano i professori Riva e Ubiali –. Se ci limitiamo ad accettare passivamente le soluzioni offerte dall’AI, potremmo perdere la nostra capacità di ragionare autonomamente e di sviluppare idee innovative. In un contesto sempre più dominato dall’automazione, è fondamentale che gli esseri umani continuino a interrogarsi e a mettere in discussione i risultati generati dall’AI”, sottolineano gli esperti.
Inoltre, la trasparenza e la fiducia nei sistemi di AI rappresentano un altro grande dilemma. Come possiamo essere sicuri che questi sistemi siano privi di bias o distorsioni, e che ci forniscano informazioni accurate e affidabili?
“La crescente tendenza ad utilizzare dati sintetici o elaborati artificialmente potrebbe compromettere la nostra percezione della realtà e influenzare negativamente il nostro processo decisionale”, avvertono i docenti.
L’intelligenza artificiale potrebbe addirittura dirottare le nostre capacità introspettive, sottolineano, ovvero l’atto di riflettere sui propri pensieri e sentimenti, un processo esclusivamente umano.
Le opportunità e la necessità di trasparenza, etica e fiducia
Tuttavia, con l’avanzamento dell’AI, potrebbe diventare possibile affidarsi a sistemi intelligenti per analizzare i nostri comportamenti e stati mentali. Questo ci porta a domandarci: fino a che punto possiamo veramente comprendere noi stessi attraverso l’analisi dell’AI? E può un’intelligenza artificiale replicare la complessità dell’esperienza soggettiva?
Pur con tutti questi interrogativi, il Sistema 0 offre anche enormi opportunità, rilevano i professori. Grazie alla sua capacità di processare dati complessi in modo rapido ed efficiente, l’AI può supportare l’umanità nell’affrontare problemi che sfuggono alle nostre capacità cognitive naturali.
Che si tratti di risolvere questioni scientifiche complesse, analizzare enormi dataset o gestire sistemi sociali intricati, l’AI potrebbe diventare un alleato insostituibile.
Per sfruttare al meglio il potenziale del Sistema 0, suggeriscono gli autori del lavoro, è urgente sviluppare linee guida etiche e responsabili per il suo utilizzo.
“Trasparenza, responsabilità e alfabetizzazione digitale sono gli elementi chiave per permettere alle persone di interagire in modo critico con l’AI”, avvertono Riva e Ubiali.
“Educare la popolazione su come navigare in questo nuovo ambiente cognitivo sarà fondamentale per evitare i rischi di un’eccessiva dipendenza da questi sistemi”, aggiungono.