Con la robotica collaborativa i robot sono usciti dalle gabbie per lavorare in ambienti dove è presente anche l’uomo. Tuttavia, l’interazione resta limitata e fatica a diffondersi in quei contesti caratterizzati da ambienti meno strutturati o dove vi è un alto grado di interazione con l’uomo.
L’intelligenza artificiale ha già permesso lo sviluppo di sistemi automatici all’interno di applicazioni industriali e non, con diversi livelli di autonomia. Tuttavia le applicazioni restano complesse quando viene richiesta una collaborazione che va oltre quella fisica che avviene tra un cobot e un operatore e che presuppone invece una condivisione di conoscenze e decisioni.
Di queste sfide, ma anche delle tante opportunità fornite dall’intelligenza artificiale, si è parlato nel corso di un convegno organizzato da Siri – Associazione Italiana di Robotica e Automazione –, che ha chiuso la terza giornata di BiMu, la biennale dedicata alla macchina utensile che si è svolta presso gli spazi di Fiera Milano a Rho dal 12 al 15 ottobre.
Indice degli argomenti
L’intelligenza artificiale permetterà di percepire il mondo in modo diverso
Uno dei principali limiti, affinché i robot possano entrare in ambienti come centri congressi oppure nelle nostre case, rimane nella percezione dell’ambiente, quindi nella capacità del robot di pianificare e prendere decisioni in autonomia.
“L’intelligenza artificiale ha fatto passi da gigante. Gli ultimi 10 anni hanno visto l’esplosione del Machine Learning, Deep Learning, della Computer Vision e delle capacità dei robot e oggi sappiamo che almeno a livello di ricerca vi sono soluzioni in grado di osservare e interpretare scene anche molto complesse“, spiega Matteo Matteucci, professore del Dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano.
I miglioramenti ottenuti nel campo della visione artificiale permettono alle macchine di interpretare situazioni più o meno complesse: dal riconoscimento della segnaletica stradale all’utilizzo in sistemi dove più robot devono interagire e coordinarsi tra loro.
Questi miglioramenti abilitano quel ciclo di percezione, ragionamento e azione necessario allo svolgimento di task sempre più complicate: grazie a informazioni che diventano sempre più ricche anche l’autonomia decisionale del robot può aumentare e si possono quindi considerare applicazioni in ambienti non strutturati, come ambienti ricchi di oggetti o con una forte variabilità (come quello agricolo) e ambienti in cui ci sono attori umani e dove quindi è richiesta anche la percezione della persona.
Collaborare anche a livello decisionale con le macchine grazie all’intelligenza artificiale
Una percezione che è necessaria a incrementare il livello di interazione e collaborazione che può esserci tra l’uomo e il robot. E in uno scenario dove l’uomo si troverà a condividere lo spazio quotidiano (come una strada, una casa, un ristorante, etc.) con le macchine, c’è bisogno di una collaborazione e comunicazione bidirezionale, affinché questi sistemi siano in grado di prendere decisioni autonome in maniera ottimale.
La sfida è quella quindi di oltrepassare dall’attuale livello di interazione, che va da un’interazione basica – dove il sistema automatizza alcuni task con una comunicazione unidirezionale con la persona e senza che ci sia alcuna forma di collaborazione –, a un’automazione che vede il robot svolgere i task in maniera autonoma con la supervisione dell’uomo, fino a quello che viene definito “human in the execution loop”, dove uomini e robot lavorano nello stesso ambiente ma non vi è condivisione a livello decisionale.
“Quello che si vuole realizzare nel rapporto cognitivo tra uomo e macchine è di condividere le informazioni anche a livello mentale. Questo pone delle sfide enormi dal punto di vista dell’intelligenza artificiale perché si tratta di avere delle collaborazioni a livello cognitivo, per esempio a livello di ragionamento e apprendimento tra uomini e macchine, ma è l’elemento che potrà portare a vere e proprie collaborazioni tra uomini e robot”, spiega Luca Iocchi professore all’Università Sapienza di Roma, Dipartimento di Ingegneria informatica, automatica e gestionale.
Per arrivare a questo tipo di collaborazione il robot deve essere in grado di potersi “mettere nei panni” della persona, saper ragionare quindi non solo su quello che vede nell’ambiente ma anche sulla persona stessa, esattamente come avviene nelle interazioni tra umani.
“Sembrano cose molto complesse, ma esistono applicazioni di queste tecniche in alcuni progetti di ricerca, come quello europeo AIPlan4EU, dove il robot collaborerà con le persone non solo a livello fisico, ma sarà in grado di imparare spostamenti nuovi, interagire con la persona ed essere istruito. Quello che vogliamo è aumentare la flessibilità dell’uso di questi robot nelle aziende grazie a una collaborazione efficace e immediata, senza la necessità da parte dell’operatore di avere una conoscenza dettagliata”, aggiunge.
La sfida all’interno delle fabbriche
Ma anche dentro le fabbriche il gradiente di interazione ora offerto dalla robotica collaborativa deve compiere ancora passi avanti affinché la robotica possa davvero liberare tutto il suo potenziale, soprattutto a livello di flessibilità e maggiore ergonomia dei processi.
Anche in questo caso è l’assenza del “modello dell’operatore” che rende difficile una vera collaborazione tra robot e uomo. In alcune aziende già sono presenti sistemi formati da anche diverse centinaia di robot che interagiscono tra loro. Un esempio è rappresentato da Amazon che in alcuni centri logistici utilizza sistemi robotici di questo tipo.
“Tuttavia, si tratta di ambienti molto ampi e ingegnerizzati. La sfida su cui dobbiamo lavorare è quindi quella di cercare una maggiore flessibilità e robustezza per utilizzare questi sistemi anche in ambienti meno ingegnerizzati e con la presenza umana”, spiega Alessandro Farinelli, professore presso il Dipartimento Informatico dell’Università di Verona.
La sfida per l’Intelligenza Artificiale è quindi anche nel coordinamento, ossia permettere a questi robot di collaborare con tanti altri robot, e al tempo stesso con gli operatori, su task molto complesse. Un coordinamento che richiede sia pianificazione che capacità di apprendimento per rispondere agli stimoli che vengono dall’ambiente, come eventi non previsti.
Se questo è difficile, ma possibile, nell’ambito dell’interazione multi-robot – grazie a tecniche come quella del reinforcement learning – la situazione si complica ulteriormente quando a questa equazione si aggiunge l’uomo.
“Non è una questione di scala, non servono reti più grandi e calcolatori più potenti, servono metodologie diverse che riescano in qualche modo a fare interagire gli operatori umani con i robot. Manca il modello dell’operatore”, aggiunge Alberto Finzi, professore dell’Università Federico II di Napoli, Dipartimento di Ingegneria Elettrica e Tecnologie dell’Informazione.
A questa barriera tecnologica se ne aggiungono molte altre, come hanno spiegato gli altri relatori del convegno, tra le quali: barriere economiche, quindi gli investimenti necessari per abilitare un maggiore utilizzo delL’intelligenza artificiale all’interno delle aziende; la mancanza di conoscenze di base; la disponibilità di metodi e dati affidabili.
Le sfide per arrivare, dentro e fuori le fabbriche, a una più profonda collaborazione tra uomo e robot sono quindi molteplici e interessano vari aspetti tecnologici – dalla percezione al controllo –, anche se sono principalmente di natura algoritmica.
Per affrontarle occorre promuovere la collaborazione tra il mondo accademico e quello industriale, come spiega Domenico Appendino, Presidente di Siri. “C’è un’eccellenza accademica e una industriale nel nostro Paese che spesso viaggiano ancora su due binari separati. Uno dei valori della nostra associazione è quello di cercare di mettere insieme questi attori”, conclude.