Innovazione industriale

Spatial computing: cos’è, cosa permette di fare

Nello spatial computing oltre alla centralizzazione delle informazioni, vengono eseguite anche delle operazioni a livello di edge computing, rendendo di fatto gli oggetti autonomi nelle loro attività, dando loro una consapevolezza spaziale

Pubblicato il 22 Dic 2020

Mario Pucci

Mp consulting

spatial computing


I concetti associati all’IoT ci hanno portato a conoscere le innumerevoli capacità di connessione e interconnessione degli oggetti; è ora però di fare un passo avanti fornendo agli oggetti la consapevolezza della loro posizione nello spazio e nell’ambiente circostante. Gli oggetti in questo modo non solo comunicano fra loro scambiandosi dati “telemetrici” ma assumono anche una consapevolezza spaziale che permette loro di interagire con il mondo, gli oggetti circostanti e gli esseri umani. Se parlassimo solo di essere umani, potremmo sicuramente riferirci a termini quali propriocezione o cinestesia. In questo caso parliamo di spatial computing.

L’evoluzione delle tecnologie immersive

Lo spatial computing rientra di diritto fra le cosiddette tecnologie immersive quali in primis la VR e l’AR in quanto consente ai singoli oggetti non solo di estendere e percepire la realtà circostante ma di attuare una vera e propria fusione fra il mondo reale e una sua rappresentazione digitale: estrapolando il concetto dal paradigma dell’Industry 4.0, potremmo affermare che l’ambito di azione degli oggetti viene rappresentato da un digital twin dello spazio reale circostante che, come vedremo in seguito durante l’esposizione di alcuni significativi use case, viene integrato con gli esseri viventi siano questi umani o meno.

Già oggi nell’ambito dell’Industry 4.0, giusto per fare alcune considerazioni di merito, gli oggetti connessi sono in grado di interagire tra di loro e operare in base a misurazioni telemetriche (per i concetti di base sulla telemetria e la sensoristica associata); in questo contesto però, tutta la logica di funzionamento viene demandata a un sistema centralizzato che, raccogliendo le informazioni ricevute dagli oggetti in monitoraggio, determina le azioni per gli attuatori.

Nel caso dello spatial computing invece, oltre alla centralizzazione delle informazioni, vengono anche eseguite delle operazioni a livello di edge computing rendendo di fatto gli oggetti autonomi nelle loro attività. Inoltre, si passa da rilevazioni Sensor-based (ovvero attivate sulla base del valore registrato da una serie di sensori) ad attività Vision-Based (cioè attivate da quello che l’oggetto percepisce dell’ambiente circostante).

spatial computing

La localizzazione nello spatial computing

Prima di introdurre quei casi d’uso più significativi (non solo in ambito industriale), è necessario definire grazie a quali tecnologie gli oggetti possono acquisire questa “consapevolezza” spaziale ovvero definire la loro localizzazione all’interno del digital twin dell’ambiente: si passa da tecnologie ultra collaudate e diffuse alle più innovative e promettenti.

  • GPS: si tratta della tecnologia di localizzazione più diffusa ed economica e viene riportata solo come riferimento tecnologico; paga lo scotto di essere utilizzabile esclusivamente all’aperto e comunque con delle risoluzioni non accettabili per il contesto dello spatial computing.
  • Bluetooth: e in particolare BLE (Bluetooth Low Energy) è una tecnologia a radiofrequenza che potrebbe avere un utilizzo nel contesto in esame per le valutazioni di prossimità; pur non permettendo una vera e propria localizzazione, permette all’oggetto di avere una valutazione dell’area di presenza nell’ambiente con una precisione di circa 2/3 metri in funzione dell’hardware e dell’algoritmo di trilaterazione utilizzato.
  • UWB: tecnologia a radiofrequenza; sicuramente una delle tecnologie più apprezzabili in ambito spatial computing (ricordiamo che permette di determinare la posizione con una precisione decimetrica) anche se ancora piuttosto costosa e poco diffusa.
  • Telecamere RGB e RGB-D: l’adozione di una telecamera RGB (Red, Green, Blu quindi a colori) rappresenta un primo passo verso l’analisi Vision-based che, in abbinamento alle sempre più presenti metodologie legate alla AI (Artificial Intelligence), permette di raggiungere risultati inavvicinabili con altre tecnologie. In questo contesto anziché una mera misurazione topologica, viene fatta una mappatura visuale dell’ambiente circostante che permette l’individuazione di altri elementi con i quali è possibile interagire. L’aggiunta della lettera D (Depth, profondità ottenuta tramite differenti tecnologie – la più utilizzata è la Kinect – in funzione della tipologia di ambiente e dello scopo della rilevazione) consente una vera e propria mappatura 3D dell’ambiente circostante che viene utilizzata non solo ai fini della localizzazione ma anche per la tracciatura dei percorsi di movimento dei robot, la guida autonoma e il tracciamento/riconoscimento delle persone.
  • Lidar: acronimo di LIght Detection And Ranging (in alcuni contesti anche come Laser Imaging), è una tecnologia ottica che, misurando il tempo di ritorno di un segnale trasmesso, determina la distanza (ma non solo visto che è possibile, ad esempio, determinare anche la geometria) dell’oggetto riflettente con un’altissima risoluzione determinata appunto, dall’estremamente bassa lunghezza d’onda del laser

Alcune applicazioni dello spatial computing

Ad oggi le applicazioni dello spatial computing sono limitate e coprono essenzialmente campi quali la guida autonoma (sia per i veicoli passeggeri di nuova generazione che per i mezzi utilizzati per la grande logistica), la robotica (permettendo anche di ridurre le superfici dedicate alla produzione grazie a una minor distanza fra i bracci robotici che possono quindi lavorare sincronizzati in spazi ridotti) e la progettazione immersiva (ovvero la progettazione di macchine e/o loro parti avendo già a disposizione una rappresentazione 3D dell’ambiente operativo).

Ma quali sono gli scenari futuri, anche diversi dall’ambiente industriale, in cui lo spatial computing assumerà una rilevanza di primo piano? Molti sono i progetti in corso (che coinvolgono figure professionali di ogni tipo, progettisti, programmatori, designer ed esperti di interfacce uomo-macchina e macchina-macchina) e tante sono le “visioni” legate al futuro di questa metodologia che, per inciso, è ancora in una fase embrionale.

  • In ambito healthcare, in particolare per quello che riguarda gli anziani e i diversamente abili, si identificano scenari rappresentativi di come gli oggetti di uso quotidiano interagiscono con la persona rilevandone la presenza, alcuni parametri vitali o situazioni anomale quali la caduta. Pensiamo ad esempio a un tavolo che si sposta al passaggio di una persona con difficoltà deambulatorie o a una telecamera che richiede soccorso per una persona caduta e attiva la rilevazione dei parametri vitali inviandone i risultati ai medici in arrivo;
  • Per quanto riguarda l’ambito della logistica, l’interazione fra operatori e veicoli di movimentazione può salire ad un livello superiore rispetto a quanto avviene oggi: l’utilizzo di sistemi Vision-based permette non solo di evitare situazioni di pericolo ma anche di prevederle avendo una percezione dell’ambiente operativo più ampia di quanto disponibile oggi a mezzo di sensori. Un mezzo operativo non sarà quindi solo avvisato della presenza di un ostacolo da parte di questo (es. un operatore dotato di un opportuno trasmettitore) ma sarà in grado anche di rilevarlo in autonomia misurando anche distanza, velocità e direzione;
  • Nell’industria, viene sempre più enfatizzato il rapporto uomo-macchina-ambiente, ad esempio modificando l’attività delle macchine dipendentemente dalla presenza dell’operatore (es. a giri ridotti per ridurre il rumore) o dalla sua posizione al di fuori di una predefinita area di sicurezza. Anche qui, non solo le macchine ricevono segnalazioni, ma sono in grado di auto-acquisire i dati di cui necessitano per una ottimizzazione della produzione, un significativo aumento della sicurezza e un miglioramento generale del processo produttivo.

Conclusioni

Viste tutte le meraviglie prospettate dalla spatial computing, perché siamo solo a una fase “progettuale”? Si tratta di un problema di adozione della tecnologia. Se la diffusione in ambito consumer delle innovative soluzioni di AR e VR per smartphone sono state rapidissime, lo stesso non può avvenire in ambito Enterprise prima di tutto perché devono essere elaborati business plan specifici e individuati i ROI e, in second’ordine, viene richiesta una spinta integrazione fra una moltitudine di tecnologie differenti che, per essere ampiamente adottate, devono necessariamente far parte di un ambiente omogeneo e coordinato.

Video: Simulazione di un sistema di spatial computing

Valuta la qualità di questo articolo

P
Mario Pucci
Mp consulting

Articoli correlati

Articolo 1 di 5