Logo dell'UIC Logo TUV

Unione Italiana dei Ciechi e degli Ipovedenti ETS - APS

 

Il Progresso

torna alla visualizzazione del numero 6 del Il Progresso

Numero 6 del 2022

Titolo: Innovazione- Il robot bambino iCub diventa l'avatar di un essere umano (a 300 km di distanza)

Autore: Redazionale


Articolo:
(da «focus.it» del 16 marzo 2022)
L'Iit ha provato per la prima volta un sistema di tele-esistenza sul robot iCub: Il successo dell'esperimento getta le basi per nuovi studi su futuri impieghi di avatar robotici
Ricordate iCub, il robot-bambino messo a punto dall'Istituto Italiano di Tecnologia? Nel frattempo è arrivato alla sua terza versione e i suoi «papà» hanno pensato di testarlo per la prima volta come avatar fisico di un essere umano, mettendo alla prova il controllo virtuale a distanza delle sue capacità: muoversi nello spazio, manipolare oggetti, percepire stimoli e interagire verbalmente e fisicamente con le persone e l'ambiente. L'esperimento è stato condotto qualche mese fa dal team di ricercatori e ricercatrici del laboratorio Artificial and Mechanical Intelligence coordinato da Daniele Pucci dell'Istituto Italiano di Tecnologia, in collaborazione con il Padiglione Italia «Comunità Resilienti» alla 17. Mostra Internazionale di Architettura - La Biennale di Venezia (22 maggio - 21 novembre 2021), promosso dalla Direzione Generale Creatività Contemporanea del Ministero della Cultura e curato dall'Architetto Alessandro Melis.
...Ma «vedo» a Venezia
Con questo sistema, l'operatore può anche «vedere» ciò che il robot sta vedendo a centinaia di chilometri di distanza. Gli occhi di iCub 3, infatti, sono in realtà telecamere che trasmettono le immagini al visore dell'operatore. Il quale, grazie a un sistema di microfoni, può anche «ascoltare» ciò che il robot sta ascoltando. Questo consente di creare una piena comunicazione verbale tra il robot e le persone che incontra. L'utente, infine, indossa anche guanti sensorizzati che tracciano i movimenti della mano e gli consentono di controllare le dita del robot e di manipolare in modo accurato gli oggetti a distanza. L'esperimento della tele-esistenza, condotto a Venezia, fa parte del programma del team coordinato da Daniele Pucci che punta a sviluppare in futuro robot umanoidi che possano essere avatar degli esseri umani, consentendo per esempio di lavorare da remoto in luoghi pericolosi per la salute umana o inaccessibili, ma anche di abilitare al lavoro o dare nuove prospettive di presenza a distanza a persone con disabilità.
La tele-esistenza
Durante l'esperimento iCub 3 ha visitato gli spazi del Padiglione Italia a Venezia, eseguendo i comandi impartiti da un operatore che si trovava a Genova, consentendo a quest'ultimo di essere «trasportato» immersivamente in un'altra realtà senza muoversi dal laboratorio. Ciò è stato possibile grazie al sistema di tele-esistenza sviluppato da Iit, che permette di mettere in collegamento (con un ritardo di comunicazione di circa 25 millisecondi e utilizzando una comune fibra ottica) l'utente a Genova con il robot a Venezia. Per un controllo accurato del robot, l'operatore ha indossato una tuta sensorizzata - ideata e realizzata da Iit nell'ambito del progetto europeo AnDy e applicata con Inail all'interno del progetto ergoCub. La tuta si chiama «iFeel» e ha due funzioni: tracciare i movimenti dell'operatore per trasmetterli al robot, e contemporaneamente fornire il «feedback aptico», cioè le sensazioni di tipo tattile, all'operatore che la indossa, affinché possa sentire quando e dove il robot viene toccato.
Cammino a Genova...
Nella sede Iit di Genova l'operatore camminava sul posto, all'interno di una piattaforma di realtà virtuale, che rilevava la direzione e la velocità della camminata, nella quale era in grado di muovere liberamente la parte inferiore (gambe e piedi) e superiore del corpo (braccia e mani). Tutti questi movimenti venivano dunque «catturati» dalla tuta iFeel e tradotti in input che successivamente erano inviati al robot iCub che, a Venezia, li riproduceva. Ma il «controllo del movimento», non ha riguardato solo gambe e braccia. L'operatore, infatti, indossava un visore che tracciava la sua mimica facciale e i movimenti della testa, che venivano anch'essi trasferiti all'avatar e riprodotti con precisione: per esempio quando l'operatore annuiva anche il robot annuiva, quando l'operatore chiudeva gli occhi o muoveva le sopracciglia, il robot faceva altrettanto, aiutandosi anche con l'accensione di led che arricchiscono la comunicazione tramite le espressioni del viso, trasmettendo la sensazione di stupore, felicità, tristezza... e migliorando l'interazione con gli esseri umani.



Torna alla pagina iniziale della consultazione delle riviste

Oppure effettua una ricerca per:


Scelta Rapida