Milo è un robot umanoide capace di simulare emozioni ed espressioni grazie al suo vasto assortimento di sensori e attuatori. Sviluppato in Texas dall’azienda RoboKind, questa tipologia di robotica applicata nel settore biomedicale ha aperto nuovi scenari per lo studio dell’attenzione e dell’apprendimento in soggetti appartenenti allo spettro autistico.
Perchè l’autismo?
Accostare il mondo della robotica a quello dei sentimenti umani può sembrare una contraddizione, ma ci sono bambini che possono trarre giovamento da un piccolo amico robotico. L’autismo è una condizione che prevede anomalie nella percezione e nell’espressione delle emozioni, oltre che una compromissione marcata della capacità di interazione sociale. Si parla di spettro autistico per indicare le molteplici e complesse sfaccettature di questa condizione, rendendo ogni individuo un caso unico.
Con Milo si è cercato di catturare l’attenzione di questi bambini, che spesso non riescono a mantenere un contatto visivo prolungato. Grazie ai molteplici sensori ed attuatori presenti nel viso di Milo, diversi soggetti hanno migliorato le proprie capacità comunicative ed acquisito una maggiore sicurezza nei confronti dell’apprendimento e dello sviluppo delle proprie capacità sociali.
Il software che ha reso possibile Milo
Milo si appoggia su una piattaforma software chiamata Robots4Autism©, un supporto informatico che include diversi training per le più critiche abilità sociali. Il supporto visivo è realizzato grazie allo schermo touch collocato sul petto di questo piccolo robot, dove simboli e parole vengono presentate in base al protocollo scelto dal terapista o dal genitore. Le espressioni facciali sono state volutamente esagerate e rallentate, per insegnare ai soggetti a captare al meglio il linguaggio non verbale insito nella maggior parte delle interazioni sociali.
Ma non bisogna arrivare fino in Texas per trovare ottimi esempi di social robotics, perché anche in territorio italiano, presso l’Università di Pisa, è stato sviluppato un robot umanoide capace di simulare un vasto repertorio di emozioni.
FACE
FACE ha sei stati emotivi di base: rabbia, felicità, tristezza, paura, sorpresa e disgusto. Questo robot umanoide è stato realizzato da un team di ricercatori del Centro di Ricerca “E. Piaggio” dell’Università di Pisa , guidati dal prof. Danilo De Rossi.
Presso l’IRCCS Fondazione Stella Maris sono stati svolti diversi esperimenti con bambini affetti da autismo, chiamati a interpretare le espressioni facciali del robot sotto la guida di un terapeuta. I dati raccolti dall’interazione non verbale dei bambini con il robot serviranno a mettere a punto miglioramenti consistenti nei protocolli riabilitativi. L’interazione sociale è resa possibile da telecamere poste negli occhi e microfoni nelle orecchie, che permettono di orientare lo sguardo verso l’interlocutore umano, analizzarne le espressioni facciali e inferire il suo stato emotivo.
Questi bambini hanno difficoltà a seguire la complessità sociale e ad interpretarla. FACE impara e si evolve con loro.
Danilo De Rossi
Il progetto è stato sviluppato in stretta collaborazione con il laboratorio di bioingegneria delle interazioni sociali.
Le sfide per il futuro
Questa tipologia di robotica applicata in campo biomedicale pone nuove sfide ai ricercatori del domani, ma soprattutto ci fa capire quanto i confini della coscienza umana siano ancora poco chiari. Ancora oggi non è ben chiaro quale legame si instauri tra un bambino appartenente allo spettro autistico ed un robot umanoide, ma è sicuramente un passo avanti nel grande puzzle che costituisce l’autismo. Potremmo essere davanti ad una rivoluzione del metodo di insegnamento per questi individui, ma soprattutto ad un nuovo modo di concepire la neurodiversità.
Insegnami in modi diversi, così sarò in grado di imparare.
Cíntia Leão Silva