Primo robot allo specchio, consapevole del suo corpo in 3 ore

Osservandosi con videocamere, produce un'immagine di sé

Leonardo De Cosmo

Mettersi allo specchio ed esercitarsi da zero e in appena 3 ore, fino a prendere consapevolezza del proprio corpo: è quello che è riuscito a far fare a un braccio robotico il gruppo di ricerca della Columbia University di New York coordinato da Hod Lipson. Il risultato, pubblicato sulla rivista Science Robotics, rappresenta un importante avanzamento per i robot del futuro, capaci di interagire in modo 'naturale' con l'ambiente che li circonda.

"E' un approccio di ricerca molto interessante, che può portare in futuro allo sviluppo di quella che viene detta 'coscienza' autonoma delle macchine. Anche se non è affatto facile definire cosa sia realmente la coscienza per una macchina di certo la consapevolezza del proprio corpo ne è un aspetto chiave e rappresenta un grande risultato", ha commentato all’ANSA Massimo Bergamasco, direttore dell’Istituto di Intelligenza Meccanica della Scuola Superiore Sant'Anna di Pisa  Per noi umani la consapevolezza del proprio corpo è qualcosa che appare estremamente semplice e innata ma che in realtà richiede lungo apprendimento e la sviluppiamo solo attraverso l'esperienza, osservando gli altri e vedendoci allo specchio. Una capacità fondamentale per interagire con la realtà che ci circonda, ad esempio per muoversi tra ostacoli o prendere un oggetto senza toccarne altri, e chi fa sport sa bene quanto sia importante e difficile migliorarla. "Si tratta in realtà di una modellizzazione che può essere 'plastica', ossia modellabile e non così oggettiva. Sono tanti gli esperimenti che dimostrano come sia possibile alterare la percezione che abbiamo di noi stessi", ha detto Bergamasco.

Un qualcosa di analogo sono riusciti a far fare i ricercatori americani a un braccio robotico. Come fosse un neonato davanti a uno specchio, il braccio privo di dati sulla propria forma è stato circondato da 5 videocamere e per 3 ore si mosso in tutti i modi possibili. I dati dei movimenti e quelli delle telecamere sono poi stati analizzati e messi in correlazione dalla sua 'intelligenza', una rete deep neural, da cui ha preso 'coscienza' del proprio corpo senza alcun intervento umano. Una volta auto-istruito il robot è stato capace in autonomia di toccare oggetti evitando di urtarne altri e riuscirci anche con malfunzionamenti - indotti dai ricercatori - ad alcuni snodi del braccio. Si tratta di una capacità fondamentale perché i robot possano davvero imparare a interagire con l'ambiente che li circonda e che appare in qualche modo anche una prima forma di autocoscienza. "L'auto-modellazione è una forma primitiva di autocoscienza", ha detto Lipson. Ovviamente, ha precisato, qui è molto "banale rispetto a quella degli esseri umani, ma da qualche parte bisogna cominciare".

"Anche se embrionale è di certo molto interessante", ha commentato Bergamasco. "Perché se vogliamo integrare nelle macchine una sorta coscienza è necessario che nasca attraverso un'architettura che la faccia nascere 'dal basso'. E' necessario partire dalle percezioni, ossia dai dati che la macchina stessa rileva, non può certo essere frutto di una programmazione imposta dall'alto".

RIPRODUZIONE RISERVATA © Copyright ANSA