Daily Archives

One Article

Posted on

La prima mano bionica è Made in Italy, il primo passo verso i cyborg

La prima mano bionica è Made in Italy, il primo passo verso i cyborg

Probabilmente il nome Almerina Mascarello non vi dirà nulla. Questa signora fu vittima, nel 1993, di un incidente sul lavoro nel quale perse la mano sinistra. Fin qui nessuna novità, voi direte, per quanto questi fatti non dovrebbero mai capitare. L’aspetto straordinario è che su di lei per la prima volta è stata effettuata a distanza di una ventina d’anni una ricostruzione artificialeall’avanguardia che sostituì l’arto perso, mediante l’uso di una mano bionica.

Sembra la trama di un film di fantascienza, come il celebre “L’uomo da sei milioni di dollari” o la descrizione di Phil Coulson di Marvel Agents of Shield. Eppure, come spesso accade, ciò che in un primo momento viene definito fantascienza, nel giro di qualche decennio può diventare realtà. È esattamente ciò che è accaduto nell’ottobre 2016 al Policlinico Gemelli di Roma, dove è avvenuta l’operazione che avrebbe collegato la mano bionica alla donna.

Ma qual è la novità? In effetti di protesi ne abbiamo viste tante, ma ciò che ha del sensazionale è che, a differenza dei normali arti bionici che possiedono solo una via unilaterale di comunicazione (cioè siamo noi che diamo comandi alla protesi), in questo caso si è stabilita una connessione bilaterale in cui la mano è in grado di comunicarci forza e forma dell’oggetto con cui entra in contatto.

Questo piccolo gioiello è interamente made in Italy, essendo stato sviluppato all’istituto di Biorobotica della Scuola Superiore Sant’Anna di Pisa in collaborazione con ricercatori svizzeri e tedeschi. Ne abbiamo sentito parlare su molte  testate televisive nei mesi scorsi, ma oggi vogliamo andare più in profondità e spiegare i dettagli di quella che viene comunemente definita “cyber-hand”: la mano bionica.

Per poter avere una migliore comprensione della questione, iniziamo descrivendo come si faccia a controllare e comandare il nostro arto artificiale. Dal momento che la mano è in grado di comunicare con noi attraverso i neuroni, sembrerebbe logico aspettarsi che avvenga lo stesso per guidarla.

Eppure non è questo il caso. Non si è infatti ancora in grado di sfruttare il cervello per comandare la mano, in quanto risulta molto complesso replicare l’organizzazione della comunicazione efferente (dal cervello verso la periferia del corpo). In compenso, sono stati sviluppati molti altri modi per interfacciarsi con dispositivi di questo tipo; uno di questi utilizza le informazioni muscolari.

Tutto ciò è possibile grazie all’evoluzione del cosiddetto “machine learning”, che in pochi anni ha rivoluzionato gran parte del settore della ricerca scientifica. Grazie a questo sofisticato approccio, che prevede l’apprendimento automatico da parte della macchina, si è infatti in grado di tracciare delle linee di confine nei segnali muscolari, e classificare con ottima accuratezza i movimenti da eseguire. Il segnale elaborato viene trasmesso agli attuatori, muovendo così la mano a seconda delle nostre volontà. Si trattano, questi, di motori che prendono in ingresso un segnale elettrico per eseguire quindi un determinato movimento meccanico. Inoltre, la combinazione di più attuatori permette di poter eseguire movimenti più complessi definiti “primitive”. Questi permettono al dispositivo, per esempio, di raccogliere qualcosa, chiudere la “mano” o avvicinare due dita. [1] 

Tuttavia, in un meccanismo di questo tipo, per poter correggere i propri errori e raggiungere l’obiettivo richiesto, è necessario un feedback. Ed è qui la vera grande novità. La mano artificiale, infatti, è in grado di inviare informazioni tattili al cervello, ma per capire come avvenga questo processo bisogna innanzitutto imparare come riescano i neuroni a comunicare tra di loro. Come in tutti i linguaggi, ci sono regole e gerarchie da rispettare, e per poterle comprendere è necessario decodificare i messaggi con cui comunicano i neuroni.

Concentriamoci adesso sulla nostra mano biologica. Essa possiede sotto la pelle migliaia di recettori che possiamo dividere in quattro categorie principalisuperficiali e globali, a risposta veloce e a risposta lenta. Questi ultimi sono proprio quelli che, in base allo stimolo ricevuto, una volta superata una determinata soglia, inviano il segnale denominato “potenziale d’azione” o spike. Il potenziale d’azione è un evento che, nelle cellule del sistema nervoso, permette la trasmissione di informazioni, e ciò è possibile grazie a rapidi cambiamenti di carica elettrica attraverso la membrana dei neuroni. Consideriamo la presentazione di uno stimolo di durata di 10 millisecondi, ad esempio una piccola scossa elettrica. All’interno di questo intervallo temporale non si osserverà un solo spike, bensì una serie di spikes, detta treno.

La decodifica inizia qui: dobbiamo capire in che modo il nostro recettore comunichi col cervello. A tal proposito, esistono diversi codici di comunicazione, alcuni più semplici, come il numero di spikes all’interno dell’intervallo, ed altri più complessi, come i codici temporali. Questi ultimi prendono in considerazione il tempo esatto in cui è avvenuto lo spike oppure gli intervalli di distanza temporale tra spikes all’interno del treno. [2]

Ora che abbiamo compreso il linguaggio possiamo spostare la nostra attenzione sull’hardware (le componenti fisiche e meccaniche) e su come le informazioni vengano comunicate al cervello. Innanzitutto sono necessari dei trasduttori, cioè dei dispositivi in grado di convertire l’energia da una forma ad un’altra. Ai nostri scopi vengono utilizzati trasduttori detti piezoresistivi, i quali riescono a convertire l’energia meccanica in energia elettrica. [3]

Non finisce qui, però, perché per poter comunicare col cervello dobbiamo utilizzare anche noi lo stesso linguaggio, ed è perciò necessario trasformare questa corrente elettrica in spikes riconoscibili dai neuroni. Conseguentemente, si utilizzano quelli che vengono definiti modelli neuronali, ed in particolare una revisione del modello di Izhikevich. [4] In poche parole, questo modello prende come input la corrente elettrica, simulando le quattro categorie di recettori descritte in precedenza, la rielabora e fornisce come output il treno di spikes.

A questo punto occorre “solo” trasmettere il messaggio al cervello. Prendiamo quindi ciò che rimane delle terminazioni nervose in corrispondenza dell’amputazione, quelle che precedentemente erano collegate alla mano, e le connettiamo con la nostra mano bionica. Per farlo, utilizziamo un elettrodo transverso intrafasciculare multicanale, un dispositivo innovativo che, infilzato in un nervo periferico, permette di selezionare determinati assoni all’interno dei fascicoli (insiemi di fibre nervose), ed in questo modo il gioco è fatto.  Quasi fatto, a dire il vero, in effetti ancora non sappiamo a quale “strada” ci siamo collegati. Ma niente paura: con una piccola fase di mappatura siamo ora in grado di connettere ogni stimolo all’esatta regione di provenienza. La mappatura consiste in una serie di stimolazioni, necessarie per associare una regione di ricezione dei sensori ad un assone specifico, altrimenti si rischia che, ad esempio, toccando un mignolo, venga inviato al cervello un segnale che viene tradotto erroneamente come una sensazione tattile al pollice. [5]

Purtroppo questo collegamento col sistema nervoso periferico è ciò che presenta ancora qualche complicazione, e per tale ragione non si è riusciti a tenere la mano bionica connessa al corpo di Almerina per più di sei mesi. Tuttavia, si trattava solo di un prototipo e presto verrà sviluppato il prodotto definitivo con l’obiettivo di mantenere viva questa connessione per più anni.

In ogni caso siamo sulla buona strada, e questo risultato è già strabiliante. I ricercatori non si accontentano così facilmente, infatti nuovi studi sono stati intrapresi in modo da migliorare ancor più la mano artificiale. Chissà, forse in futuro potremmo forse realizzare anche un occhio bionico, portando passo dopo passo la fantascienza dei cyborg nei laboratori di ricerca, negli ospedali, e nella vita di tutti i giorni.

 

di Alessandro Marin Vargas

 

 

FONTI:

  1. Cipriani et al.: EMG-controlled prosthetic hand: user-prosthesis interaction, IEEE transactions on robotics, vol. 24, no. 1, february 2008.
  2. Rongala et al.: Neuromorphic artificial touch for categorization of naturalistic textures. IEEE transaction on neural networks and learning systems, vol. 28, no. 4, april 2017
  3. Oddo CM, Controzzi M, Beccai L, Cipriani C, Carrozza MC. 2011a. Roughness encoding for discrimination of surfaces in artificial active-touch. IEEE Transactions on Robotics 27:522–533. doi: 10.1109/TRO.2011.2116930