El hombre permanecía sentado en la silla, mirando fijamente un trozo de pastel en la mesa que tenía delante. Los cables sobresalían de los implantes de electrodos en su cerebro. A su lado había dos brazos robóticos gigantes, cada uno más grande que la parte superior de su cuerpo. Uno sostenía un cuchillo y el otro un tenedor.

«Corta y come la comida. Mueve la mano derecha hacia adelante para empezar», ordenó una voz robótica.

El hombre se concentró en mover su brazo derecho, parcialmente paralizado, hacia delante. Su muñeca apenas se movió, pero la mano derecha robótica navegó suavemente hacia delante, colocando la punta del tenedor cerca del pastel. Otro ligero movimiento de su mano izquierda envió el cuchillo hacia delante.

Varias órdenes más tarde, el hombre abrió alegremente la boca y devoró el bocado, cortado a su gusto con la ayuda de sus avatares robóticos. Hacía aproximadamente 30 años que no podía alimentarse por sí mismo.

La mayoría de nosotros no se lo piensa dos veces a la hora de utilizar los dos brazos simultáneamente: comer con cuchillo y tenedor, abrir una botella, abrazar a un ser querido, descansar en el sofá manejando un mando de videojuegos. La coordinación es algo natural para nuestro cerebro.

Sin embargo, reconstruir este movimiento sin esfuerzo entre dos extremidades ha obstaculizado interfaz cerebro-máquina (IMC) durante años. Uno de los principales obstáculos es el nivel de complejidad: según una estimación, el uso de extremidades robóticas para las tareas de la vida cotidiana puede requerir 34 grados de libertad, lo que supone un reto incluso para las configuraciones de IMC más sofisticadas.

A new studydirigido por el Dr. Francesco V. Tenore, de la Universidad Johns Hopkins, ha encontrado una brillante solución. Los robots son cada vez más autónomos gracias al aprendizaje automático. En lugar de tratar las extremidades robóticas como mera maquinaria, ¿por qué no aprovechar su sofisticada programación para que humanos y robots puedan compartir los controles?

«Este enfoque de control compartido pretende aprovechar las capacidades intrínsecas de la interfaz cerebro-máquina y del sistema robótico, creando un entorno «lo mejor de ambos mundos» en el que el usuario puede personalizar el comportamiento de una prótesis inteligente». dijo Dr. Francesco Tenore.

Al igual que un sistema de vuelo automatizado, esta colaboración permite al ser humano «pilotar» el robot centrándose sólo en las cosas más importantes -en este caso, el tamaño de cada trozo de pastel- y dejando las operaciones más mundanas al robot semiautónomo.

La esperanza es que estos «sistemas neurorobóticos» -una verdadera fusión mental entre las señales neuronales del cerebro y los algoritmos inteligentes de un robot- puedan «mejorar la independencia y la funcionalidad del usuario», afirma el equipo.

Doble problema

El cerebro envía señales eléctricas a nuestros músculos para controlar el movimiento y ajusta esas instrucciones en función de la información que recibe; por ejemplo, las que codifican la presión o la posición de una extremidad en el espacio. Las lesiones de la médula espinal u otras enfermedades que dañan esta autopista de señalización cortan el mando del cerebro sobre los músculos, lo que conduce a la parálisis.

Las IMC construyen esencialmente un puente sobre el sistema nervioso lesionado, permitiendo que fluyan las órdenes neuronales, ya sea para operar miembros sanos o prótesis conectadas. Desde la recuperación de la escritura y el habla hasta la percepción de estímulos y el control de miembros robóticos, las IMC han allanado el camino hacia la recuperación de la vida de las personas.

Sin embargo, la tecnología ha estado plagada de un preocupante escollo: el doble control. Hasta ahora, el éxito de las IMC se ha limitado en gran medida a mover una sola extremidad, ya sea corporal o de otro tipo. Sin embargo, en la vida cotidiana necesitamos ambos brazos para las tareas más sencillas, un superpoder ignorado que los científicos llaman «movimientos bimanuales».

Ya en 2013, el Dr. Miguel Nicolelis, pionero del IMC en la Universidad de Duke, presentó la primera prueba que el control bimanual con IMC no es imposible. En dos monos implantados con microarrays de electrodos, las señales neuronales de unas 500 neuronas fueron suficientes para ayudar a los monos a controlar dos brazos virtuales utilizando sólo sus mentes para resolver una tarea informatizada a cambio de una (literalmente) jugosa recompensa. Aunque es un primer paso prometedor, los expertos de entonces se preguntó si la configuración podría funcionar con actividades humanas más complejas.

Mano amiga

El nuevo estudio adoptó un enfoque diferente: el control compartido en colaboración. La idea es sencilla. Si el uso de señales neuronales para controlar ambos brazos robóticos es demasiado complejo para los implantes cerebrales por sí solos, ¿por qué no permitir que la robótica inteligente se encargue de parte de la carga de procesamiento?

En la práctica, los robots se programan primero para realizar varios movimientos sencillos, dejando al mismo tiempo espacio para que el humano controle aspectos específicos en función de sus preferencias. Es como un tándem de robot y humano: la máquina pedalea a distintas velocidades según sus instrucciones algorítmicas mientras el hombre controla el manillar y los frenos.

Para configurar el sistema, el equipo entrenó primero un algoritmo para descodificar la mente del voluntario. El hombre de 49 años sufrió una lesión medular unos 30 años antes de las pruebas. Todavía tenía un movimiento mínimo en el hombro y el codo y podía extender las muñecas. Sin embargo, su cerebro había perdido hace tiempo el control de sus dedos, lo que le privaba de cualquier control motor fino.

El equipo implantó primero seis micromatrices de electrodos en varias partes de su córtex. En el lado izquierdo de su cerebro -que controla su lado dominante, el derecho- insertaron dos matrices en las regiones motoras y sensoriales, respectivamente. Las regiones cerebrales correspondientes, que controlan su mano no dominante, recibieron una matriz cada una.

A continuación, el equipo pidió al hombre que realizara una serie de movimientos de la mano lo mejor posible. Cada gesto -flexionar la muñeca izquierda o derecha, abrir o pellizcar la mano- se asignó a una dirección de movimiento. Por ejemplo, flexionar la muñeca derecha mientras se extiende la izquierda (y viceversa) correspondía a un movimiento en dirección horizontal; abrir las dos manos o pellizcarlas codifica el movimiento vertical.

Al mismo tiempo, el equipo recogió señales neuronales que codificaban cada movimiento de la mano. Los datos se utilizaron para entrenar un algoritmo que descodificara el gesto deseado y accionara el par de brazos robóticos externos de ciencia ficción, con un éxito aproximado del 85%.

Que se coma la tarta

Los brazos robóticos también recibieron cierto entrenamiento previo. Mediante simulaciones, el equipo dio a los brazos una idea de dónde estaría el pastel en el plato, dónde se colocaría el plato en la mesa y a qué distancia aproximada estaría el pastel de la boca del participante. También afinaron la velocidad y el rango de movimiento de los brazos robóticos; al fin y al cabo, nadie quiere ver a un brazo robótico gigante agarrando un tenedor puntiagudo volando hacia tu cara con un trozo de tarta colgando y destrozado.

En esta configuración, el participante podía controlar parcialmente la posición y la orientación de los brazos, con hasta dos grados de libertad en cada lado, lo que le permitía, por ejemplo, mover cualquier brazo de izquierda a derecha, de adelante hacia atrás o rodar de izquierda a derecha. Mientras tanto, el robot se encargaba del resto de las complejidades del movimiento.

Para ayudar aún más a la colaboración, una voz robótica iba diciendo cada paso para ayudar al equipo a cortar un trozo de pastel y llevarlo a la boca del participante.

El hombre hizo el primer movimiento. Concentrándose en el movimiento de su muñeca derecha, posicionó la mano robótica derecha hacia el pastel. El robot se encargó entonces de mover automáticamente la punta del tenedor hacia el pastel. El hombre podía entonces decidir la posición exacta del tenedor mediante controles neuronales previamente entrenados.

Una vez ajustado, el robot movió automáticamente la mano que empuñaba el cuchillo hacia la izquierda del tenedor. El hombre volvió a hacer ajustes para cortar el pastel al tamaño deseado, antes de que el robot lo cortara automáticamente y se lo llevara a la boca.

«Consumir el pastel era opcional, pero el participante optó por hacerlo dado que estaba delicioso», dijeron los autores.

El estudio contó con 37 pruebas, la mayoría de ellas de calibración. En total, el hombre utilizó su mente para comer siete bocados de pasteles, todos de «tamaño razonable» y sin dejar caer ninguno.

Desde luego, no es un sistema que vaya a llegar a tu casa en breve. Basado en un gigantesco par de brazos robóticos desarrollados por DARPA, la configuración requiere amplios conocimientos preprogramados para el robot, lo que significa que sólo puede permitir una única tarea en un momento dado. Por ahora, el estudio es más bien una prueba de concepto exploratoria sobre cómo combinar las señales neuronales con la autonomía del robot para seguir ampliando las capacidades de la IMC.

Pero como prótesis cada vez más inteligentes y asequibles, el equipo mira hacia el futuro.

«El objetivo final es una autonomía ajustable que aproveche cualquier señal de IMC disponible para

su máxima eficacia, permitiendo que el humano controle los pocos DOF [grados de libertad] que influyen más directamente en la realización cualitativa de una tarea, mientras el robot se encarga del resto», afirma el equipo. Futuros estudios explorarán -y ampliarán- los límites de estas combinaciones mentales entre humanos y robots.

Crédito de la imagen: Laboratorio de Física Aplicada Johns Hopkins