Interfaz cerebro-máquina para convertir pensamientos en acciones

Un nuevo sistema de interfaz cerebro-máquina (BMI) portátil podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso aquellas que luchan contra el síndrome de enclaustramiento, cuando una persona está completamente consciente pero no puede moverse o comunicarse. Los investigadores combinaron electrónica inalámbrica y realidad virtual en un sistema Brain Machine Interface que permite al usuario imaginar una acción y controlar de forma inalámbrica una silla de ruedas o brazo robótico.

 

El equipo internacional multiinstitucional de investigadores dirigido por el laboratorio de Woon-Hong Yeo en el Instituto de Tecnología de Georgia, que incluyó a investigadores de la Universidad de Kent (Reino Unido) y la Universidad de Yonsei (República de Corea), describe este mes el nuevo sistema de IMC basado en imágenes motoras en la revista Advanced Science .

Los sistemas BMI son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es Electro Encephalo Graphy (EEG), que generalmente requiere un casco de electrodo engorroso y una red enredada de cables.

Estos dispositivos generalmente dependen en gran medida de geles y pastas para ayudar a mantener el contacto con la piel, requieren tiempos de preparación extensos, son generalmente inconvenientes e incómodos de usar. Los dispositivos también sufren a menudo de una mala adquisición de la señal debido a la degradación del material o artefactos de movimiento, el «ruido» auxiliar que puede ser causado por algo como rechinar los dientes o parpadear los ojos. Este ruido aparece en los datos cerebrales y debe filtrarse.

El sistema EEG portátil diseñado por Yeo, que integra electrodos imperceptibles de microagujas con circuitos inalámbricos suaves, ofrece una mejor adquisición de la señal. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones quiere realizar un usuario, por lo que el equipo integró un potente algoritmo de aprendizaje automático y un componente de realidad virtual para abordar ese desafío.

«Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto», señaló Yeo, director del Centro de Ingeniería y Interfaces Centradas en el Hombre de Georgia Tech del Instituto de Electrónica y Nanotecnología, y miembro del Petit Institute. para Bioingeniería y Biociencias.

El equipo de Yeo introdujo originalmente una interfaz cerebro-máquina EEG suave y portátil en un estudio de 2019 publicado en Nature Machine Intelligence . El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo artículo de investigación del equipo.

En el estudio de 2021, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos: sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información.

«Las indicaciones virtuales han demostrado ser muy útiles», dijo Yeo. «Aceleran y mejoran la participación del usuario y la precisión. Y pudimos registrar la actividad de imágenes del motor de forma continua y de alta calidad».

Según Mahmood, el trabajo futuro en el sistema se centrará en optimizar la colocación de electrodos y una integración más avanzada del electroencefalograma basado en estímulos, utilizando lo que han aprendido de los dos últimos estudios.

Más información en las publicaciones originales: 

Musa Mahmood et al, Wireless Soft Scalp Electronics and Virtual Reality System for Motor Imagery‐Based Brain–Machine InterfacesAdvanced Science (2021) (Musa Mahmood et al, Sistema de realidad virtual y electrónica del cuero cabelludo blando inalámbrico para interfaces cerebro-máquina basadas en imágenes motoras)DOI: 10.1002/advs.202101129

Musa Mahmood et al, Fully portable and wireless universal brain–machine interfaces enabled by flexible scalp electronics and deep learning algorithm, Nature Machine Intelligence (2019).(Musa Mahmood et al, Interfaces cerebro-máquina universales totalmente portátiles e inalámbricas habilitadas por la electrónica flexible del cuero cabelludo y el algoritmo de aprendizaje profundo)  DOI: 10.1038/s42256-019-0091-7

 

Fuente: Georgia Tech