Son dos mujeres estadounidenses que participaron en estudios experimentales por separado. Les implantaron dispositivos que “leen” el cerebro. En qué consisten y cuáles son los desafíos para el futuro.
Por infobae.com
Problemas de salud como el ataque cerebrovascular o la esclerosis lateral amiotrófica (ELA) pueden alterar la capacidad de hablar como secuela. En los Estados Unidos, por separado, dos equipos de investigadores consiguieron colocar implantes de lectura cerebral que fueron mejorados mediante inteligencia artificial (IA).
Estos dispositivos lograron que dos personas con parálisis pudieran comunicarse con una precisión y rapidez sin precedentes. Ambos avances fueron publicados a través de dos estudios en la revista Nature.
En sus reportes, los equipos de investigación describieron las interfaces cerebro-ordenador que traducen señales neuronales en texto o palabras pronunciadas por una voz sintética.
Ese tipo de interfaces pueden decodificar el habla a 62 y 78 palabras por minuto, respectivamente. La conversación natural se produce a unas 160 palabras por minuto, pero las nuevas tecnologías son más rápidas que cualquier intento anterior.
“Ahora es posible imaginar un futuro en el que podamos devolver la conversación fluida a alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo bastante alta como para que se le entienda con fiabilidad”, afirmó Francis Willett, neurocientífico de la Universidad de Stanford, California, Estados Unidos y coautor de uno de los trabajos.
El científico Willett y sus colegas desarrollaron una interfaz para interpretar la actividad neuronal a nivel celular y traducirla a texto. La paciente fue Pat Bennett, de 67 años, quien fue diagnosticada con esclerosis lateral amiotrófica, una dolencia que provoca una pérdida progresiva del control muscular, con las consiguientes dificultades para moverse y hablar.
Los investigadores insertaron conjuntos de pequeños electrodos de silicio en partes del cerebro de Bennett que intervienen en el habla, un par de milímetros por debajo de la superficie.
Luego, entrenaron algoritmos de aprendizaje profundo para reconocer las señales únicas en el cerebro de la paciente cuando intentaba pronunciar varias frases utilizando un conjunto de vocabulario grande de 125.000 palabras y un conjunto de vocabulario pequeño de 50 palabras.
La IA decodifica palabras a partir de fonemas, las subunidades del habla que forman las palabras habladas. Para el vocabulario de 50 palabras, la interfaz funcionó 2,7 veces más rápido que una otra anterior de última generación y alcanzó una tasa de error de palabras del 9,1%.
La tasa de error se elevó al 23,8% para el vocabulario de 125.000 palabras. “Aproximadamente tres de cada cuatro palabras se descifran correctamente”, declaró Willett en una conferencia de prensa.
“Para las personas que no hablan, esto significa que pueden seguir conectadas con el mundo en general, tal vez seguir trabajando, mantener amistades y relaciones familiares”, contó la paciente Bennett.
Mientras tanto, Edward Chang, neurocirujano de la Universidad de California en San Francisco, y sus colegas contaron en su estudio que trabajaron con una mujer de 47 años llamada Ann, que perdió la capacidad de hablar tras sufrir un ataque cerebrovascular hace 18 años.
Utilizaron un método distinto al del equipo de Willett. Colocaron un rectángulo delgado como un papel que contenía 253 electrodos en la superficie de la corteza cerebral. La técnica, denominada electrocorticografía (ECoG), se considera menos invasiva y puede registrar la actividad combinada de miles de neuronas al mismo tiempo.
Lea nota completa Aquí