En el banquete de boda de Ann Johnson hace 20 años, su don de la palabra quedó patente.
Por Clarín
En un entusiasta brindis de 15 minutos, bromeó diciendo que había corrido hacia el altar, se preguntó si el programa de la ceremonia debería haber dicho “flutist” o “flautit” (N de R: Los estadounidenses suelen utilizar flutist. En las variedades del inglés de fuera de Norteamérica, flautista es más común. ). y reconoció que estaba “acaparando el micrófono”.
Sólo dos años después, Johnson -entonces profesora de 30 años, entrenadora de voleibol y madre de un bebé- sufrió un catastrófico derrame cerebral que la paralizó y la dejó incapacitada para hablar.
El miércoles, los científicos informaron de un notable avance para ayudarla a ella y a otros pacientes a volver a hablar.
En un hito de la neurociencia y la inteligencia artificial, unos electrodos implantados descodificaron las señales cerebrales de Johnson mientras intentaba decir frases en silencio.
La tecnología convirtió sus señales cerebrales en lenguaje escrito y vocalizado y permitió que un avatar en una pantalla de ordenador pronunciara las palabras y mostrara sonrisas, labios fruncidos y otras expresiones.
La investigación, publicada en la revista Nature, demuestra que es la primera vez que se sintetizan directamente palabras habladas y expresiones faciales a partir de señales cerebrales, según los expertos.
Para seguir leyendo, clic AQUÍ.