A tres sujetos les hicieron oír un podcast del New York Times y monólogos de un popular programa anglosajón mientras les escaneaba el cerebro. Con un decodificador diseñado por ellos, científicos estadounidenses lograron convertir las gráficas del escáner cerebral no solo en frases completas, sino en textos que reproducen con gran fidelidad lo que habían oído. Según sus resultados, publicados hoy en la revista científica Nature Neuroscience, este descodificador que han llamado «semántico» fue capaz también de verbalizar lo que pensaban y, aún más, lo que les pasaba por la cabeza mientras veían cine mudo.
Con este procedimiento, el descodificador propone secuencias de palabras «y para cada una de esas palabras que pensamos que podrían venir a continuación, podemos medir lo bien que suena esa nueva secuencia y, al final, vemos si coincide con la actividad cerebral que observamos», detalla.
A este descodificador lo han llamado semántico y con acierto. Anteriores interfaces registraban la actividad cerebral en las áreas motoras que controlan la base mecánica del habla, es decir, los movimientos de boca, laringe o lengua. Este científico está «absolutamente convencido de que la información semántica se utilizará en las interfaces cerebro-máquina para hablar en el futuro».
Arnau Espinosa, nanotecnólogo de la fundación Wyss Center , publicó el año pasado un trabajo sobre una ICB con un enfoque totalmente diferente que permitió comunicarse a un enfermo de ELA. Sobre la actual, recuerda que «sus resultados no son aplicables hoy en día a un paciente, necesitas un equipo de resonancia magnética que vale millones y que ocupa una sala de un hospital; pero lo que han conseguido no lo había logrado nadie antes».
Para leer la noticia completa pinche aquí. Juan Carlos Luengo Sánchez 1ºM
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.