miércoles, julio 31, 2019

Científicos financiados por Facebook traducen señales cerebrales a texto

Especialistas desarrollaron algoritmos de aprendizaje automático capaces de descodificar sonidos del habla específicos.
 BSIP - Universal Images Group - Gettyimages.ru






Una investigación financiada por Facebook ha permitido que científicos de la Universidad de California en San Francisco (Estados Unidos) descifren por primera vez palabras y frases a partir de señales cerebrales en tiempo real, una técnica que se podría usar para conocer qué intentaría decir una persona convaleciente, según un estudio publicado este martes en la revista Nature.

Este avance permitiría ayudar a pacientes que hayan perdido su capacidad de hablar de manera parcial o total debido a parálisis faciales a raíz de derrames cerebrales, lesiones de la médula espinal, enfermedades neurodegenerativas u otras afecciones y mantengan intactas las regiones del cerebro que controlan los músculos de mandíbula, labios, lengua y laringe.

La inteligencia artificial logra descifrar
y verbalizar las ondas cerebrales
Hoy en día, las personas que se encuentran en esa situación controlan "una interfaz de computadora" mediante "movimientos oculares residuales o contracciones musculares" para "deletrear palabras muy lentamente" pero, "en muchos casos", la información para producir un discurso fluido "todavía está presente en sus cerebros" y "solo" necesitarían "la tecnología que les permita expresarla", explicó el neurocirujano Edward Chang, uno de los autores del estudio.

Descodificación precisa

Estos especialistas colocaron un pequeño parche de electrodos colocado en la superficie de los cerebros de tres pacientes con epilepsia que se iban a someter a neurocirugías para identificar el origen de sus ataques y desarrollaron un conjunto de algoritmos de aprendizaje automático equipados con modelos de habla fonológica capaces de descodificar sonidos del habla específicos de la actividad cerebral de una persona.

Los voluntarios tuvieron que contestar a diversas preguntas y leer una lista de potenciales respuestas. Tras varios ensayos, los algoritmos de aprendizaje lograron identificar de manera casi inmediata qué pregunta había escuchado el paciente y cuál era su respuesta —con una precisión del 75 % y el 61 %, respectivamente— solo a partir de señales cerebrales.

Mientras que la mayoría de iniciativas anteriores solo se centraban en el discurso del paciente, estos expertos mostraron "el valor de descifrar "ambas partes de una conversación", detalló Chang. Asimismo, "es la primera vez que se utiliza este enfoque para identificar palabras y frases habladas", aunque "con un vocabulario muy limitado", destacó David Moses, coautor del estudio.

¿Un modo de revelar los pensamientos?

Este sistema detecta las señales cerebrales que controlan la 'maquinaria' del habla, pero en ciertos pacientes con lesiones o enfermedades neurodegenerativas podría ser insuficiente, porque requerirían formas más sofisticadas de descodificar las señales del cerebro.
Leer la mente por medio de una máquina en tiempo real,
ya es una realidad en EE.UU.

Sin embargo, personas como Winston Chiong, un académico del mismo centro educativo que no participó en este estudio, estima importante debatir los problemas éticosque podrían plantear las herramientas de este tipo, como si "podría una 'neuroprótesis del habla' revelar involuntariamente los pensamientos más íntimos de las personas", declaró al diario británico The Guardian.

Al respecto, Edward Chang aseguró que descifrar lo que alguien intenta decir abiertamente resulta muy difícil y extraer sus pensamientos internos es prácticamente imposible. Además, confirmó que no le interesa "desarrollar una tecnología para descubrir lo que la gente piensa, incluso si fuera posible".

No hay comentarios.:

Publicar un comentario