Una IA puede decodificar el habla a partir de ondas cerebrales

La IA ya es capaz de descifrar con precisión palabras y frases a partir de la actividad del cerebro adivinando lo que una persona ha oído.

Una inteligencia artificial puede descifrar palabras y frases a partir de la actividad cerebral con una precisión sorprendente, aunque todavía limitada. Utilizando sólo unos segundos de datos de actividad cerebral, la IA adivina lo que una persona ha oído. En un estudio preliminar, los investigadores descubrieron que la respuesta correcta se encuentra entre las 10 primeras posibilidades hasta en un 73% de los casos.

Desarrollada en la empresa matriz de Facebook, Meta, la IA podría llegar a utilizarse para ayudar a miles de personas de todo el mundo incapaces de comunicarse mediante el habla, la escritura o los gestos, informan los investigadores el 25 de agosto en arXiv.org. Eso incluye a muchos pacientes en estado de mínima conciencia, encerrados o en «estado vegetativo», lo que ahora se conoce generalmente como síndrome de vigilia sin respuesta (SN: 2/8/19).

La mayoría de las tecnologías existentes para ayudar a estos pacientes a comunicarse requieren arriesgadas cirugías cerebrales para implantar electrodos. Este nuevo enfoque «podría proporcionar una vía viable para ayudar a los pacientes con déficits de comunicación… sin el uso de métodos invasivos«, afirma el neurocientífico Jean-Rémi King, investigador de Meta AI actualmente en la École Normale Supérieure de París.

King y sus colegas entrenaron una herramienta computacional para detectar palabras y frases en 56.000 horas de grabaciones de habla de 53 idiomas. La herramienta, también conocida como modelo lingüístico, aprendió a reconocer rasgos específicos del lenguaje tanto a un nivel fino -piensa en letras o sílabas- como a un nivel más amplio, como una palabra o una frase.

Basado en bases de datos

El equipo aplicó una IA con este modelo de lenguaje a bases de datos de cuatro instituciones que incluían la actividad cerebral de 169 voluntarios. En estas bases de datos, los participantes escucharon varias historias y frases de, por ejemplo, El viejo y el mar, de Ernest Hemingway, y Las aventuras de Alicia en el país de las maravillas, de Lewis Carroll, mientras se escaneaba el cerebro de las personas mediante magnetoencefalografía o electroencefalografía. Estas técnicas miden el componente magnético o eléctrico de las señales cerebrales.

A continuación, con la ayuda de un método computacional que ayuda a tener en cuenta las diferencias físicas entre los cerebros reales, el equipo trató de descifrar lo que los participantes habían oído utilizando sólo tres segundos de datos de actividad cerebral de cada persona. El equipo ordenó a la IA que alineara los sonidos del habla de las grabaciones de las historias con los patrones de actividad cerebral que la IA calculó como correspondientes a lo que las personas estaban oyendo. A continuación, hizo predicciones sobre lo que la persona podría haber estado oyendo durante ese breve tiempo, teniendo en cuenta más de 1.000 posibilidades.

Los investigadores descubrieron que, con la magnetoencefalografía (MEG), la respuesta correcta se encontraba entre las 10 primeras adivinanzas de la IA hasta en un 73% de las ocasiones. Con la electroencefalografía, ese valor se redujo a no más del 30%. «El rendimiento [de la MEG] es muy bueno», dice Di Liberto, pero es menos optimista sobre su uso práctico. «¿Qué podemos hacer con ella? Nada. Absolutamente nada».

La razón, dice, es que la MEG requiere una máquina voluminosa y cara. Llevar esta tecnología a las clínicas requerirá innovaciones científicas que hagan que las máquinas sean más baratas y fáciles de usar.

También es importante entender qué significa realmente «descodificación» en este estudio, dice Jonathan Brennan, lingüista de la Universidad de Michigan en Ann Arbor. La palabra se utiliza a menudo para describir el proceso de descifrar la información directamente de una fuente, en este caso, el habla a partir de la actividad cerebral. Pero la IA sólo pudo hacerlo porque se le proporcionó una lista finita de posibles respuestas correctas para hacer sus conjeturas.

«Con el lenguaje, eso no va a ser suficiente si queremos ampliar su uso práctico, porque el lenguaje es infinito», dice Brennan. Además, según Di Liberto, la IA descodificó la información de los participantes que escuchaban pasivamente el audio, lo que no es directamente relevante para los pacientes no verbales. Para que se convierta en una herramienta de comunicación significativa, los científicos tendrán que aprender a descifrar a partir de la actividad cerebral lo que estos pacientes pretenden decir, incluidas las expresiones de hambre, malestar o un simple «sí» o «no».

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

TE PUEDE GUSTAR

EVENTOS

RECIBE LA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Ir arriba