Una IA puede decodificar el habla a partir de ondas cerebrales

La IA ya es capaz de descifrar con precisión palabras y frases a partir de la actividad del cerebro adivinando lo que una persona ha oído.

Una inteligencia artificial puede descifrar palabras y frases a partir de la actividad cerebral con una precisión sorprendente, aunque todavía limitada. Utilizando sólo unos segundos de datos de actividad cerebral, la IA adivina lo que una persona ha oído. En un estudio preliminar, los investigadores descubrieron que la respuesta correcta se encuentra entre las 10 primeras posibilidades hasta en un 73% de los casos.

Desarrollada en la empresa matriz de Facebook, Meta, la IA podría llegar a utilizarse para ayudar a miles de personas de todo el mundo incapaces de comunicarse mediante el habla, la escritura o los gestos, informan los investigadores el 25 de agosto en arXiv.org. Eso incluye a muchos pacientes en estado de mínima conciencia, encerrados o en «estado vegetativo», lo que ahora se conoce generalmente como síndrome de vigilia sin respuesta (SN: 2/8/19).

La mayoría de las tecnologías existentes para ayudar a estos pacientes a comunicarse requieren arriesgadas cirugías cerebrales para implantar electrodos. Este nuevo enfoque «podría proporcionar una vía viable para ayudar a los pacientes con déficits de comunicación… sin el uso de métodos invasivos«, afirma el neurocientífico Jean-Rémi King, investigador de Meta AI actualmente en la École Normale Supérieure de París.

King y sus colegas entrenaron una herramienta computacional para detectar palabras y frases en 56.000 horas de grabaciones de habla de 53 idiomas. La herramienta, también conocida como modelo lingüístico, aprendió a reconocer rasgos específicos del lenguaje tanto a un nivel fino -piensa en letras o sílabas- como a un nivel más amplio, como una palabra o una frase.

Basado en bases de datos

El equipo aplicó una IA con este modelo de lenguaje a bases de datos de cuatro instituciones que incluían la actividad cerebral de 169 voluntarios. En estas bases de datos, los participantes escucharon varias historias y frases de, por ejemplo, El viejo y el mar, de Ernest Hemingway, y Las aventuras de Alicia en el país de las maravillas, de Lewis Carroll, mientras se escaneaba el cerebro de las personas mediante magnetoencefalografía o electroencefalografía. Estas técnicas miden el componente magnético o eléctrico de las señales cerebrales.

A continuación, con la ayuda de un método computacional que ayuda a tener en cuenta las diferencias físicas entre los cerebros reales, el equipo trató de descifrar lo que los participantes habían oído utilizando sólo tres segundos de datos de actividad cerebral de cada persona. El equipo ordenó a la IA que alineara los sonidos del habla de las grabaciones de las historias con los patrones de actividad cerebral que la IA calculó como correspondientes a lo que las personas estaban oyendo. A continuación, hizo predicciones sobre lo que la persona podría haber estado oyendo durante ese breve tiempo, teniendo en cuenta más de 1.000 posibilidades.

Los investigadores descubrieron que, con la magnetoencefalografía (MEG), la respuesta correcta se encontraba entre las 10 primeras adivinanzas de la IA hasta en un 73% de las ocasiones. Con la electroencefalografía, ese valor se redujo a no más del 30%. «El rendimiento [de la MEG] es muy bueno», dice Di Liberto, pero es menos optimista sobre su uso práctico. «¿Qué podemos hacer con ella? Nada. Absolutamente nada».

La razón, dice, es que la MEG requiere una máquina voluminosa y cara. Llevar esta tecnología a las clínicas requerirá innovaciones científicas que hagan que las máquinas sean más baratas y fáciles de usar.

También es importante entender qué significa realmente «descodificación» en este estudio, dice Jonathan Brennan, lingüista de la Universidad de Michigan en Ann Arbor. La palabra se utiliza a menudo para describir el proceso de descifrar la información directamente de una fuente, en este caso, el habla a partir de la actividad cerebral. Pero la IA sólo pudo hacerlo porque se le proporcionó una lista finita de posibles respuestas correctas para hacer sus conjeturas.

«Con el lenguaje, eso no va a ser suficiente si queremos ampliar su uso práctico, porque el lenguaje es infinito», dice Brennan. Además, según Di Liberto, la IA descodificó la información de los participantes que escuchaban pasivamente el audio, lo que no es directamente relevante para los pacientes no verbales. Para que se convierta en una herramienta de comunicación significativa, los científicos tendrán que aprender a descifrar a partir de la actividad cerebral lo que estos pacientes pretenden decir, incluidas las expresiones de hambre, malestar o un simple «sí» o «no».

 

 

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.