Aviso sobre el Uso de cookies: Utilizamos cookies propias y de terceros para mejorar la experiencia del lector y ofrecer contenidos de interés. Si continúa navegando entendemos que usted acepta nuestra política de cookies. Ver nuestra Política de Privacidad y Cookies
Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respetuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Miércoles, 1 febrero 2012
Neurología

Consiguen reproducir las palabras que escuchan los pacientes sin habla

Expertos norteamericanos han descrito cómo actúa el cerebro de las personas sin habla cuando escuchan una conversación y han sido capaces de extraer las palabras que expresan en su cerebro. El avance podría ampliar la capacidad de comunicación de las personas con discapacidades en el habla y el lenguaje.

Un grupo de neurocientíficos de la Universidad de California Berkley (EE UU) ha logrado entender cómo el cerebro ‘escucha’ una conversación. Tras analizar la actividad de una zona del lóbulo temporal,  la parte del cerebro que controla el sistema auditivo, los expertos han obtenido las palabras que una persona incapaz de hablar ha escuchado. La investigación se publica en la revista PLoS Biology.

“Los pacientes con daños en el habla a causa de un accidente cerebrovascular o que sufren Esclerosis Lateral Amiotrófica (ELA) podrían beneficiarse si se consiguen reconstruir las conversaciones imaginarias a partir de la actividad del cerebro”, opina Robert Knight, investigador de la Universidad americana y coautor del trabajo.

Para aprender más sobre cómo el cerebro traduce el sonido en significado, los investigadores  analizaron cómo una zona del sistema auditivo procesa las frecuencias acústicas y el ritmo del habla. “Comprender la relación entre las señales del cerebro y sus características sonoras permite descifrar el sonido utilizando sólo las grabaciones cerebrales”, declara a SINC Brian Pasley, autor principal del artículo e investigador en el mismo centro.

El experto aclara que “este trabajo no consiste en leer la mente. Sólo se han decodificado sonidos que una persona escucha, no lo que alguien piensa para sí mismo”.

Pasley compara el cerebro con un piano en el que las zonas encargadas de grabar sonidos son las teclas. “Un pianista experto sabe las notas musicales que se asocian con cada tecla del piano, y viendo cuáles se pulsan, sin necesidad de oír la melodía, tiene una idea precisa de lo que se toca porque entienden la relación entre las teclas y el sonido. Igual que Ludwig van Beethoven era capaz de ‘oír’ sus composiciones a pesar de ser sordo”, añade Pasley.

Las grabaciones del cerebro son similares. Se puede determinar la relación entre la actividad cerebral y diferentes frecuencias acústicas del sonido. Según Pasley, “si vemos qué sitios del cerebro se activan podemos adivinar qué sonido era el que el paciente ha escuchado”.

[Img #6529]
Evidencias científicas apuntan a que escuchar un sonido o imaginarlo (tararear mentalmente una canción, por ejemplo) pueden activar áreas similares del cerebro. De confirmarse, y si el cerebro procesa las imágenes auditivas y del habla de forma similar a la percepción, “se podría aplicar este enfoque a la lectura de discurso imaginario, que puede ser útil en el desarrollo de prótesis de comunicación para discapacitados graves”, añade.

Para realizar el estudio, se ofrecieron voluntarios 15 pacientes que debían someterse a intervenciones de cirugía craneal. Durante una semana les colocaron más de 250 electrodos directamente en la corteza cerebral para registrar su actividad. Mientras los pacientes escuchaban conversaciones de entre cinco y diez minutos, se registraba la actividad cerebral detectada por los electrodos.

Pasley utilizó estos datos para reconstruir y reproducir los sonidos que los pacientes habían escuchado. El análisis  de las frecuencias y ritmos producidos en menos de diez minutos de charla fueron suficientes para reproducir sonidos bastante cercanos a la palabra original con un 90% de acierto.

Para Knight “esta investigación es un paso hacia la compresión de qué características del habla se representan en el cerebro”. (Fuente: SINC)


Copyright © 1996-2017 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Amazings® / NCYT® • Términos de usoPolítica de PrivacidadMapa del sitio
© 2017 • Todos los derechos reservados - Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Powered by FolioePress