Miércoles, 03 de Diciembre de 2025

Actualizada Martes, 02 de Diciembre de 2025 a las 14:02:08 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Redacción
Miércoles, 07 de Junio de 2023
Neuropsicología

¿Qué ocurre en el cerebro cuando queremos escuchar lo que alguien dice mientras otros hablan?

Concentrarse en la voz de una persona que habla dentro de una sala llena de gente conversando puede ser difícil, sobre todo cuando hay otras voces que suenan más fuerte que la que nos interesa.

 

Amplificar todos los sonidos por igual ayuda muy poco a discernir mejor la voz en la que estamos interesados. Por eso, los audífonos que se limitan a amplificar los sonidos del entorno siguen siendo demasiado imprecisos para su uso práctico en lugares ruidosos.

 

Para comprender mejor cómo se procesa el habla en estas situaciones, el equipo de Vinay Raghavan y Nima Mesgarani, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, registró la actividad neuronal de electrodos implantados en el cerebro de personas con epilepsia a las cuales se les estaba haciendo un seguimiento de actividad cerebral motivado por una cirugía cerebral. Se pidió a los pacientes que prestaran atención a una sola voz, cuyo volumen a veces era más alto que el de otra voz ("vislumbrada") y a veces más bajo ("enmascarada").

 

Los investigadores examinaron las grabaciones de actividad neural para generar modelos predictivos de la actividad cerebral.

 

Los modelos mostraron que la información fonética del habla "vislumbrada" se codificaba siguiendo una pauta diferente de la que se seguía para codificar el habla "enmascarada".

 

[Img #68647]

En el estudio, se ha investigado lo que sucede en el cerebro de un oyente cuando quiere escuchar lo que alguien dice mientras otros hablan. (Ilustración: Zuckerman Institute, Columbia University (2023). CC BY 4.0)

 

Dado que la información fonética "vislumbrada" y la "enmascarada" parecen codificarse por separado, centrarse en descifrar la parte "enmascarada" del habla a la que se desea prestar atención podría conducir a importantes mejoras en los audífonos controlados por el cerebro.

 

El estudio se titula “Distinct neural encoding of glimpsed and masked speech in multitalker situations”. Y se ha publicado en la revista académica PLoS Biology. (Fuente: NCYT de Amazings)

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Quizás también te interese...

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.