Neuropsicología
¿Qué ocurre en el cerebro cuando queremos escuchar lo que alguien dice mientras otros hablan?
Concentrarse en la voz de una persona que habla dentro de una sala llena de gente conversando puede ser difícil, sobre todo cuando hay otras voces que suenan más fuerte que la que nos interesa.
Amplificar todos los sonidos por igual ayuda muy poco a discernir mejor la voz en la que estamos interesados. Por eso, los audífonos que se limitan a amplificar los sonidos del entorno siguen siendo demasiado imprecisos para su uso práctico en lugares ruidosos.
Para comprender mejor cómo se procesa el habla en estas situaciones, el equipo de Vinay Raghavan y Nima Mesgarani, de la Universidad de Columbia en la ciudad estadounidense de Nueva York, registró la actividad neuronal de electrodos implantados en el cerebro de personas con epilepsia a las cuales se les estaba haciendo un seguimiento de actividad cerebral motivado por una cirugía cerebral. Se pidió a los pacientes que prestaran atención a una sola voz, cuyo volumen a veces era más alto que el de otra voz ("vislumbrada") y a veces más bajo ("enmascarada").
Los investigadores examinaron las grabaciones de actividad neural para generar modelos predictivos de la actividad cerebral.
Los modelos mostraron que la información fonética del habla "vislumbrada" se codificaba siguiendo una pauta diferente de la que se seguía para codificar el habla "enmascarada".
![[Img #68647]](https://noticiasdelaciencia.com/upload/images/06_2023/4182_que-ocurre-en-el-cerebro-cuando-queremos-escuchar.jpg)
En el estudio, se ha investigado lo que sucede en el cerebro de un oyente cuando quiere escuchar lo que alguien dice mientras otros hablan. (Ilustración: Zuckerman Institute, Columbia University (2023). CC BY 4.0)
Dado que la información fonética "vislumbrada" y la "enmascarada" parecen codificarse por separado, centrarse en descifrar la parte "enmascarada" del habla a la que se desea prestar atención podría conducir a importantes mejoras en los audífonos controlados por el cerebro.
El estudio se titula “Distinct neural encoding of glimpsed and masked speech in multitalker situations”. Y se ha publicado en la revista académica PLoS Biology. (Fuente: NCYT de Amazings)



