Viernes, 26 de Septiembre de 2025

Actualizada Jueves, 25 de Septiembre de 2025 a las 18:08:39 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Redacción
Jueves, 03 de Abril de 2025
Neurotecnología

Neuroprótesis para controlar una voz artificial con el pensamiento

En un avance que marcará un antes y un después en el campo de las interfaces cerebro-ordenador, unos científicos han ideado un sistema con inteligencia artificial que descifra casi en tiempo real las señales cerebrales de personas incapacitadas para hablar y para comunicarse de otras maneras convencionales, y expresa en voz alta las palabras pensadas por el usuario.

 

Este logro resuelve el problema de la latencia de las neuroprótesis del habla, es decir, el tiempo que transcurre entre el momento en que un sujeto intenta hablar y el momento en que se genera artificialmente el sonido. Utilizando los últimos avances en inteligencia artificial, los investigadores desarrollaron un método de streaming que sintetiza las señales cerebrales en habla audible casi en tiempo real.

 

El logro es obra de un equipo integrado, entre otros, por Kaylo Littlejohn y Gopala Anumanchipalli, de la Universidad de California en Berkeley, y el neurocirujano Edward Chang, de la de California en San Francisco (UCSF), ambas en Estados Unidos.

 

Esta tecnología representa un paso fundamental para permitir la comunicación a las personas que han perdido la capacidad de hablar y de expresarse por otros medios convencionales.

 

“Nuestro enfoque de streaming aporta a las neuroprótesis la misma capacidad de descodificación rápida del habla de sistemas como Alexa y Siri”, afirma Anumanchipalli. “Usando un tipo similar de algoritmo, descubrimos que podíamos descodificar datos neuronales y, por primera vez, permitir la transmisión de voz casi en sincronía total. El resultado es una síntesis del habla más natural y fluida”.

 

Esta nueva tecnología tiene un enorme potencial para mejorar la calidad de vida de las personas con parálisis graves que afectan a su comunicación con el mundo exterior, tal como explica Chang, quien dirige un ensayo clínico en la UCSF sobre tecnología de neuroprótesis del habla que utiliza conjuntos de electrodos de alta densidad que registran la actividad neuronal directamente desde la superficie cerebral.

 

[Img #75519]

Los investigadores conectando el implante cerebral de Ann al sistema que incluye un sintetizador de voz. (Foto: Noah Berger)

 

Los investigadores también han demostrado que su método puede funcionar bien con otras interfaces de detección cerebral, como los conjuntos de microelectrodos que penetran a través de la superficie del cerebro, o la captación indirecta de señales cerebrales del habla mediante sensores colocados en la cara que miden la actividad muscular.

 

La nueva neuroprótesis capta señales neuronales de la parte del cerebro que controla la producción del habla y utiliza la inteligencia artificial para descodificarlas y convertirlas en habla.

 

Con el fin de recopilar los datos necesarios para entrenar su algoritmo, los investigadores primero hicieron que Ann, su sujeto de estudio, mirara una indicación en la pantalla -como la frase: “Hola, ¿cómo estás?” y luego intentara pronunciarla en su mente.

 

“Esto nos proporcionó una correspondencia entre las ventanas fragmentadas de actividad neuronal que genera y la frase que intenta decir, sin necesidad de vocalizar en ningún momento”, explica Littlejohn.

 

Como Ann no tiene siquiera vocalización residual, los investigadores no disponían de señal acústica ninguna con la que pudieran trabajar. Superaron este obstáculo  utilizando inteligencia artificial que completó los detalles que faltaban.

 

Para la voz digital que pronuncia lo que Ann piensa, se valieron de grabaciones de la voz de Ann hechas antes de la lesión. Gracias a ello, cuando las señales cerebrales de Ann se traducen a señales de audio digital, la voz que se genera tiene esencialmente el mismo timbre que la voz que ella tenía.

 

Gracias a todo esto, Ann ha conseguido volver a comunicarse por voz con el mundo exterior de una manera casi del todo natural.

 

El equipo de Littlejohn expone los detalles técnicos de su nueva interfaz cerebro-ordenador en la revista académica Nature Neuroscience, bajo el título “A streaming brain-to-voice neuroprosthesis to restore naturalistic communication”. (Fuente: NCYT de Amazings)

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Quizás también te interese...

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.