Miércoles, 17 de Septiembre de 2025

Actualizada Martes, 16 de Septiembre de 2025 a las 19:27:48 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Redacción
Miércoles, 25 de Abril de 2018
Ingeniería

Un sistema de aprendizaje automático procesa sonidos como lo hacemos los humanos

Usando un sistema de aprendizaje automático conocido como red neural profunda, unos investigadores han creado el primer modelo que puede replicar el rendimiento humano en tareas auditivas como el análisis del habla o identificar un género musical.

 

Cuando las redes neurales profundas se desarrollaron por primera vez, en la década de 1980, los neurocientíficos esperaban que tales sistemas pudieran ser utilizados pronto para modelar el cerebro humano. Sin embargo, los ordenadores de esa época no eran lo bastante potentes para construir modelos lo suficientemente grandes como para desempeñar tareas del mundo real, como el reconocimiento de objetos o del habla.

 

(adsbygoogle = window.adsbygoogle || []).push({});

 

A lo largo de los últimos cinco años, los avances en la potencia de computación y en la tecnología de las redes neurales han hecho posible que dichas redes puedan llevar a cabo tareas complicadas del mundo real, y se han convertido en el enfoque estándar con el que abordar muchas aplicaciones de ingeniería. Al mismo tiempo, algunos neurocientíficos han reconsiderado la posible utilización actual o en un futuro cercano de estos sistemas para modelar el cerebro humano.

 

El nuevo modelo, basado en una red neural profunda, está ideado para procesar sonidos como lo hacemos los humanos. El modelo consta de muchas capas de unidades de procesamiento de información que pueden ser adiestradas con enormes volúmenes de datos para realizar tareas específicas. Ya ha sido usado por los investigadores para obtener información nueva y reveladora sobre cómo el cerebro humano puede llevar a cabo esas mismas tareas que el modelo realiza.

 

[Img #50474]

 

Unos neurocientíficos del MIT han desarrollado un sistema de aprendizaje automático que puede procesar el habla y la música de la misma manera en que lo hace el cerebro humano. (Imagen: Chelsea Turner/MIT)

 

El avance es obra del equipo de Josh McDermott y Alexander Kell, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, y Daniel Yamins, de la Universidad de Stanford, ambas instituciones en Estados Unidos.

 

Los resultados del estudio también ofrecen evidencias de que la corteza auditiva humana está configurada con una organización jerárquica, de manera muy parecida a como lo está la corteza visual. En este tipo de configuración, la información sensorial pasa a través de sucesivas etapas de procesamiento, procesándose antes la información básica y extrayéndose en etapas posteriores características más avanzadas, como el significado de las palabras.

 

Información adicional

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.