Aviso sobre el Uso de cookies: Utilizamos cookies propias y de terceros para mejorar la experiencia del lector y ofrecer contenidos de interés. Si continúa navegando entendemos que usted acepta nuestra política de cookies. Ver nuestra Política de Privacidad y Cookies
Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respetuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Sábado, 12 diciembre 2015
Computación

Un algoritmo enseña a las máquinas a aprender como humanos

Un equipo de científicos de EE UU y Canadá ha desarrollado un algoritmo que captura nuestra capacidad de aprendizaje y permite a los ordenadores reconocer y extraer conceptos visuales sencillos de la forma en la que lo hacen las personas. Los resultados del estudio se publican esta semana en la revista Science.

 

Según  destaca Brenden Lake, autor principal e investigador de Moore-Sloan Data Science en la Universidad de Nueva York, el trabajo “acorta el proceso computacional de aprendizaje de nuevos conceptos y amplía la aplicación de las máquinas a tareas más creativas”.

 

Cuando los seres humanos afrontan un nuevo concepto –por ejemplo, descifrar cómo funciona un electrodoméstico, aprender un nuevo paso de baile o una letra de un alfabeto diferente–  necesitan solo unos pocos ejemplos para entender su funcionamiento y reconocer nuevos casos. En cambio, los ordenadores actuales necesitan cientos o miles de instrucciones para operar con una precisión similar.

 

Para aproximarse a la manera humana de aprender, los investigadores han desarrollado un programa bayesiano de aprendizaje (BLP, por sus siglas en inglés), en el que los conceptos se representan como programas informáticos sencillos.

 

Por ejemplo, la letra ‘A’ está representada por un código que genera ejemplos de esa letra cuando se ejecuta. Sin embargo, no se requiere un programador durante el proceso de aprendizaje, ya que el algoritmo se programa a sí mismo construyendo código para producir la letra que ve.

 

También, a diferencia de los programas estándar de ordenador que producen el mismo resultado cada vez que se ejecutan, estos programas probabilísticos producen diferentes salidas en cada ejecución. Esto les permite captar cómo varían las manifestaciones de un mismo concepto, por ejemplo, las diferentes maneras en que dos personas dibujan la letra 'A'.

 

[Img #32527]

 

Mientras que los algoritmos de reconocimiento de patrones estándar representan conceptos como configuraciones de píxeles o colecciones de características, el enfoque BPL aprende ‘modelos generativos’ de procesos reales, lo que permite utilizar los datos de manera más eficiente.

 

El modelo también ‘aprende a aprender’. Por ejemplo, utiliza el conocimiento del alfabeto latino para aprender las letras del alfabeto griego. Los autores aplicaron su modelo a más de 1.600 tipos de caracteres escritos a mano en 50 de los sistemas de escritura del mundo, e incluso incluyeron letras de alfabetos inventados como los de la serie de televisión Futurama.

 

Además de probar la capacidad del algoritmo para reconocer nuevos ejemplos de un concepto, los investigadores pidieron tanto a los voluntarios como a los ordenadores que reprodujeran una serie de caracteres escritos a mano después de haber mostrado un solo ejemplo de cada uno, o en algunos casos, para crear nuevos símbolos.

 

Después, los científicos compararon los resultados de los participantes y las máquinas mediante test visuales de Turing. A los evaluadores humanos se les suministraron pares de ejemplos tanto de los participantes como de máquinas, junto con el símbolo original, y se les pidió identificar cuál de los símbolos había sido producido por el ordenador.

 

Los resultados mostraron que menos del 25% de los evaluadores tuvieron un desempeño significativamente mejor que el azar para determinar si un determinado conjunto de símbolos había sido producido por un humano o una máquina.

 

“Antes de entrar en la guardería, los niños ya saben reconocer nuevos conceptos a partir de  un solo ejemplo, y pueden imaginar nuevos ejemplos que nunca han visto”, señala Joshua Tenenbaum, profesor de Brains, Minds and Machines del MIT y coautor del estudio.

 

Según Tenenbaum, “todavía estamos lejos de construir máquinas tan inteligentes como un niño, pero esta es la primera vez que hemos tenido logrado que una computadora sea capaz de aprender y usar un gran número de conceptos del mundo real, incluidos conceptos visuales simples como caracteres escritos a mano”. (Fuente: SINC)

Quizá también puedan interesarle estos enlaces...

Copyright © 1996-2017 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Amazings® / NCYT® • Términos de usoPolítica de PrivacidadMapa del sitio
© 2017 • Todos los derechos reservados - Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Powered by FolioePress