Aviso sobre el Uso de cookies: Utilizamos cookies propias y de terceros para mejorar la experiencia del lector y ofrecer contenidos de interés. Si continúa navegando entendemos que usted acepta nuestra política de cookies. Ver nuestra Política de Privacidad y Cookies
Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respetuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Jueves, 17 agosto 2017
Computación

Nuevo software para permitir a dispositivos artificiales detectar si alguien los está mirando

Hasta ahora, si colgábamos un cartel publicitario en una zona para peatones, y queríamos saber cuánta gente lo miraba realmente, lo teníamos imposible. Se podía intentar capturar esta importante información mediante la medición de la dirección de las miradas, pero esto requería un equipamiento especial de seguimiento ocular que necesita calibrarse durante minutos, y para obtener datos fiables todo el mundo tendría que llevar un aparato preparado para funcionar con el sistema. Las investigaciones fuera del laboratorio y sin sujetos de estudio reclutados formalmente, como por ejemplo los realizados observando la conducta espontánea de peatones en la calle, eran, en el mejor de los casos, complicadas y en el peor de ellos, imposibles.

 

Incluso cuando la cámara era colocada en el objeto de interés, por ejemplo el cartel, y se utilizaba aprendizaje automático, es decir, cuando la máquina era adiestrada usando una cantidad suficiente de datos de muestra, solo se podían reconocer las miradas a la propia cámara. Si la persona miraba a otra parte del cartel, el sistema no podía reconocerlo. Demasiado a menudo, la diferencia entre los datos usados para el de adiestramiento y los datos captables en el entorno real específico era excesivamente grande. Un detector universal de contacto de miradas, utilizable tanto para objetos pequeños como para grandes, en situaciones estacionarias o móviles, para un usuario o para todo un grupo, o bajo condiciones de iluminación cambiantes, era hasta el momento imposible.

 

[Img #45651]

 

El nuevo software detecta, usando solo una cámara, si una o incluso varias personas establecen contacto ocular con un objeto (situación indicada por el recuadro verde) o no (situación indicada por el recuadro rojo). (Foto: Saarland University)

 

Ahora, el equipo de Andreas Bulling, de la Universidad de Sarre (Saarland) en Alemania, ha desarrollado un método que está basado en una nueva generación de algoritmos para estimar la dirección de las miradas. Estos utilizan un tipo especial de red neural, del tipo conocido como "de Aprendizaje Profundo", que está actualmente causando sensación en muchas áreas de la industria y de los negocios. Bulling, Xucong Zhang y Yusuke Sugano han estado trabajando en este método durante dos años y han avanzado paso a paso. El método que han presentado ahora ha sido puesto a prueba en dos escenarios: en un lugar de trabajo, la cámara fue montada sobre el objeto del que contar las miradas recibidas, y en una situación cotidiana, un usuario llevaba una cámara encima, a fin de obtener un recuento de cuántas miradas recibía. El resultado: el sistema, dado que obtiene el conocimiento necesario por él mismo, es robusto, incluso cuando la cantidad de personas implicadas, las condiciones de iluminación, la posición de la cámara y los tipos y tamaños de los objetos varíen.

 

Información adicional

Quizá también puedan interesarle estos enlaces...

Copyright © 1996-2017 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Amazings® / NCYT® • Términos de usoPolítica de PrivacidadMapa del sitio
© 2017 • Todos los derechos reservados - Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Powered by FolioePress