Ingeniería
El procesamiento de la luz mejora la detección robótica
Un equipo de investigadores del US Army descubrió cómo el cerebro humano procesa la luz brillante y contrastada, lo cual, según ellos, es clave para mejorar la detección robótica y permitir que los agentes autónomos se asocien con los humanos.
Para permitir el desarrollo de la autonomía robótica, una de las principales prioridades del Ejército, la detección mecánica debe ser consistente en entornos cambiantes, dijeron los investigadores.
"Cuando desarrollamos algoritmos de visión artificial, las imágenes del mundo real suelen comprimirse a un rango más estrecho, como lo hace la cámara de un teléfono móvil, en un proceso llamado mapeo de tonos", dijo Andre Harrison, investigador del Laboratorio de Investigación del U.S. Army Combat Capabilities Development Command. "Esto puede contribuir a la fragilidad de los algoritmos de visión artificial porque se basan en imágenes artificiales que no coinciden con los patrones que vemos en el mundo real".
Al desarrollar un nuevo sistema con una capacidad de visualización de 100.000 a 1, el equipo descubrió los cálculos hechos por el cerebro, bajo condiciones más reales, para poder aportar una resistencia biológica en los sensores, dijo Harrison.
Los algoritmos de visión actuales se basan en estudios en humanos y animales con monitores de computadora, que tienen un rango limitado de luminancia de alrededor de 100 a 1, la proporción entre los píxeles más brillantes y los más oscuros. En el mundo real, esa variación podría ser una proporción de 100.000 a 1, una condición llamada alto rango dinámico, o HDR.
Ejemplos de luminancia de alto rango dinámico en vistas de la abertura de una cueva, donde las combinaciones de luminancia interior y exterior pueden superar una relación de luminancia máxima a mínima de 10.000 a 1. La escena de la derecha es una imagen mezclada a través de múltiples exposiciones, que ilustra la capacidad humana de ver múltiples objetivos (tres uniformes y un coche) a través de vastas diferencias de luminancia en la misma vista. (Foto: U.S. Army)
"Los cambios y las variaciones significativas que se producen en la luz pueden desafiar el correcto funcionamiento de los sistemas del Ejército: los drones que vuelan bajo el dosel del bosque podrían confundirse con los cambios de reflectancia cuando el viento sopla a través de las hojas, o los vehículos autónomos que conducen por terreno accidentado podrían no reconocer baches u otros obstáculos porque las condiciones de iluminación son ligeramente diferentes de aquellas en las que sus algoritmos de visión fueron entrenados", dijo el investigador del Ejército Dr. Chou Po Hung.
El equipo de investigación trató de entender cómo el cerebro toma automáticamente la entrada de 100.000 a 1 del mundo real y la comprime a un rango más estrecho, lo que permite a los humanos interpretar las formas. El equipo estudió el procesamiento visual temprano bajo HDR, examinando cómo interactúan características simples como la luminancia HDR y los bordes, como una forma de descubrir los mecanismos cerebrales subyacentes.
"El cerebro tiene más de 30 áreas visuales, y todavía tenemos solo una comprensión rudimentaria de cómo estas áreas procesan la imagen del ojo para entender la forma 3D", dijo Hung. "Nuestros resultados con los estudios de luminancia HDR, basados en el comportamiento humano y en grabaciones a través del cuero cabelludo, muestran lo poco que sabemos realmente sobre cómo salvar la brecha entre el laboratorio y los entornos del mundo real. Pero, estos hallazgos nos muestran que nuestras suposiciones previas, a partir de los monitores estándar de computadora, tienen una capacidad limitada a la hora de generalizar el mundo real, y revelan principios que pueden guiar nuestro modelado hacia los mecanismos correctos".
La revista Journal of Vision publicó los resultados de la investigación del equipo. Los investigadores dijeron que el descubrimiento de cómo interactúan la luz y los bordes de contraste en la representación visual del cerebro ayudará a mejorar la eficacia de los algoritmos para reconstruir el verdadero mundo tridimensional bajo la luminancia del mundo real, corrigiendo las ambigüedades que son inevitables al estimar la forma tridimensional a partir de información 2D.
"A través de millones de años de evolución, nuestros cerebros han desarrollado atajos efectivos para reconstruir el 3D a partir de información 2D", dijo Hung. "Es un problema de décadas de antigüedad que continúa desafiando a los científicos de la visión artificial, incluso con los recientes avances en la IA".
Además de la visión para vehículos autónomos, este descubrimiento también será útil para desarrollar otros dispositivos habilitados gracias a la inteligencia artificial, como el radar y la comprensión del habla a distancia que dependen de la detección a través de amplios rangos dinámicos. (Fuente: NCYT Amazings)