Martes, 14 de Octubre de 2025

Actualizada Martes, 14 de Octubre de 2025 a las 11:49:22 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Jueves, 30 de Octubre de 2014
Ingeniería

Captar los “pensamientos” de un robot

En un recinto oscuro, parecido a un hangar, dentro del edificio 41 del MIT, un pequeño robot semejante al célebre Roomba, está tratando de tomar una decisión.

 

Frente a él hay un obstáculo, una persona que está caminando por el recinto. Para ir al otro lado de la sala, el robot tiene primero que determinar dónde está la persona, y después elegir una ruta óptima para evitar acercársele demasiado y correr el riesgo de una colisión entre ambos.

 

A medida que el robot considera sus opciones, sus “pensamientos” son proyectados sobre el suelo: Un punto rosa grande parece seguir al individuo. Esta luz es una representación fiel de la percepción del robot sobre la posición en el espacio de la persona. Unas líneas, cada una representando una posible ruta a seguir por el robot, se extienden a través de la sala en forma de un abanico de colores y patrones serpenteantes, con una línea verde indicando la ruta óptima. Las líneas y los puntos cambian y se ajustan a medida que el peatón y el robot se mueven.

 

Este nuevo sistema de visualización de “pensamientos espaciales” de robots, desarrollado por el equipo de Ali-akbar Agha-mohammadi y Shayegan Omidshafiei, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, combina proyectores montados en el techo con tecnología de captura de movimientos y software de animación, para proyectar fuera del robot las intenciones de este en tiempo real.

 

Normalmente, cuando un robot toma alguna decisión sobre hacia dónde avanzar, es difícil, incluso para los robotistas, saber con certeza qué está pasando por su mente, por qué está eligiendo un camino en particular y no otro. En cambio, si los observadores humanos ven los planes que baraja el robot proyectados sobre el suelo, pueden ver el nexo de unión entre lo que el robot “piensa” y lo que hace, de tal modo que es mucho más fácil entender el origen de sus actos.

 

[Img #23188]

 

El nuevo sistema podría ayudar al desarrollo de mejores automóviles que se conduzcan solos, así como modelos más sofisticados de drones de envío de paquetes y de otros vehículos autónomos capaces de planear sus rutas del modo más inteligente posible.

 

“Como diseñadores, cuando podemos comparar las percepciones del robot con cómo actúa, podemos hallar fallos en nuestro código de manera mucho más rápida”, comenta Agha-mohammadi. Y pone como ejemplo que si están probando un dron en vuelo y ven gracias al sistema de proyección de pensamientos espaciales algo erróneo en lo que el robot está pensando pueden detener la secuencia de software antes de que el dron colisione contra la pared o se rompa por hacer otras cosas indebidas.

 

Información adicional

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.