Aviso sobre el Uso de cookies: Utilizamos cookies propias y de terceros para mejorar la experiencia del lector y ofrecer contenidos de interés. Si continúa navegando entendemos que usted acepta nuestra política de cookies. Ver nuestra Política de Privacidad y Cookies
Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respetuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Miércoles, 2 septiembre 2015
Robótica

Robótica submarina para explorar arrecifes coralinos

El Centro de Investigación y de Estudios Avanzados (Cinvestav) unidad Saltillo del Instituto Politécnico Nacional (IPN), a través del área de Robótica y Manufactura Avanzada, en México, continúa el desarrollo de la investigación en robótica submarina con un proyecto que implica tomar videos de los arrecifes coralinos de Mahahual, Quintana Roo, con el objetivo de conocer las condiciones de estos ecosistemas, afirmó la investigadora Luz Abril Torres Méndez.

 

Se trata de un proyecto vigente del Consejo Nacional de Ciencia y Tecnología (Conacyt) que utiliza sistemas robóticos acuáticos cognitivos que, a su vez, involucran la transferencia de habilidades motoras perceptivas de humanos, así como de sistemas biológicos marinos, al robot para ejecutar la exploración submarina.

 

Estudiar los arrecifes coralinos involucra saber qué acontece en ese ambiente, dado que muchos organismos marinos ayudan a que el ecosistema en general funcione, afirmó Torres Méndez quien es doctora en Ciencias de la Computación por la Universidad McGill y miembro del Sistema Nacional de Investigadores (SNI) nivel I.

 

La transferencia de habilidades está relacionada con los procesos que utiliza una persona —y animal marino, en este caso— para moverse sin darse cuenta, expresó la especialista. “Es decir, lo que hacemos naturalmente y de manera inmediata; vemos qué nos llama la atención, hacia dónde queremos ir y con base en eso nos vamos moviendo”, detalló.

 

Es lo mismo con el robot en el agua, indicó la doctora. Primero tiene que utilizar un conjunto de algoritmos basados en información visual, en tiempo real, que le indique el objeto que le llame la atención; posteriormente, detectar a dónde se va a dirigir y, finalmente, hacerlo evadiendo obstáculos y evitando colisionar con el ambiente que es delicado.

 

“Para eso hacemos modelos de atención visual e incorporamos información del color. Son sistemas basados en cómo el cerebro se activa con ciertas características”, dijo Torres Méndez.

 

El color implica tener una condición de visibilidad adecuada, lo cual no es muy común en ambientes acuáticos, pues es una de las características que se pierden; en algunas imágenes se ve muy azul o muy verdoso, dependiendo del color del agua y las partículas que están en el ambiente, aseguró la experta.

 

“Los modelos de atención visual que utilizamos nos ayudan a extraer colores, a pesar de que de manera directa en las imágenes capturadas por las cámaras del robot no se observan”, abundó.

 

[Img #30343]

 

Torres Méndez y su equipo han hecho pruebas con Mexibot —un robot anfibio de aluminio con algunas partes de acero, con hardware canadiense y software mexicano— en Mahahual, Quintana Roo, lugar donde se encuentra el segundo arrecife coralino más grande del mundo. “Empezamos con pruebas en alberca. Es un proceso de varias semanas antes de irnos al arrecife. Es la parte que más me apasiona”.

 

"Mexibot tiene aletas y no es tan ruidoso porque solo usa cámaras y sensores internos para saber sus orientaciones", dijo la doctora Torres. La grabación que hace es en tiempo real, pero se puede ver hasta que sacan el robot y obtienen los datos de las computadoras.

 

Mexibot puede estar hasta cuatro horas bajo el mar. “Obviamente no lo podemos dejar porque es un riesgo, hay factores que están fuera de control; es un ambiente muy delicado, son seres vivos muy pequeños. Uno dijera que no pasa nada, pero sí, hay que tener esa precaución”, enfatizó Torres Méndez.

 

Torres Méndez admitió que pese a que se eligieron zonas del arrecife coralino que tal vez no sean de tanto interés para un biólogo —para hacer las pruebas de los algoritmos—, los videos captados por Mexibot sí son de interés porque se han podido percibir algunos cambios en el fondo del mar.

 

Lo difícil es encontrar una zona explorada tiempo atrás; al ser un ambiente sin una estructura “normal” es complicado y se requiere de un mapa para identificar dicha zona, advirtió. “Estamos en eso: realizar un mapa del arrecife coralino de Mahahual para ver de manera más eficiente esos cambios, sin dañar el ambiente ni ser invasivos”.

 

La especialista dijo que, a la par, ella y su equipo de investigación están desarrollando un proyecto que amplíe el campo de visión de las cámaras del robot para tener más acciones al respecto de lo que está observando, y que tenga visión no solo al frente sino también atrás. (Fuente: Nistela Villaseñor/Agencia Informativa Conacyt)

Quizá también puedan interesarle estos enlaces...

Copyright © 1996-2017 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Amazings® / NCYT® • Términos de usoPolítica de PrivacidadMapa del sitio
© 2017 • Todos los derechos reservados - Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Powered by FolioePress