Miércoles, 15 de Octubre de 2025

Actualizada Miércoles, 15 de Octubre de 2025 a las 15:07:18 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Redacción
Domingo, 25 de Octubre de 2020
Computación

Unos investigadores explotan las debilidades de bots jugadores

Si alguna vez has jugado a un videojuego online, es probable que hayas competido con un bot, un programa de inteligencia artificial que juega en nombre de un humano.

 

Muchos de estos bots se crean usando un aprendizaje de refuerzo profundo, que es el entrenamiento que utilizan los algoritmos para aprender cómo lograr un objetivo complejo a través de un sistema de recompensas. Pero, según unos investigadores del Colegio de Ciencias de la Información y Tecnología de la universidad Penn State, el uso de bots de juego entrenados por el aprendizaje de refuerzo profundo podría permitir a atacantes utilizar el engaño para derrotarlos fácilmente.

 

Para destacar este riesgo, los investigadores diseñaron un algoritmo para entrenar a un robot adversario, que fue capaz de descubrir y explotar automáticamente las debilidades de los bots de juego maestros impulsados por algoritmos de aprendizaje de refuerzo. Su robot fue entrenado para derrotar a un robot de inteligencia artificial de clase mundial, en el galardonado juego de computadora StarCraft II.

 

"Este es el primer ataque que demuestra su eficacia en videojuegos del mundo real", dijo Wenbo Guo, estudiante de doctorado que estudia ciencias de la información y tecnología. "Con el éxito del aprendizaje de refuerzo profundo en algunos juegos populares, como AlphaGo en el juego Go y AlphaStar en StarCraft, más y más juegos están empezando a utilizar el aprendizaje de refuerzo profundo para entrenar a sus robots de juego".

 

Agregó: "Nuestro trabajo revela la amenaza para la seguridad de usar agentes entrenados de refuerzo profundo como bots de juego. Esto hará que los desarrolladores de juegos sean más cuidadosos en la adopción de agentes de aprendizaje de refuerzo profundo".

 

[Img #62143]

 

(Foto: Pixabay)

 

Guo y su equipo de investigación presentaron su algoritmo en agosto en Black Hat USA, una conferencia que forma parte de la serie de eventos sobre seguridad de la información más técnica y relevante del mundo. También dieron a conocer públicamente su código y una variedad de bots adversarios de inteligencia artificial.

 

"Usando nuestro código, los investigadores y los hackers de “sombrero blanco” podrían entrenar a sus propios agentes adversarios para dominar muchos - si no todos - los videojuegos multijugador", dijo Xinyu Xing, profesor asistente de ciencias de la información y tecnología en Penn State.

 

Guo concluyó: "Más importante aún, los desarrolladores de juegos podrían usarlo para descubrir las vulnerabilidades de sus robots de juegos y tomar medidas rápidas para parchear esas vulnerabilidades". (Fuente: NCYT Amazings)

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.