Martes, 14 de Octubre de 2025

Actualizada Martes, 14 de Octubre de 2025 a las 11:49:22 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Redacción
Martes, 14 de Octubre de 2025
Ética y computación

Inteligencia artificial para hacer el trabajo sucio

Numerosas investigaciones en ciencias del comportamiento han corroborado que es verdad que la gente es más propensa a actuar de forma deshonesta cuando puede distanciarse de las consecuencias de sus malas acciones. Es más fácil saltarse las reglas cuando nadie va a enterarse, o cuando alguien más lleva a cabo el acto prohibido.

 

Una investigación a cargo de un equipo internacional integrado, entre otros, por Zoe Rahwan, del Instituto Max Planck de Desarrollo Humano, y Nils Köbis, de la Universidad de Duisburgo-Essen, en Alemania ambas instituciones, muestra que estos frenos morales se debilitan aún más cuando las personas delegan tareas a una inteligencia artificial.

 

Analizando la conducta de más de 8.000 sujetos de estudio, los investigadores exploraron los riesgos éticos de la delegación automática de ciertas tareas en sistemas de inteligencia artificial, tanto desde la perspectiva de quienes dan las instrucciones como de quienes las ponen en práctica.

 

Al examinar cómo las personas daban instrucciones, descubrieron que eran significativamente más propensas a hacer trampa cuando podían delegar la conducta reprochable en inteligencias artificiales en vez de asumirla ellas mismas, especialmente al utilizar interfaces de usuario que requerían el establecimiento de objetivos de alto nivel, en vez de instrucciones explícitas.

 

Con este enfoque de programación, la deshonestidad alcanzó niveles sorprendentemente altos, con solo una pequeña minoría (12-16%) manteniéndose honesta, en comparación con la gran mayoría (95%) que lo era cuando la tarea debían realizarla las personas por sí mismas. Incluso con el uso menos preocupante de la delegación en una inteligencia artificial (instrucciones explícitas en forma de reglas), solo alrededor del 75% de las personas se comportaron honestamente.

 

[Img #77041]

El nuevo estudio demuestra que mucha gente tiende a ser deshonesta si puede delegar la ejecución del trabajo sucio a una inteligencia artificial y de algún modo trasladar la responsabilidad y la culpabilidad a ella. (Ilustración: Amazings / NCYT)

 

“El uso de inteligencia artificial crea una distancia moral entre las personas y sus acciones la cual puede inducirlas a solicitar comportamientos que no necesariamente realizarían ellas mismas ni solicitarían potencialmente a otros humanos”, afirma Rahwan.

 

El estudio se titula “Delegation to artificial intelligence can increase dishonest behaviour”. Y se ha publicado en la revista académica Nature. (Fuente: NCYT de Amazings)

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.