Ética y computación
Inteligencia artificial para hacer el trabajo sucio
Numerosas investigaciones en ciencias del comportamiento han corroborado que es verdad que la gente es más propensa a actuar de forma deshonesta cuando puede distanciarse de las consecuencias de sus malas acciones. Es más fácil saltarse las reglas cuando nadie va a enterarse, o cuando alguien más lleva a cabo el acto prohibido.
Una investigación a cargo de un equipo internacional integrado, entre otros, por Zoe Rahwan, del Instituto Max Planck de Desarrollo Humano, y Nils Köbis, de la Universidad de Duisburgo-Essen, en Alemania ambas instituciones, muestra que estos frenos morales se debilitan aún más cuando las personas delegan tareas a una inteligencia artificial.
Analizando la conducta de más de 8.000 sujetos de estudio, los investigadores exploraron los riesgos éticos de la delegación automática de ciertas tareas en sistemas de inteligencia artificial, tanto desde la perspectiva de quienes dan las instrucciones como de quienes las ponen en práctica.
Al examinar cómo las personas daban instrucciones, descubrieron que eran significativamente más propensas a hacer trampa cuando podían delegar la conducta reprochable en inteligencias artificiales en vez de asumirla ellas mismas, especialmente al utilizar interfaces de usuario que requerían el establecimiento de objetivos de alto nivel, en vez de instrucciones explícitas.
Con este enfoque de programación, la deshonestidad alcanzó niveles sorprendentemente altos, con solo una pequeña minoría (12-16%) manteniéndose honesta, en comparación con la gran mayoría (95%) que lo era cuando la tarea debían realizarla las personas por sí mismas. Incluso con el uso menos preocupante de la delegación en una inteligencia artificial (instrucciones explícitas en forma de reglas), solo alrededor del 75% de las personas se comportaron honestamente.
El nuevo estudio demuestra que mucha gente tiende a ser deshonesta si puede delegar la ejecución del trabajo sucio a una inteligencia artificial y de algún modo trasladar la responsabilidad y la culpabilidad a ella. (Ilustración: Amazings / NCYT)
“El uso de inteligencia artificial crea una distancia moral entre las personas y sus acciones la cual puede inducirlas a solicitar comportamientos que no necesariamente realizarían ellas mismas ni solicitarían potencialmente a otros humanos”, afirma Rahwan.
El estudio se titula “Delegation to artificial intelligence can increase dishonest behaviour”. Y se ha publicado en la revista académica Nature. (Fuente: NCYT de Amazings)