Lunes, 01 de Diciembre de 2025

Actualizada Lunes, 01 de Diciembre de 2025 a las 13:37:20 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Redacción
Lunes, 01 de Marzo de 2021
Psicología

¿La apariencia de un robot afecta a cómo juzgamos la ética de sus actos?

Los robots son cada vez más inteligentes y pueden llegar a tomar decisiones éticamente complejas, como por ejemplo la de a quién salvarle la vida y a quién dejar morir, ante la imposibilidad de salvar a ambas personas durante una operación de rescate. Un nuevo estudio ha explorado las reacciones psicológicas que puede experimentar la gente ante acciones como la del ejemplo realizadas por robots de varios tipos.

 

Un equipo internacional que incluye a Michael Laakasuo y Jussi Palomäki, de la Universidad de Helsinki en Finlandia, investiga la actitud de las personas ante las decisiones morales tomadas por sistemas de inteligencia artificial. En el último estudio en esta línea de investigación, los sujetos de estudio leyeron relatos breves en los cuales un robot con apariencia rudimentariamente humanoide, o un robot con aspecto bastante humano llamado “iRobot”, o un robot con una gran apariencia humana llamado “iClooney, o un ser humano, se topan con un dilema moral en una situación en la que deben decidir quién vive y quién muere. A los participantes también se les mostraron imágenes de esos robots y del humano, en concordancia con los relatos que habían leído, y después debían evaluar el grado de ética de las decisiones tomadas.

 

La situación hipotética expuesta a los sujetos de estudio era que un individuo ve cómo un tranvía se mueve, sin que nadie lo controle, hacia cinco personas. El individuo (el humano o uno de los tres robots) puede no hacer nada o desviar el tranvía hacia otra vía, salvando a las cinco personas pero atropellando y matando a otro individuo en la otra vía. Las decisiones de este tipo, que implican matar activamente en vez de tan solo dejar morir despiertan mucha aversión en el Ser Humano a la hora de tomarlas y generan sentimientos contradictorios a la hora de juzgar una decisión de ese tipo tomada por otro. Por regla general, en estos casos se considera que es mejor la decisión que salva la mayor cantidad de vidas, aunque tomarla se considere poco empático e incluso despiadado.

 

Los resultados del estudio revelaron que los participantes consideraban que la decisión tomada por el robot iRobot y por el iClooney era menos sólida desde el punto de vista ético que la misma decisión tomada por el individuo humano y por el robot con apariencia de robot tradicional (muy poco humana). Laakasuo cree que este extraño resultado se debe al fenómeno psicológico conocido como "Valle Extraño", cuya existencia ya ha sido verificada en estudios anteriores.

 

[Img #63340]

Ejemplo de robot con una apariencia “tradicional”, solo someramente humanoide, el Robonaut 2 de la NASA. (Foto: NASA)

 

La teoría del Valle Extraño, propuesta en 1970 por el pionero de la robótica Masahiro Mori, sugiere, entre otras cosas, que cuanto más se parezca un robot a un ser humano, más positivamente reaccionará ante él un humano, pero solo hasta cierto punto. Cuando el parecido es muy grande, pero no hasta el punto de que el observador crea estar ante un humano real y por tanto no se entere de que está ante un robot, se produce una sensación de repulsión o aprensión hacia el androide. Por supuesto, descubrir que alguien a quien considerábamos un humano es en realidad un robot, también puede provocarnos sensaciones de miedo y rechazo.

 

"La condición humana en la inteligencia artificial se percibe como algo inquietante o espeluznante, y las actitudes hacia esos robots son más negativas que hacia los robots con más aspecto de máquina", reitera Laakasuo.

 

Los resultados del estudio indican que los humanos no consideramos una situación inaceptable que los robots tomen decisiones morales, ya que los sujetos de estudio consideraron la decisión tomada por el robot tradicional tan aceptable como la tomada por el humano. En cambio, la apariencia física del robot, concretamente su parecido a un humano, marca la diferencia a la hora de evaluar su moralidad.

 

La cuestión es importante, ya que la cantidad de máquinas inteligentes que toman decisiones morales está creciendo en nuestra sociedad, con los coches autoconducidos en una situación de accidente inminente como ejemplo claro. (Fuente: NCYT de Amazings)

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.