Lunes, 06 de Octubre de 2025

Actualizada Lunes, 06 de Octubre de 2025 a las 16:24:41 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Redacción
Jueves, 05 de Septiembre de 2024
Psicología y computación

¿Nos estamos fiando demasiado de la infalibilidad de la inteligencia artificial?

¿La inteligencia artificial supera a la humana, o lo hará pronto, en muchísimas labores? ¿En una situación grave, deberíamos fiarnos más del criterio de una inteligencia artificial que de nuestro propio criterio? Un nuevo estudio ha examinado hasta qué punto la capacidad humana de tomar decisiones difíciles está siendo relegada por los propios humanos a favor de la capacidad de la inteligencia artificial para tomar decisiones de esa clase.

 

El estudio lo ha realizado un equipo encabezado por Colin Holbrook, de la Universidad de California en Merced, Estados Unidos.

 

Holbrook y sus colegas realizaron una serie de experimentos psicológicos en los cuales los sujetos de estudio debían tomar decisiones peliagudas y para ello contaban con la ayuda de robots supuestamente dotados de inteligencia artificial, quienes podían estar de acuerdo o no con la decisión que la persona, siguiendo su propio criterio, empezaba considerando la mejor.

 

Se advirtió a los sujetos de estudio que la inteligencia artificial de los robots tenía limitaciones y que debido a ello los consejos que les dieran podían ser desacertados. Sin que las personas lo supieran, los consejos que daban los robots estaban escogidos al azar.

 

Sorprendentemente, alrededor de dos tercios de las personas permitieron que un robot les hiciera cambiar de opinión cuando no estaba de acuerdo con ellas, y acabaron tomando la decisión recomendada por el robot, una muestra alarmante de excesiva confianza en la inteligencia artificial, tal como advierten los autores del estudio.

 

[Img #73695]

La imagen muestra a uno de los robots usados en el estudio y ejemplos de comentarios y respuestas que dio a los sujetos de estudio durante los experimentos. (Imagen: UC Merced)

 

Los resultados variaron ligeramente según el tipo de robot utilizado. En un escenario, el robot era un androide de tamaño natural y aspecto humano que podía gesticular. Otros escenarios proyectaban un robot de aspecto humano en una pantalla; y otros mostraban robots en forma de caja, sin ninguna apariencia humana.

 

Los sujetos de estudio se vieron ligeramente más influidos por las inteligencias artificiales de aspecto más humano cuando estas les aconsejaron cambiar de opinión. Aun así, la influencia fue muy similar en todos los casos, ya que los sujetos cambiaron de opinión aproximadamente en dos tercios de las veces, incluso cuando los robots tenían un aspecto físico nada humano.

 

Por otra parte, si el consejo del robot coincidía aleatoriamente con la elección inicial hecha por la persona, esta casi siempre se quedaba con esa elección hasta el final y se sentía significativamente más segura de que su decisión era correcta.

 

A los sujetos de estudio no se les decía si sus elecciones finales eran correctas, lo que aumentaba la incertidumbre de sus acciones. Un inciso: sus primeras elecciones fueron correctas en un 70% de las ocasiones, pero sus elecciones finales se redujeron al 50% después de que el robot les diera su consejo desacertado.

 

El estudio se titula “Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”. Y se ha publicado en la revista académica Scientific Reports. (Fuente: NCYT de Amazings)

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.