Miércoles, 03 de Diciembre de 2025

Actualizada Martes, 02 de Diciembre de 2025 a las 14:02:08 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Redacción
Martes, 13 de Febrero de 2024
Computación

Inteligencia artificial ofuscada durante conversaciones muy largas

Cuando una conversación de humanos con una inteligencia artificial especializada en lenguaje acumula muchas interacciones sin pausa, esa inteligencia artificial a veces empieza a funcionar más despacio y a perder calidad.

 

Esto le ocurre a inteligencias artificiales como por ejemplo ChatGPT.

 

Un equipo encabezado por Guangxuan Xiao, del Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos, ha descubierto una sorprendente causa de este problema y ha desarrollado una sencilla solución que permite a un chatbot mantener una conversación ininterrumpida sin bloquearse ni ralentizarse.

 

El método consiste en modificar la memoria caché de clave-valor (que es como una memoria de conversación) en la que se basan muchos modelos lingüísticos de gran tamaño.

 

En algunos métodos, cuando esta caché necesita más información de la que puede almacenar, los primeros datos se eliminan. Esto puede hacer que el modelo falle.

 

Al garantizar que estos primeros datos permanezcan en la memoria, el método de los investigadores permite a un chatbot seguir chateando por muy larga que sea la conversación.

 

[Img #71415]

Los investigadores han desarrollado una técnica que permite a un chatbot de inteligencia artificial como ChatGPT mantener con eficacia una conversación de un día de duración con un humano sin ralentizarse ni perder calidad, por mucho texto que contenga la conversación. (Imagen: Christine Daniloff, MIT. CC BY-NC-ND 3.0)

 

El método, denominado StreamingLLM, permite que un modelo siga siendo eficiente incluso cuando una conversación se prolonga durante más de 4 millones de palabras. En comparación con otro método que evita los bloqueos volviendo a calcular constantemente parte de las conversaciones pasadas, StreamingLLM funcionó 22 veces más rápido.

 

Esto podría permitir a un chatbot mantener largas conversaciones durante toda la jornada laboral sin necesidad de reiniciarse continuamente. (Fuente: NCYT de Amazings)

 

 

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.