Aviso sobre el Uso de cookies: Utilizamos cookies propias y de terceros para mejorar la experiencia del lector y ofrecer contenidos de interés. Si continúa navegando entendemos que usted acepta nuestra política de cookies. Ver nuestra Política de Privacidad y Cookies
Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respetuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Viernes, 18 julio 2014
Computación

Estrategia para una navegación más rápida en grandes webs

Las grandes páginas web gestionan sus propios “centros de datos”, bancos de decenas e incluso cientos de miles de servidores, todos ellos transmitiendo datos de un lado para otro para satisfacer las solicitudes de los usuarios. Como cualquier red grande y descentralizada, los centros de datos son propensos a la congestión, y si las colas se hacen demasiado largas, los paquetes de datos pueden verse retrasados.

 

El equipo de Hari Balakrishnan, Jonathan Perry, Amy Ousterhout y Devavrat Shah, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha desarrollado un nuevo sistema de administración de redes que, en los experimentos, redujo la longitud media de la cola de los routers en un centro de datos de Facebook en un 99,6 por ciento, prácticamente acabando con ellas. Cuando el tráfico de la red era alto, la latencia media (el retraso entre la solicitud de una unidad de información y su llegada), disminuyó casi en la misma proporción, de 3,56 microsegundos a 0,23 microsegundos.

 

Como internet, la mayoría de centros de datos utilizan protocolos de comunicación descentralizados. Cada nodo en la red decide, basándose en sus propias y limitadas observaciones, cuán rápido enviar datos y a qué nodo adyacente. Los protocolos descentralizados tienen la ventaja de la habilidad de gestionar comunicaciones sobre grandes redes con escasa vigilancia administrativa.

 

El sistema del MIT, apodado Fastpass, depende en cambio de un servidor central, el llamado “árbitro”, que decide qué nodos en la red pueden enviar datos a qué otros durante qué períodos de tiempo.

 

[Img #21125]

 

Fastpass selecciona rutas a través de la red para evitar la congestión en cualquier punto entre el que envía y el que recibe. (Ilustración: Christine Daniloff/MIT (animación de Jonathan Perry))

 

Con Fastpass, un nodo que desea transmitir datos emite primero una solicitud al árbitro y recibe a cambio una asignación de enrutamiento. Si acudir al árbitro ya consume hasta quizá unos 40 microsegundos, ¿se puede ganar realmente mucho tiempo con todo este método? Sorprendentemente, sí. Los experimentos de los investigadores indican que un árbitro con ocho núcleos o unidades de procesamiento puede dar abasto a una red que transmita 2,2 terabits de datos por segundo. Eso es el equivalente a un centro de datos con 2.000 servidores y conexiones de no menos de 1 gigabit por segundo, transmitiendo a plena capacidad todo el tiempo.

 

Información adicional

Noticias relacionadas

Copyright © 1996-2017 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Amazings® / NCYT® • Términos de usoPolítica de PrivacidadMapa del sitio
© 2017 • Todos los derechos reservados - Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.
Powered by FolioePress