Viernes, 07 de Noviembre de 2025

Actualizada Viernes, 07 de Noviembre de 2025 a las 11:20:09 horas

Tienes activado un bloqueador de publicidad

Intentamos presentarte publicidad respectuosa con el lector, que además ayuda a mantener este medio de comunicación y ofrecerte información de calidad.

Por eso te pedimos que nos apoyes y desactives el bloqueador de anuncios. Gracias.

Continuar...

Redacción
Miércoles, 04 de Marzo de 2020
Matemáticas

Unos matemáticos han enseñado al algoritmo de la selección de datos multivariados a trabajar hasta 8 veces más rápido

Unos matemáticos de la RUDN (Rusia) han acelerado el algoritmo de la agregación de datos mediante la integral de Sugeno. La aplicación del nuevo algoritmo mejorará la calidad de la selección de datos de origen y reducirá el tiempo de cálculo. Este artículo fue publicado en la revista The International Journal of Intelligent Systems.

 

La selección y el análisis de datos fuente se utilizan ampliamente en la sociología, la economía, las ciencias políticas, la neurofisiología, la estadística y otros campos para procesar datos experimentales y probar hipótesis. La tarea principal del algoritmo de análisis y selección de datos es extraer parámetros significativos e independientes de toda la matriz de información fuente y calcular la contribución de cada uno de ellos al valor final de la función dependiente (deseada). Este análisis y selección de datos con parámetros mutuamente dependientes se realiza con la ayuda de medidas difusas. En la práctica, este análisis es complicado debido a la gran cantidad de parámetros y al hecho de que no se sabe qué parámetros son dependientes y cuáles no lo son. Por lo tanto, la complejidad del proceso del aprendizaje de medidas difusas de los datos aumenta exponencialmente con respecto al número de sus parámetros. El segundo problema del aprendizaje de medidas difusas está relacionado con la complejidad del algoritmo de optimización respectivo que aumenta de forma cuadrática con respecto al número de datos.

 

Para acelerar la velocidad del algoritmo de aprendizaje, los empleados del Departamento de Probabilidad Aplicada e Informática de la Universidad RUDN Gleb Beliakov y Dmitryi Divakov decidieron cambiar el escenario de la selección de datos y modificar la función objetivo para que la complejidad de su cálculo aumente linealmente, y no cuadráticamente, como en la versión original. Ellos eligieron la integral de Sugeno como modelo computacional de la función objetivo. La integral se utiliza para evaluar juicios que se definen como variables lingüísticas y también para presentar los resultados en la escala lingüística. Los matemáticos adaptaron el análisis de regresión cuyo objetivo es encontrar el conjunto más adecuado de parámetros de la función desconocida a la integral de Sugeno para la posterior selección alternativa y la toma de decisiones basadas en lógica difusa.

 

[Img #59373]

 

(Foto: RUDN)

 

Beliakov, Divakov y sus coautores seleccionaron datos que tenían un valor cercano y los combinaron en pools con el reemplazo posterior de la pool con un valor promedio común. Después de esta "selección" de datos ellos aplicaron el algoritmo para detectar los intrusos de la pool. El algoritmo PAVA mantuvo la precisión de la solución numérica de la función y permitió ahorrar el tiempo computacional. Por lo tanto, se reduce el tiempo requerido para los cálculos y se preserva la precisión del algoritmo.

 

Los cálculos numéricos se realizaron mediante el método de regresión ordinal. El algoritmo de cálculo numérico se implementó en el lenguaje de programación R. Para recopilar y analizar los resultados, los programas se escribieron en C y C ++.

 

Como criterio para aumentar la eficiencia del cálculo de la función objetivo se utilizó el tiempo de funcionamiento de la unidad central de procesamiento (CPU) necesario para la convergencia del algoritmo de optimización, que caracteriza la velocidad de los cálculos. Basándose en los experimentos numéricos realizados, se compiló una tabla comparativa del trabajo de diferentes algoritmos para un número diferente de parámetros (vectores de datos de tamaño K) y un nivel diferente de complejidad n (n es el tamaño del problema). El algoritmo propuesto por los matemáticos de la RUDN permitió aumentar 3-8 veces la velocidad de la CPU en la considerable cantidad de vectores de datos K igual a 1000. Para los problemas de pequeña escala cuando K es igual a 10 y 100, las ventajas del algoritmo no se notan tanto y llevan los cálculos de aceleración al nivel del 10-20%. (Fuente: RUDN)

Copyright © 1996-2022 Amazings® / NCYT® | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.

Depósito Legal B-47398-2009, ISSN 2013-6714 - Amazings y NCYT son marcas registradas. Noticiasdelaciencia.com y Amazings.com son las webs oficiales de Amazings.

Todos los textos y gráficos son propiedad de sus autores. La reproducción está permitida solo si se incluye el crédito de la fuente (NCYT Amazings) y un enlace dofollow hacia la noticia original.

Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de Amazings® / NCYT®.

Con tu cuenta registrada

Escribe tu correo y te enviaremos un enlace para que escribas una nueva contraseña.