banner
Hogar / Noticias / Pronóstico de tráfico de red 5G a largo plazo mediante modelado no
Noticias

Pronóstico de tráfico de red 5G a largo plazo mediante modelado no

Apr 12, 2023Apr 12, 2023

Ingeniería de Comunicaciones volumen 2, Número de artículo: 33 (2023) Citar este artículo

Detalles de métricas

Las redes celulares 5G han fomentado recientemente una amplia gama de aplicaciones emergentes, pero su popularidad ha llevado a un crecimiento del tráfico que supera con creces la expansión de la red. Esta falta de coincidencia puede disminuir la calidad de la red y causar graves problemas de rendimiento. Para reducir el riesgo, los operadores necesitan una predicción del tráfico a largo plazo para realizar planes de expansión de la red con meses de anticipación. Sin embargo, el horizonte de predicción a largo plazo expone la no estacionariedad de las series de datos, lo que deteriora el desempeño de los enfoques existentes. Nos ocupamos de este problema mediante el desarrollo de un modelo de aprendizaje profundo, Diviner, que incorpora procesos estacionarios en una estructura jerárquica bien diseñada y modela series de tiempo no estacionarias con características estables de múltiples escalas. Demostramos una mejora sustancial del rendimiento de Diviner con respecto al estado actual del arte en el pronóstico del tráfico de la red 5G con pronósticos detallados a nivel de meses para puertos masivos con patrones de flujo complejos. Extensos experimentos presentan aún más su aplicabilidad a varios escenarios predictivos sin ninguna modificación, mostrando potencial para abordar problemas de ingeniería más amplios.

La tecnología 5G ha ganado recientemente popularidad en todo el mundo por su velocidad de transferencia más rápida, ancho de banda más amplio, confiabilidad y seguridad. La tecnología 5G puede alcanzar una velocidad máxima teórica 20 veces más rápida que 4G con una latencia más baja, lo que promueve aplicaciones como juegos en línea, servicios de transmisión HD y videoconferencias1,2,3. El desarrollo de 5G está cambiando el mundo a un ritmo increíble y fomentando industrias emergentes como la telemedicina, la conducción autónoma y la realidad extendida4,5,6. Se estima que estas y otras industrias generarán un aumento de 1000 veces en el tráfico de red, lo que requerirá una capacidad adicional para acomodar estos servicios y aplicaciones en crecimiento7. Sin embargo, la infraestructura 5G, como tarjetas de placa y enrutadores, debe implementarse y administrarse con estrictas consideraciones de costos8,9. Por lo tanto, los operadores suelen adoptar una arquitectura distribuida para evitar dispositivos y enlaces masivos adosados ​​entre redes fragmentadas10,11,12,13. Como se muestra en la Fig. 1a, el enrutador metropolitano emergente es el centro para vincular los enrutadores de acceso urbano, donde se puede acceder a los servicios e integrarlos de manera efectiva. Sin embargo, el ciclo de construcción de los dispositivos 5G requiere alrededor de tres meses para programarse, adquirirse e implementarse. La planificación de nuevas infraestructuras requiere pronósticos de tráfico de red precisos con meses de anticipación para anticipar el momento en que la utilización de la capacidad supere el umbral preestablecido, donde la utilización de la capacidad sobrecargada podría conducir en última instancia a problemas de rendimiento. Otro problema se refiere al exceso de recursos causado por la construcción de infraestructuras 5G de grano grueso. Para mitigar estos peligros, los operadores formulan planes de expansión de red con meses de anticipación con predicción de tráfico de red a largo plazo, lo que puede facilitar la planificación a largo plazo para actualizar y escalar la infraestructura de red y prepararla para el próximo período de planificación14,15,16,17.

a Recopilamos los datos de los enlaces MAR-MER. El cilindro naranja representa los enrutadores emergentes metropolitanos (MER) y el cilindro azul pálido representa los enrutadores de acceso metropolitanos (MAR). b La ilustración del proceso de transformación 2D → 3D introducido. Específicamente, dada una serie de tiempo de datos de tráfico de red que abarca K días, construimos una matriz de serie de tiempo \(\widetilde{{{{{{{\bf{X}}}}}}}}=[{\tilde {{{{{{{{\bf{x}}}}}}}}}}_{1}\,\,{\tilde{{{{{{{{\bf{x}}}}} }}}}}_{2}\,\,\ldots \,\,{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{K}]\ ), donde cada \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\) representa los datos de tráfico para un solo día de duración T. El El gráfico 3D resultante muestra los pasos de tiempo a lo largo de cada día, los pasos de tiempo diarios y el tráfico de entrada a lo largo de los ejes x, y y z, respectivamente, con el tráfico de entrada estandarizado. La línea azul en el gráfico 2D y el lado cercano al origen del plano rojo pálido en el gráfico 3D representan el tráfico de red histórico, mientras que la línea amarillenta en el gráfico 2D y el lado alejado del origen del plano rojo pálido en el gráfico 3D plot representan el tráfico de red futuro para predecir. c El flujo de trabajo general del Adivinador propuesto. La línea continua azul indica la dirección del flujo de datos. Tanto el bloque codificador como el decodificador de Diviner contienen un mecanismo de atención de filtro de suavizado (bloque amarillento), un módulo de atención de diferencia (bloque púrpura pálido), una estructura residual (bloque verde pálido) y una capa de avance (bloque gris). Finalmente, se emplea un generador de convolución de un paso (bloque magenta) para convertir la decodificación dinámica en un procedimiento de generación de secuencias.

En la industria, una práctica común es calcular la tasa de crecimiento potencial del tráfico de red mediante el análisis de los datos históricos de tráfico18. Sin embargo, este enfoque no puede escalar para predecir la demanda de nuevos servicios y es menos que satisfactorio para la previsión a largo plazo. Y se han introducido métodos basados ​​en predicciones para resolver este dilema mediante la exploración de las dependencias potenciales involucradas en el tráfico de red histórico, lo que proporciona tanto una restricción como una fuente para evaluar el volumen de tráfico futuro. Los planificadores de redes pueden aprovechar las dependencias para extrapolar pronósticos de tráfico lo suficientemente largos para desarrollar esquemas de expansión sostenibles y estrategias de mitigación. La cuestión clave de esta tarea es obtener una predicción precisa del tráfico de red a largo plazo. Sin embargo, extender directamente el horizonte de predicción de los métodos existentes no es efectivo para el pronóstico a largo plazo, ya que estos métodos sufren una severa degeneración del rendimiento, donde el horizonte de predicción a largo plazo expone la no estacionariedad de las series temporales. Esta no estacionariedad inherente de los datos de series de tiempo del mundo real es causada por variaciones temporales de múltiples escalas, perturbaciones aleatorias y valores atípicos, que presentan varios desafíos. Estos se resumen a continuación. (a) Variaciones temporales multiescala. Las variaciones de múltiples escalas (diarias/semanales/mensuales/anuales) a lo largo de series de tiempo a largo plazo indican patrones latentes no estacionarios de múltiples escalas dentro de la serie de tiempo, que deben tenerse en cuenta de manera integral en el diseño del modelo. El componente estacional, por ejemplo, simplemente presenta variaciones a escalas particulares. (b) Factores aleatorios. Las perturbaciones aleatorias y los valores atípicos interfieren con el descubrimiento de regularidades estables, lo que implica una mayor robustez en los modelos de predicción. (c) Cambio de distribución de datos. La no estacionariedad de la serie temporal da como resultado inevitablemente un problema de desplazamiento del conjunto de datos con la variación de la distribución de los datos de entrada a lo largo del tiempo. La Figura 1b ilustra estos desafíos.

A continuación, revisamos las deficiencias de los métodos existentes para abordar los problemas de no estacionariedad. Los métodos de predicción de series temporales existentes generalmente se dividen en dos categorías, modelos convencionales y modelos de aprendizaje profundo. La mayoría de los modelos convencionales, como ARIMA19,20 y HoltWinters21,22,23,24,25, se construyen con cierta percepción de la serie temporal pero se implementan linealmente, lo que genera problemas para modelar series temporales no estacionarias. Además, estos modelos se basan en parámetros ajustados manualmente para ajustarse a la serie temporal, lo que impide su aplicación en escenarios de predicción a gran escala. Aunque Prophet26 utiliza un parámetro interpretativo y modular no lineal para abordar estos problemas, sus módulos no lineales hechos a mano necesitan ayuda para modelar fácilmente series de tiempo no estacionarias, cuyos patrones complejos hacen que sea ineficiente integrar diversos factores en funciones hechas a mano. Este dilema impulsa el desarrollo de métodos de aprendizaje profundo. Los modelos de aprendizaje profundo pueden utilizar múltiples capas para representar características latentes en un nivel más alto y más abstracto27, lo que nos permite reconocer patrones latentes profundos en series temporales no estacionarias. Las redes neuronales recurrentes (RNN) y las redes de transformadores son dos marcos principales de pronóstico de aprendizaje profundo. Los modelos basados ​​en RNN28,29,30,31,32,33,34 cuentan con un ciclo de retroalimentación que permite que los modelos memoricen datos históricos y procesen secuencias de longitud variable como entradas y salidas, lo que calcula la dependencia acumulada entre pasos de tiempo. Sin embargo, tal modelado indirecto de las dependencias temporales no puede desentrañar la información de diferentes escalas dentro de los datos históricos y, por lo tanto, no captura las variaciones de múltiples escalas dentro de las series temporales no estacionarias. Los modelos basados ​​en transformadores35,36,37 resuelven este problema utilizando un mecanismo de autoatención global en lugar de bucles de retroalimentación. Si lo hace, mejora la capacidad de la red para capturar dependencias e interacciones más largas dentro de los datos de la serie y, por lo tanto, trae un progreso emocionante en varias aplicaciones de series de tiempo38. Para un procesamiento de series de tiempo a largo plazo más eficiente, algunos estudios39,40,41 convierten el mecanismo de autoatención en una versión dispersa. Sin embargo, a pesar de sus prometedores resultados de pronóstico a largo plazo, la especialización de las series de tiempo no se tiene en cuenta durante su proceso de modelado, donde las distribuciones variables de series de tiempo no estacionarias deterioran sus desempeños predictivos. Investigaciones recientes intentan incorporar la descomposición de series temporales en modelos de aprendizaje profundo42,43,44,45,46,47. Aunque sus resultados son alentadores y brindan predicciones más interpretativas y razonables, su descomposición limitada, por ejemplo, la descomposición estacional por tendencia, invierte la correlación entre los componentes y simplemente presenta la variación de la serie temporal en escalas particulares.

En este trabajo, incorporamos procesos estacionarios profundos en redes neuronales para lograr pronósticos de tráfico de red 5G precisos a largo plazo, donde las teorías de procesos estocásticos pueden garantizar la predicción de eventos estacionarios48,49,50. Específicamente, como se muestra en la Fig. 1c, desarrollamos un modelo de aprendizaje profundo, Diviner, que incorpora procesos estacionarios en una estructura jerárquica bien diseñada y modela series de tiempo no estacionarias con características estables de múltiples escalas. Para validar la eficacia, recopilamos un extenso conjunto de datos de tráfico de puertos de red (NPT) de la red metropolitana inteligente que brinda servicios 5G de China Unicom y comparamos el modelo propuesto con numerosas artes actuales en múltiples aplicaciones. Realizamos dos contribuciones de investigación distintas a la predicción de series temporales: (1) Exploramos una vía para resolver los desafíos presentados en la predicción de series temporales a largo plazo mediante el modelado de la no estacionariedad en el paradigma del aprendizaje profundo. Esta línea es mucho más universal y efectiva que los trabajos anteriores incorporando descomposición temporal por su descomposición limitada que simplemente presenta la variación temporal en escalas particulares. (2) Desarrollamos un marco de aprendizaje profundo con una estructura jerárquica bien diseñada para modelar las regularidades estables de múltiples escalas dentro de series temporales no estacionarias. A diferencia de los métodos anteriores que emplean varios módulos en la misma capa, realizamos una transformación de escala dinámica entre diferentes capas y modelamos dependencias temporales estables en la capa correspondiente. Este proceso estacionario profundo jerárquico se sincroniza con la incorporación de funciones en cascada de redes neuronales profundas, lo que nos permite capturar regularidades complejas contenidas en los historiales a largo plazo y lograr pronósticos precisos de tráfico de red a largo plazo. Nuestro experimento demuestra que la solidez y la precisión predictiva mejoran significativamente a medida que consideramos más factores relacionados con la no estacionariedad, lo que brinda una vía para mejorar la capacidad de pronóstico a largo plazo de los métodos de aprendizaje profundo. Además, también mostramos que el modelado de la no estacionariedad puede ayudar a descubrir regularidades latentes no lineales dentro del tráfico de red y lograr un pronóstico de tráfico de red 5G de calidad a largo plazo por hasta tres meses. Además, ampliamos nuestra solución a los campos de clima, control, electricidad, economía, energía y transporte, lo que demuestra la aplicabilidad de esta solución a múltiples escenarios predictivos, mostrando un valioso potencial para resolver problemas de ingeniería más amplios.

En esta sección, presentamos nuestro modelo de aprendizaje profundo propuesto, Diviner, que aborda la no estacionariedad de la predicción de series temporales a largo plazo con procesos estacionarios profundos, que captura características estables multiescala y modela regularidades estables multiescala para lograr resultados a largo plazo. predicción de series de tiempo a largo plazo.

Como se muestra en la Fig. 2a, el mecanismo de atención del filtro de suavizado ajusta la escala de características y permite a Diviner modelar series de tiempo de diferentes escalas y acceder a las características de variación de múltiples escalas dentro de series de tiempo no estacionarias. Construimos este componente basándonos en la regresión de Nadaraya-Watson51,52, un algoritmo clásico para la regresión no paramétrica. Dado el espacio muestral \(\Omega =\{({x}_{i},{y}_{i})| 1\le i\le n,{x}_{i}\in {\mathbb{ R}},{y}_{i}\in {\mathbb{R}}\}\), el tamaño de la ventana h y la función kernel K( ⋅ ), la regresión de Nadaraya-Watson tiene la siguiente expresión:

donde la función kernel K( ⋅ ) está sujeta a \(\int\nolimits_{-\infty }^{\infty }K(x)dx=1\) y n, x, y indican el tamaño de la muestra, la variable independiente y variable dependiente, respectivamente.

a Este panel muestra el mecanismo de atención del filtro de suavizado, que implica calcular los pesos adaptativos K(ξi, ξj) (bloque naranja) y emplear una estructura autoenmascarada (bloque gris con líneas discontinuas) para filtrar los valores atípicos, donde ξi denota el i-ésimo período de serie de tiempo incrustado (bloque amarillo). Los pesos adaptativos sirven para ajustar la escala característica de la serie de entrada y obtener el período transformado en escala incrustando hi (bloque rosa). b Este diagrama ilustra el módulo de atención de diferencias. La Transformación de diferencia de matriz (bloque azul pálido) resta las columnas adyacentes de una matriz para obtener los elementos de consulta, clave y valor desplazados (ΔQ, ΔK y ΔV). Luego, se realiza una autoatención autorregresiva de múltiples cabezas (en el fondo azul pálido) para capturar la correlación de series de tiempo a través de diferentes pasos de tiempo, lo que resulta en \({\widetilde{{{{{{{{\bf{V }}}}}}}}}}_{s}^{(i)}\) para la i-ésima cabeza de atención. Aquí, \({{{{{{{{\bf{Q}}}}}}}}}_{s}^{(i)}\), \({{{{{{{{\bf {K}}}}}}}}}_{s}^{(i)}\), \({{{{{{{{\bf{V}}}}}}}}}_{s }^{(i)}\), y \({\widetilde{{{{{{{{\bf{V}}}}}}}}}}_{s}^{(i)}\) representan la consulta, la clave, el valor y el resultado en elementos, respectivamente. el \({{{{{{{\rm{SoftMax}}}}}}}}\) se aplica al producto punto escalado entre la consulta y los vectores clave para obtener pesos de atención (el bloque amarillo pálido). La fórmula para la función \({{{{{{\rm{SoftMax}}}}}}}}\) es \({{{{{{\rm{SoftMax}}}}}}}} ({{{{{{{{\bf{k}}}}}}}}}_{i})={e}^{{{{{{{{\bf{k}}}}} }}}}_{i}}/\mahop{\sum }\nolimits_{j = 1}^{n}{e}^{{{{{{{{\bf{k}}}}}} }}}_{j}}\), donde ki es el i-ésimo elemento del vector de entrada y n es la longitud del vector de entrada. Por último, la operación Matrix-CumSum (bloque naranja claro) acumula las características desplazadas mediante la operación ConCat, y Ws denota los parámetros de agregación que se pueden aprender.

La regresión de Nadaraya-Watson estima el valor de regresión \(\hat{y}\) usando un método de promedio ponderado local, donde el peso de una muestra (xi, yi), \(K(\frac{x-{x}_ {i}}{h})/\mahop{\sum }\nolimits_{j = 1}^{n}K(\frac{x-{x}_{j}}{h})\), decae con la distancia de xi a x. En consecuencia, la muestra primaria (xi, yi) está más cerca de las muestras cercanas. Este proceso implica la noción básica de transformación de escala, donde las muestras adyacentes se acercan en una escala visual más significativa. Inspirándonos en este pensamiento, podemos reformular la regresión de Nadaraya-Watson desde la perspectiva de la transformación de escala. Lo incorporamos a la estructura de atención para diseñar una unidad de ajuste de escala aprendible. Concretamente, presentamos el mecanismo de atención del filtro de suavizado con una función de kernel que se puede aprender y una operación de enmascaramiento automático, donde el primero reduce (o aumenta) las variaciones para un ajuste de escala de características adaptativo, y la letra elimina los valores atípicos. Para facilitar la comprensión, aquí consideramos el caso de series de tiempo 1D, y el caso de alta dimensión se puede extrapolar fácilmente (se muestra matemáticamente en la Sección "Métodos"). Dado el paso de tiempo ti, estimamos su valor de regresión \({\hat{y}}_{i}\) con un promedio ponderado adaptativo de valores {yt∣t ≠ ti}, \({\hat{y} }_{i}={\sum }_{j\ne i}{\alpha }_{j}{y}_{j}\), donde los pesos adaptativos α se obtienen mediante una función kernel aprendible f. La ventana perforada {tj∣tj ≠ ti} de tamaño n − 1 denota nuestra operación autoenmascarada, y \(f{({y}_{i},y)}_{{w}_{i}}= exp({w}_{i}{({y}_{i}-y)}^{2})\), \({\alpha }_{i}=f{({y}_{i },y)}_{{w}_{i}}/{\sum }_{j\ne i}f{({y}_{j},y)}_{{w}_{i} }\). Nuestros pesos adaptativos varían con la variación interna \(\{{({y}_{i}-y)}^{2}| {t}_{i}\ne t\}\) (disminuida o aumentada), que ajusta (reduciendo o ampliando) la distancia de los puntos a lo largo de cada paso de tiempo y logra una transformación adaptativa a escala de características. Específicamente, la variación menor se reduce aún más en una escala de características grande, se amplía en una escala de características pequeña y viceversa. Con respecto a los componentes aleatorios, la atención global puede servir como un método de suavizado promedio para ayudar a filtrar pequeñas perturbaciones. En cuanto a los valores atípicos, su gran margen frente a los elementos regulares conduce a pesos menores, lo que elimina la interferencia de los valores atípicos. Especialmente cuando la muestra (ti, yi) llega a ser un valor atípico, esta estructura se descarta a sí misma. Por lo tanto, el mecanismo de atención del filtro de suavizado filtra los componentes aleatorios y ajusta dinámicamente las escalas de características. De esta forma, podemos transformar dinámicamente series de tiempo no estacionarias según diferentes escalas, lo que accede a series de tiempo bajo miras integrales.

El módulo de atención de diferencias calcula las conexiones internas entre características desplazadas estables para descubrir regularidades estables dentro de la serie temporal no estacionaria y, por lo tanto, supera la interferencia de las distribuciones desiguales. Concretamente, como se muestra en la Fig. 2b, este módulo incluye las operaciones de diferencia y suma acumulada en ambos extremos del mecanismo de autoatención35, que interconecta el cambio en cada paso de tiempo para capturar conexiones internas dentro de series temporales no estacionarias. La operación de diferencia separa los cambios de las tendencias a largo plazo, donde el cambio se refiere a la diferencia menor en las tendencias entre pasos de tiempo adyacentes. Teniendo en cuenta que las tendencias hacen que la distribución de datos cambie con el tiempo, la operación de diferencia hace que la serie temporal sea estable y varía alrededor de un nivel medio fijo con cambios de distribución menores. Posteriormente, utilizamos un mecanismo de autoatención para interconectar turnos, que captura las dependencias temporales dentro de la variación de la serie temporal. Por último, empleamos una operación CumSum para acumular características desplazadas y generar una serie de tiempo no estacionaria conforme a las regularidades descubiertas.

El mecanismo de atención del filtro de suavizado filtra los componentes aleatorios y ajusta dinámicamente la escala de características. Posteriormente, el módulo de atención de diferencias calcula las conexiones internas y captura la regularidad estable dentro de la serie temporal en la escala correspondiente. Al conectar en cascada estos dos módulos, un bloque de Diviner puede descubrir regularidades estables dentro de series de tiempo no estacionarias en una escala. Luego, apilamos bloques de Diviner en una estructura multicapa para lograr capas de transformación de escala múltiple y capturar características estables de escala múltiple de series de tiempo no estacionarias. Dicha estructura multicapa está organizada en una arquitectura de codificador-decodificador con longitudes de entrada asimétricas para una utilización eficiente de los datos. El codificador toma una larga serie histórica para incorporar tendencias y el decodificador recibe una serie de tiempo relativamente corta. Con la atención cruzada entre el codificador y el decodificador, podemos emparejar la serie temporal más reciente con patrones de variación pertinentes de series históricas largas y hacer inferencias sobre tendencias futuras, mejorando la eficiencia del cálculo y reduciendo la información histórica redundante. El punto es que la serie de tiempo más reciente es más propicia para anticipar el futuro inmediato que la serie de tiempo del pasado remoto, donde la correlación entre los pasos de tiempo generalmente se degrada con la longitud del intervalo53,54,55,56,57. Además, diseñamos un generador para obtener resultados de predicción en un solo paso para evitar problemas de error acumulativo dinámico39. El generador está construido con parámetros compartidos de CovNet a lo largo de cada paso de tiempo basado en el generador de proyección lineal39,58,59, lo que ahorra recursos de hardware. Estas técnicas permiten que los métodos de aprendizaje profundo modelen series de tiempo no estacionarias con características estables de múltiples escalas y produzcan resultados de pronóstico en un paradigma generativo, que es un intento de abordar los problemas de predicción de series de tiempo a largo plazo.

Para validar la eficacia de las técnicas propuestas, recopilamos extensos NPT de China Unicom. Los conjuntos de datos NPT incluyen datos registrados cada 15 minutos durante todo el año 2021 de tres grupos de puertos de tráfico de red metropolitana del mundo real {NPT-1, NPT-2, NPT-3}, donde cada subconjunto de datos contiene {18, 5, 5} puertos, respectivamente. Los dividimos cronológicamente con una proporción de 9:1 para entrenamiento y prueba. Además, preparamos 16 puertos de red para la búsqueda de parámetros. Las principales dificultades radican en el cambio explícito de la distribución y numerosos valores atípicos. Y esta Sección profundiza en la comparación integral de nuestro modelo con modelos basados ​​en predicción y basados ​​en tasa de crecimiento al aplicar el pronóstico de tráfico de red 5G.

Primero comparamos a Diviner con otros métodos basados ​​en la predicción de series de tiempo; anotamos estos modelos de línea de base como Líneas de base-T para mayor claridad. Baselines-T incluye los modelos tradicionales ARIMA19,20 y Prophet26; modelo clásico de aprendizaje automático LSTMa60; modelos basados ​​en aprendizaje profundo Transformer35, Informer39, Autoformer42 y NBeats61. Estos modelos son necesarios para predecir toda la serie de tráfico de red {1, 3, 7, 14, 30} días, alineados con {96, 288, 672, 1344, 2880} intervalos de predicción en la Tabla 1, y los bits de entrada son la función de destino . En términos de evaluación, aunque la precisión predictiva de MAE, MSE y MASE generalmente disminuye con los intervalos de predicción, la tasa de degradación varía entre los modelos. Por lo tanto, presentamos un indicador de velocidad exponencial para medir la tasa de degradación de la precisión. Específicamente, dados los intervalos de tiempo [t1, t2] y los errores MSE, MAE y MASE correspondientes, tenemos lo siguiente:

donde \({\,{{\mbox{dMSE}}}}_{{t}_{1}}^{{t}_{2}},{{{\mbox{dMAE}}}}_{ {t}_{1}}^{{t}_{2}},{{{\mbox{dMASE}}}\,}_{{t}_{1}}^{{t}_{2 }}\en {\mathbb{R}}\). Con respecto a los resultados experimentales cercanos entre {NPT-1, NPT-2 y NPT-3}, nos enfocamos principalmente en el resultado del conjunto de datos NPT-1, y los resultados experimentales se resumen en la Tabla 1. Aunque existen cantidades de valores atípicos y oscilaciones frecuentes en el conjunto de datos NPT, Diviner logra una reducción promedio de MSE del 38,58 % (0,451 → 0,277) y una reducción promedio de MAE del 20,86 % (0,465 → 0,368) según el estado de la técnica. En términos de escalabilidad a diferentes intervalos de predicción, Diviner tiene un \({\,{{\mbox{dMSE}}}\,}_{1}^{30}\) mucho más bajo (4,014 % → 0,750 %) y \({\,{{\mbox{dMAE}}}\,}_{1}^{30}\) (2,343 % → 0,474 %) que la técnica anterior, que muestra una ligera degradación del rendimiento con una mejora sustancial en robustez predictiva cuando el horizonte de predicción se alarga. Las tasas de degradación y el rendimiento predictivo de todos los enfoques de referencia se proporcionan en la Tabla complementaria S1 con respecto a la limitación de espacio.

Los experimentos en NPT-2 y NPT-3 que se muestran en los Datos complementarios 1 reproducen los resultados anteriores, donde Diviner puede admitir una predicción precisa del tráfico de red a largo plazo y superar el arte actual que involucra precisión y robustez por un amplio margen. Además, tenemos los siguientes resultados al clasificar los rendimientos integrales (obtenidos por los errores MASE promedio) de las líneas base establecidas con el marco de Transformer: Diviner> Autoformer> Transformer> Informer. Este orden se alinea con los factores no estacionarios considerados en estos modelos y verifica nuestra propuesta de que la incorporación de la no estacionariedad promueve la capacidad de adaptación de las redes neuronales para modelar series temporales, y la no estacionariedad multiescala del modelado rompe el techo de las capacidades de predicción. para modelos de aprendizaje profundo.

El segundo experimento compara a Diviner con otros dos métodos industriales, cuyo objetivo es predecir la utilización de la capacidad de entradas y salidas con tasas de crecimiento históricas. El experimento comparte los mismos datos de tráfico de puerto de red que en el Experimento 1, mientras que la relación de división se cambia a 3:1 cronológicamente para un horizonte de predicción más largo. Además, usamos un ciclo de construcción largo de {30, 60, 90} días (alineado con {2880, 5760, 8640} pasos de tiempo) para garantizar la validez de dichos métodos basados ​​en la tasa de crecimiento para la ley de los grandes números. Aquí primero definimos matemáticamente la utilización de la capacidad:

Dado un ancho de banda fijo \(B\in {\mathbb{R}}\) y el flujo de tráfico de los k-ésimos ciclos de construcción \(\widetilde{{{{{{{{\bf{X}}}}}}} }}(k)=\left[\begin{matriz}{cccc}{\tilde{{{{{{{\bf{x}}}}}}}}}}_{kC+1}&{ \tilde{{{{{{{{\bf{x}}}}}}}}}}_{kC+2}&...&{\tilde{{{{{{{{\bf{x }}}}}}}}}}_{(k+1)C}\end{matriz}\right]\), \(\widetilde{{{{{{{{\bf{X}}}} }}}}}(k)\in {{\mathbb{R}}}^{T\times C}\), donde \({\tilde{{{{{{{{\bf{x}}} }}}}}}}_{i}\in {{\mathbb{R}}}^{T}\) es un vector de columna de longitud T que representa la serie de tiempo por día y C denota el número de días en uno ciclo de construcción. Entonces, la utilización de la capacidad (CU) del k-ésimo ciclo de construcción se define de la siguiente manera:

donde \(\,{{\mbox{CU}}}\,(k)\in {\mathbb{R}}\). Como se muestra en la definición, la utilización de la capacidad está directamente relacionada con el tráfico de la red, por lo que una predicción precisa del tráfico de la red conduce a una predicción de calidad de la utilización de la capacidad. Comparamos el método predictivo propuesto con dos métodos predictivos de tasa de crecimiento promedio móvil comúnmente utilizados en la industria, los métodos predictivos de tasa de crecimiento promedio móvil aditivo y multiplicativo. Para mayor claridad, observamos el método aditivo como Línea base-A y el método multiplicativo como Línea base-M. Baseline-A calcula una tasa de crecimiento aditivo con la diferencia de los ciclos de construcción adyacentes. Dada la utilización de la capacidad de los dos últimos ciclos de construcción CU(k − 1), CU(k − 2), tenemos lo siguiente:

Baseline-M calcula una tasa de crecimiento multiplicativa con el cociente de los ciclos de construcción adyacentes. Dada la utilización de la capacidad de los dos últimos ciclos de construcción CU(k − 1), CU(k − 2), tenemos lo siguiente:

A diferencia de las dos líneas base anteriores, calculamos la utilización de la capacidad de la red con el pronóstico del tráfico de la red. Dado el tráfico de red de los últimos K ciclos de construcción \(\widetilde{{{{{{{{\bf{X}}}}}}}}}=\left[\begin{array}{ccccccc}{\tilde {{{{{{{{\bf{x}}}}}}}}}}_{(kK)C+1}&...&{\tilde{{{{{{{{\bf{ x}}}}}}}}}}_{(k-K+1)C}&...&{\tilde{{{{{{{\bf{x}}}}}}}} }}_{(k-1)C}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{kC}\end{matriz} \right]\), tenemos lo siguiente:

Resumimos los resultados experimentales en la Tabla 2. Con respecto a los resultados experimentales cercanos entre {NPT-1, NPT-2 y NPT-3} que se muestran, nos enfocamos principalmente en el resultado del conjunto de datos NPT-1, que tiene la mayor cantidad de red. puertos de tráfico. Diviner logra una reducción sustancial de 31.67% MAE (0.846 → 0.578) en entradas y una reducción de 24.25% MAE (0.944 → 0.715) en salidas sobre Baseline-A. Una explicación intuitiva es que los métodos basados ​​en la tasa de crecimiento extraen características históricas particulares pero carecen de adaptabilidad. Notamos que Baseline-A tiene un rendimiento mucho mejor de 0,045 × promedio de entradas-MAE y 0,074 × promedio de salidas-MAE sobre Baseline-M. Este resultado sugiere que el tráfico de red tiende a aumentar linealmente en lugar de exponencialmente. Sin embargo, siguen existiendo variaciones inherentes a múltiples escalas de las series de tráfico de la red, por lo que Diviner aún supera la línea de base A, lo que sugiere la necesidad de aplicar modelos de aprendizaje profundo como Diviner para descubrir regularidades latentes no lineales dentro del tráfico de la red.

Al analizar los resultados de estos dos experimentos en conjunto, presentamos que Diviner posee una tasa de degradación relativamente baja para una predicción de 90 días, \({\,{{\mbox{dMASE}}}\,}_{1}^{ 90}=1.034 \%\). Por el contrario, la tasa de degradación del estado de la técnica llega a \({\,{{\mbox{dMASE}}}\,}_{1}^{30}=2,343 \%\) para una predicción tres veces más corta horizonte de 30 días. Además, considerando diversos patrones de tráfico de red en los conjuntos de datos proporcionados (alrededor de 50 puertos), el método propuesto puede tratar una amplia gama de series temporales no estacionarias, validando su aplicabilidad sin modificaciones. Estos experimentos son testigos del éxito de Diviner al proporcionar pronósticos de tráfico de red a largo plazo de calidad y extender los intervalos de predicción efectivos de los modelos de aprendizaje profundo hasta por tres meses.

Validamos nuestro método en conjuntos de datos de referencia para el clima (WTH), la temperatura del transformador de electricidad (ETT), la electricidad (ECL) y el intercambio (Exchange). Resumimos los resultados experimentales en la Tabla 3. Seguimos el protocolo estándar y los dividimos en conjuntos de entrenamiento, validación y prueba en orden cronológico con una proporción de 7:1:2 a menos que se especifique lo contrario. Debido a la limitación de espacio, los resultados experimentales completos se muestran en Datos complementarios 2.

El conjunto de datos WTH42 registra 21 indicadores meteorológicos para Jena 2020, incluidas la temperatura y la humedad del aire, y WetBulbFarenheit es el objetivo. Este conjunto de datos se cuantifica finamente al nivel de 10 minutos, lo que significa que hay 144 pasos para un día y 4320 pasos para un mes, lo que desafía la capacidad de los modelos para procesar secuencias largas. Entre todas las líneas base, NBeats e Informer tienen el error más bajo en términos de métricas MSE y MAE, respectivamente. Sin embargo, notamos un contraste entre estos dos modelos al extender los intervalos de predicción. Informer se degrada vertiginosamente cuando los intervalos de predicción aumentan de 2016 a 4032 (MAE: 0,417 → 0,853), pero, por el contrario, NBeats obtiene una mejora en el rendimiento (MAE: 0,635 → 0,434). Atribuimos esto a una compensación de buscar contexto y textura. Informer tiene una ventaja sobre la textura en el caso de corto plazo. Aún así, debe capturar la dependencia del contexto de la serie considerando que la longitud de la serie histórica de entrada debe extenderse al ritmo de los intervalos de predicción y viceversa. En cuanto a Diviner, logra una notable reducción media de MAE del 29,30 % (0,488 → 0,345) y una reducción media de MSE del 41,54 % (0,491 → 0,287) sobre Informer y NBeats. Además, Diviner obtiene una baja tasa de degradación de \({\,{{\mbox{dMSE}}}\,}_{1}^{30}=0.439 \%\), \({\,{{\mbox {dMAE}}}\,}_{1}^{30}=0.167 \%\) mostrando su capacidad para aprovechar información histórica dentro de series temporales. Los rendimientos predictivos y las tasas de degradación de todos los enfoques de referencia se proporcionan en la Tabla complementaria S2. Nuestro modelo puede sintetizar el contexto y la textura para equilibrar los casos a corto y largo plazo, lo que garantiza una predicción precisa y sólida a largo plazo.

El conjunto de datos ETT contiene datos de dos años con seis características de carga de energía de dos condados en China, y la temperatura del aceite es nuestro objetivo. Su relación de división de conjunto de entrenamiento/validación/prueba es de 12/4/4 meses39. El conjunto de datos de ETT se divide en dos conjuntos de datos separados en los niveles de 1 hora {ETTh1, ETTh2} y de 15 minutos ETTm1. Por lo tanto, podemos estudiar el rendimiento de los modelos bajo diferentes granularidades, donde los pasos de predicción {96, 288, 672} de ETTm1 se alinean con los pasos de predicción {24, 48, 168} de ETTh1. Nuestros experimentos muestran que Diviner logra el mejor rendimiento en ambos casos. Aunque en el caso del nivel de horas, Diviner supera a las líneas base con el MSE y MAE más cercano a Autoformer (MSE: 0.110 → 0.082, MAE: 0.247 → 0.216). Cuando la granularidad a nivel de horas se convierte en un caso a nivel de minutos, Diviner supera a Autoformer por un amplio margen (MSE: 0,092 → 0,064, MAE: 0,239 → 0,194). Los rendimientos predictivos y la granularidad cambian cuando la granularidad a nivel de hora se convierte en la granularidad a nivel de minuto de todos los enfoques de línea de base que se proporcionan en la Tabla complementaria S3. Estos demuestran la capacidad del Adivinador en el procesamiento de series de tiempo de diferente granularidad. Además, la granularidad es también una manifestación de escala. Estos resultados demuestran que el modelado de características de múltiples escalas es propicio para tratar con series de tiempo de diferente granularidad.

El conjunto de datos de ECL registra el consumo de electricidad de dos años de 321 clientes, que se convierte en consumo por hora debido a los datos que faltan, y MT-320 es la característica objetivo62. Predecimos diferentes horizontes de tiempo de {7, 14, 30, 40} días, alineados con {168, 336, 720, 960} pasos de predicción por delante. A continuación, analizamos los resultados experimentales según los intervalos de predicción (≤360 como predicción a corto plazo, ≥360 como predicción a largo plazo). NBeats logra el mejor rendimiento de pronóstico para la predicción del consumo de electricidad a corto plazo, mientras que Diviner lo supera en el caso de la predicción a largo plazo. El rendimiento a corto y largo plazo de todos los enfoques se proporciona en la Tabla complementaria S4. Estadísticamente, el método propuesto supera a la mejor línea de base (NBeats) al disminuir 17,43 % MSE (0,367 → 0,303), 15,14 % MAE (0,482 → 0,409) a 720 pasos adelante y 6,56 % MSE (0,457 → 0,427) a 9,44 % MAE ( 0,540 → 0,489) a 960 pasos por delante. Atribuimos esto a la escalabilidad, donde diferentes modelos convergen para funcionar de manera similar en el caso de corto plazo, pero sus diferencias emergen cuando el lapso de predicción se vuelve más largo.

El conjunto de datos de Exchange contiene precios de cierre de 5 años de una onza troy de oro en los EE. UU. registrados diariamente desde 2016 hasta 2021. Debido a la fluctuación de alta frecuencia del precio de mercado, el objetivo predictivo es predecir razonablemente su tendencia general (https: //www.lbma.org.uk). Para ello, realizamos una predicción a largo plazo de {10, 20, 30, 60} días. Los resultados experimentales muestran claramente degradaciones de rendimiento aparentes para la mayoría de los modelos de referencia. Dado un historial de 90 días, solo Autoformer y Diviner pueden predecir con errores MAE y MSE inferiores a 1 cuando el intervalo de predicción es de 60 días. Sin embargo, Diviner aún supera a otros métodos con una reducción de MSE promedio del 38,94 % (0,588 → 0,359) y una reducción de MSE promedio del 22,73 % (0,607 → 0,469) y logra el mejor rendimiento de pronóstico. El rendimiento predictivo de todos los enfoques de referencia se proporciona en la Tabla complementaria S5. Estos resultados indican la adaptabilidad de Diviner a la rápida evolución de los mercados financieros y su extrapolación razonable, considerando que generalmente es difícil predecir el sistema financiero.

El conjunto de datos solares contiene los datos de producción de energía solar de 10 minutos de nivel de 1 año (2006) de 137 plantas fotovoltaicas en el estado de Alabama, y ​​PV-136 es la característica de destino (http://www.nrel.gov). Dado que la cantidad de energía solar producida diariamente es generalmente estable, no es necesario realizar una predicción a muy largo plazo. Por lo tanto, establecemos el horizonte de predicción en {1, 2, 5, 6} días, alineado con {144, 288, 720, 864} pasos de predicción por delante. Además, esta característica de la energía solar significa que sus series de producción tienden a ser estacionarias y, por lo tanto, la comparación de los rendimientos predictivos entre diferentes modelos en este conjunto de datos presenta sus capacidades básicas de modelado de series. Concretamente, teniendo en cuenta que el error MASE se puede usar para evaluar el rendimiento del modelo en diferentes series, calculamos y clasificamos el error MASE promedio de cada modelo en diferentes configuraciones de horizonte de predicción para medir la capacidad de modelado de series temporales (proporcionado en la Tabla complementaria S6). Los resultados son los siguientes: Diviner > NBeats > Transformer > Autoformer > Informer > LSTM, donde Diviner supera a todos los modelos basados ​​en Transformer en las líneas base seleccionadas. Siempre que los datos de la serie no sean tan no estacionarios, las ventajas de la no estacionariedad de las series de tiempo de modelado de Autoformer no son evidentes. Al mismo tiempo, la captura de dependencias estables a largo y corto plazo sigue siendo efectiva.

El conjunto de datos de tráfico contiene la tasa de ocupación de carreteras de 2 años (2015-2016) por hora recopilada de 862 sensores en las autopistas del área de la Bahía de San Francisco por el Departamento de Transporte de California, donde el sensor-861 es la función de destino (http://pems.dot. ca.gov). El horizonte de predicción se establece en {7, 14, 30, 40} días, alineado con {168, 336, 720, 960} pasos de predicción por delante. Teniendo en cuenta que la tasa de ocupación de las carreteras tiende a tener un ciclo semanal, usamos este conjunto de datos para comparar la capacidad de diferentes redes para modelar el ciclo temporal. Durante la comparación, nos centramos principalmente en los siguientes dos grupos de modelos de aprendizaje profundo: el grupo 1 tiene en cuenta la especialización no estacionaria de las series temporales (Diviner, Autoformer) y el grupo 2 no emplea ninguna serie temporal específica. componentes (Transformador, Informer, LSTMa). Encontramos que el grupo 1 gana una mejora significativa en el rendimiento sobre el grupo 2, lo que sugiere la necesidad de modelar la no estacionariedad. En cuanto al modelo de Diviner propuesto, logra una reducción del MAE de 27,64% (0,604 → 0,437) al modelo de Transformador al pronosticar las tasas de ocupación de las vías a 30 días. Posteriormente, realizamos una comparación intragrupo para el grupo 1, donde Diviner aún obtiene una reducción promedio de MAE del 35,37 % (0,523 → 0,338) frente a Autoformer. El rendimiento predictivo de todos los enfoques se proporciona en la Tabla complementaria S7. Atribuimos esto al modelo de escala múltiple de no estacionariedad de Diviner, mientras que la descomposición estacional de tendencia de Autoformer simplemente refleja la variación de la serie temporal en escalas particulares. Estos resultados experimentales demuestran que Diviner es competente en la predicción de datos de series temporales con ciclos.

Estudiamos el problema de la predicción del tráfico de la red 5G a largo plazo mediante el modelado de la no estacionariedad con técnicas de aprendizaje profundo. Aunque alguna literatura63,64,65 en la etapa inicial argumenta que el pronóstico de tráfico probabilístico bajo incertidumbre es más adecuado para el tráfico de red variable que un pronóstico concreto producido por modelos de series de tiempo, el pronóstico de tráfico probabilístico y el pronóstico de tráfico concreto comparten el mismo histórico. información en esencia. Además, el desarrollo de técnicas de pronóstico de series de tiempo en estos años ha sido testigo de una serie de trabajos que emplean técnicas de pronóstico de series de tiempo para aplicaciones prácticas como la gestión de ancho de banda14,15, la asignación de recursos16 y el aprovisionamiento de recursos17, donde los métodos basados ​​en la predicción de series de tiempo pueden proporcionar información detallada. previsión de tráfico de red. Sin embargo, los métodos de pronóstico de series de tiempo existentes sufren una severa degeneración del rendimiento ya que el horizonte de predicción a largo plazo expone la no estacionariedad de las series de tiempo, lo que plantea varios desafíos: (a) Variaciones temporales de múltiples escalas. (b) Factores aleatorios. (c) Cambio de distribución de datos.

Por lo tanto, este artículo intenta desafiar el problema de lograr una predicción precisa a largo plazo para series de tiempo no estacionarias. Partimos de la propiedad fundamental de la no estacionariedad de las series temporales e introducimos procesos estacionarios profundos en una red neuronal, que modela regularidades estables multiescala dentro de series temporales no estacionarias. Argumentamos que capturar las características estables es una receta para generar pronósticos no estacionarios que se ajusten a las regularidades históricas. Las características estables permiten que las redes restrinjan el espacio latente de las series de tiempo, que se ocupa de problemas de distribución variables. Los extensos experimentos sobre la predicción del tráfico de red y otros escenarios del mundo real demuestran sus avances sobre los modelos existentes basados ​​en la predicción. Sus ventajas se resumen a continuación. (a) Diviner aporta una mejora destacada en la predicción a corto y largo plazo y logra un rendimiento de última generación. (b) Diviner puede funcionar con solidez independientemente de la selección del intervalo de predicción y la granularidad, mostrando un gran potencial para la previsión a largo plazo. (c) Diviner mantiene una fuerte generalización en varios campos. El rendimiento de la mayoría de las líneas de base podría degradarse precipitadamente en algunas u otras áreas. Por el contrario, nuestro modelo se distingue por un rendimiento constante en cada punto de referencia.

Este trabajo explora una vía para obtener pronósticos de tráfico de red 5G detallados y precisos a largo plazo, que se pueden usar para calcular el tiempo en que el tráfico de red podría desbordar la capacidad y ayuda a los operadores a formular esquemas de construcción de red con meses de anticipación. Además, Diviner genera pronósticos de tráfico de red a largo plazo al minuto, lo que facilita sus aplicaciones más amplias para el aprovisionamiento, asignación y monitoreo de recursos. Los responsables de la toma de decisiones pueden aprovechar las predicciones a largo plazo para asignar y optimizar los recursos de la red. Otra aplicación práctica es lograr un sistema de monitoreo automático del estado de la red, que emite una alarma automáticamente cuando el tráfico real de la red excede un rango permitido alrededor de las predicciones. Este sistema es compatible con la alerta temprana a nivel de puerto específico y ayuda a los trabajadores a solucionar problemas a tiempo, lo que puede generar una mejora sustancial de la eficiencia considerando las decenas de millones de puertos de red que se ejecutan en línea. Además de las redes 5G, hemos ampliado nuestra solución a campos de ingeniería más amplios, como la electricidad, el clima, el control, la economía, la energía y el transporte. Predecir la temperatura del aceite puede ayudar a evitar que el transformador se sobrecaliente, lo que afecta la vida útil del aislamiento del transformador y garantiza un funcionamiento adecuado66,67. Además, la predicción meteorológica a largo plazo ayuda a seleccionar y sembrar cultivos en la agricultura. Como tal, podemos descubrir regularidades desapercibidas dentro de los datos de series históricas, lo que podría brindar oportunidades a las industrias tradicionales.

Una limitación de nuestro modelo propuesto es que sufre transiciones críticas de patrones de datos. Esto lo atribuimos a factores externos, cuya información generalmente no se incluye en los datos medidos53,55,68. Nuestro método es útil en el descubrimiento de la regularidad intrínseca dentro de la serie temporal, pero no puede predecir patrones no registrados previamente en el mundo real. Alternativamente, podemos usar métodos de redes dinámicas69,70,71 para detectar tales transiciones críticas en la serie de tiempo53. Además, el rendimiento de Diviner podría ser similar al de otros modelos de aprendizaje profundo si se le dan algunas series históricas o en el caso de la predicción a corto plazo. El primero contiene información insuficiente para ser explotada, y la predicción a corto plazo necesita más escalabilidad de problemas, mientras que las ventajas de nuestro modelo se hacen evidentes en escenarios de pronóstico a largo plazo.

Denotamos la forma original de los datos de la serie temporal como \({{{{{{{\bf{X}}}}}}}}=\left[\begin{array}{cccc}{x}_{ 1}&{x}_{2}&...&{x}_{n}\end{array}\right],{x}_{i}\in {\mathbb{R}}\). Los datos de la serie de tiempo original X se reforman en forma de matriz como \(\widetilde{{{{{{{\bf{X}}}}}}}}=\left[\begin{array}{cccc} {\tilde{{{{{{{{\bf{x}}}}}}}}}}_{1}&{\tilde{{{{{{{{\bf{x}}}}} }}}}}_{2}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{K}\end{matriz}\right ]\), donde \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\) es un vector de longitud T con los datos de la serie temporal por día/semana/mes/año, K denota el número de días/semanas/meses/años, \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{ i}\en {{\mathbb{R}}}^{T}\). Después de eso, podemos representar el patrón estacional como \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\) y usar su variación entre tiempos adyacentes pasos para modelar tendencias, que se muestran a continuación:

donde \(\Delta {\widetilde{{{{{{{\rm{s}}}}}}}}}}_{t}\) denota el cambio del patrón estacional, \(\Delta {\ widetilde{{{{{{{{\rm{s}}}}}}}}}}_{t}\in {{\mathbb{R}}}^{T}\). El cambio refleja la variación entre pequeños pasos de tiempo, pero cuando dicha variación (cambio) se acumula durante un período bastante largo, aparece la tendencia d. Se puede lograr como \(\mathop{\sum }\nolimits_{t = {t}_{1}}^{{t}_{2}-1}\Delta {\widetilde{{{{{{{ {\rm{s}}}}}}}}}}_{t}\). Por lo tanto, podemos modelar tendencias capturando las dependencias de largo y corto plazo de los cambios entre diferentes pasos de tiempo.

A continuación, presentamos un mecanismo de atención de filtro de suavizado para construir capas de transformación de múltiples escalas. Se monta un módulo de atención de diferencias para capturar e interconectar turnos de la escala correspondiente. Estos mecanismos hacen que nuestro Diviner capture variaciones de múltiples escalas en series de tiempo no estacionarias, y la descripción matemática se enumera a continuación.

Dados los datos de la serie temporal X, transformamos X en \(\widetilde{{{{{{{{\bf{X}}}}}}}}}=\left[\begin{array}{cccc}{\ tilde{{{{{{{{\bf{x}}}}}}}}}}_{1}&{\tilde{{{{{{{{\bf{x}}}}}}} }}}_{2}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{K}\end{matriz}\right]\ ), donde \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\) es un vector de longitud T con la serie temporal de datos por día ( estacional), y K denota el número de días, \({\tilde{{{{{{{{\bf{x}}}}}}}}}}_{i}\in {{\mathbb{R }}}^{T}\), \(\widetilde{{{{{{{{\bf{X}}}}}}}}}\in {{\mathbb{R}}}^{T\ veces K}\). Luego construimos la entrada dual para Diviner. Notando que Diviner adopta una arquitectura de codificador-decodificador, construimos \({{{{{{{{\bf{X}}}}}}}}}_{en}^{in}\) para codificador y \( {{{{{{{{\bf{X}}}}}}}}}_{de}^{in}\) para decodificador, donde \({{{{{{{{\bf{X} }}}}}}}}_{en}^{in}=\left[\begin{array}{cccc}{\tilde{{{{{{{{\bf{x}}}}}}} }}}_{1}&{\tilde{{{{{{{{\bf{x}}}}}}}}}}_{2}&...&{\tilde{{{{{ {{{\bf{x}}}}}}}}}}_{K}\end{matriz}\right]\), \({{{{{{{{\bf{X}}}} }}}}}_{de}^{in}=\left[\begin{array}{cccc}{\tilde{{{{{{{{\bf{x}}}}}}}}}} _{K-{K}_{de}+1}&{\tilde{{{{{{{{\bf{x}}}}}}}}}_{K-{K}_{de }}&...&{\tilde{{{{{{{{\bf{x}}}}}}}}}_{K}\end{matriz}\right]\), y \( {{{{{{{{\bf{X}}}}}}}}}_{en}^{in}\in {{\mathbb{R}}}^{K}\), \({ {{{{{{{\bf{X}}}}}}}}}_{de}^{in}\in {{\mathbb{R}}}^{{K}_{de}}\ ). Esto significa que \({{{{{{{{\bf{X}}}}}}}}}_{en}^{in}\) toma todos los elementos de \(\widetilde{{{{{{ {{\bf{X}}}}}}}}}\) mientras que \({{{{{{{{\bf{X}}}}}}}}}_{de}^{in}\ ) toma solo los últimos elementos de Kde. Después de eso, una capa completamente conectada en \({{{{{{{{\bf{X}}}}}}}}}_{en}^{in}\) y \({{{{{{ {{\bf{X}}}}}}}}}_{de}^{in}\) se usa para obtener \({{{{{{{\bf{E}}}}}}} }}_{en}^{in}\) y \({{{{{{{{\bf{E}}}}}}}}}_{de}^{in}\), donde \( {{{{{{{{\bf{E}}}}}}}}}_{en}^{in}\in {{\mathbb{R}}}^{{d}_{m}\ veces K}\), \({{{{{{{\bf{E}}}}}}}}}_{de}^{in}\in {{\mathbb{R}}}^{ {d}_{m}\times {K}_{de}}\) y dm denota la dimensión del modelo.

Inspirándonos en la regresión de Nadaraya-Watson51,52 acercando los puntos adyacentes, presentamos el mecanismo de atención del filtro de suavizado con una función de núcleo aprendible y una arquitectura autoenmascarada, donde el primero acerca elementos similares para filtrar el componente aleatorio y ajustar el no -datos estacionarios a características estables, y la carta reduce los valores atípicos. El mecanismo de atención del filtro de suavizado se implementa en función de la entrada \({{{{{\bf{E}}}}}}}}=\left[\begin{array}{cccc}{{{{{{ {{\boldsymbol{\xi }}}}}}}}}_{1}&{{{{{{{\boldsymbol{\xi }}}}}}}}}_{2}&.. .&{{{{{{{{\boldsymbol{\xi }}}}}}}}}_{{K}_{in}}\end{array}\right]\), donde \({{ {{{{{{\boldsymbol{\xi }}}}}}}}}_{i}\in {{\mathbb{R}}}^{{d}_{m}}\), E es la referencia general a la entrada de cada capa, para codificador Kin = K, y para decodificador Kin = Kde. Específicamente, \({{{{{{{{\bf{E}}}}}}}}}_{en}^{in}\) y \({{{{{{{{\bf{E }}}}}}}}}_{de}^{in}\) son, respectivamente, la entrada de la primera capa de codificador y decodificador. El proceso de cálculo se muestra a continuación:

donde \({{{{{{{{\bf{w}}}}}}}}}_{i}\in {{\mathbb{R}}}^{{d}_{m}}, i\in [1,{K}_{in}]\) denota los parámetros que se pueden aprender, ⊙ denota el múltiplo de elemento, (⋅)2 denota el cuadrado de elemento y el cuadrado de un vector aquí representa el elemento- cuadrado sabio. Para simplificar la representación, asignamos el mecanismo de atención del filtro de suavizado como Smoothing-Filter(E) y denotamos su salida como Hs. Antes de presentar nuestro módulo de atención de diferencias, primero definimos la diferencia entre una matriz y su operación inversa CumSum.

Dada una matriz \({{{{{{{\bf{M}}}}}}}}\in {{\mathbb{R}}}^{m\times n}\), \({{{ {{{{\bf{M}}}}}}}}=\left[\begin{matriz}{cccc}{{{{{{{\bf{m}}}}}}}}}_ {1}&{{{{{{{{\bf{m}}}}}}}}}_{2}&...&{{{{{{{{\bf{m}}}} }}}}}_{n}\end{array}\right]\), la diferencia de M se define como:

donde \(\Delta {{{{{{{{\bf{m}}}}}}}}}_{i}={{{{{{{{\bf{m}}}}}}} }}_{i+1}-{{{{{{{{\bf{m}}}}}}}}}_{i},\Delta {{{{{{{{\bf{m} }}}}}}}_{i}\in {{\mathbb{R}}}^{m},i\in [1,n)\) y rellenamos Δmn con Δmn−1 para mantener un valor fijo longitud antes y después de la operación de diferencia. La operación CumSum Σ hacia M se define como:

donde \(\Sigma {{{{{{{\bf{m}}}}}}}}}_{i}=\mahop{\sum }\nolimits_{j = 1}^{i}{{ {{{{{{\bf{m}}}}}}}}}_{j},\Sigma {{{{{{{{\bf{m}}}}}}}}}_{i }\in {{\mathbb{R}}}^{m}.\) El módulo de atención diferencial, intuitivamente, puede verse como un mecanismo de atención conectado entre estas dos operaciones, matemáticamente descrito de la siguiente manera.

La entrada de este modelo involucra tres elementos: Q, K, V. El (Q, K, V) varía entre el codificador y el decodificador, que es \(({{{{{{{{\bf{H}}} }}}}}}_{s}^{en},{{{{{{{{\bf{H}}}}}}}}}_{s}^{en},{{{{{ {{{\bf{H}}}}}}}}}_{s}^{en})\) para el codificador y \(({{{{{{{{\bf{H}}}} }}}}}_{s}^{de},{{{{{{{{\bf{E}}}}}}}}}_{en}^{fuera},{{{{{{ {{\bf{E}}}}}}}}}_{en}^{out})\) para el decodificador, donde \({{{{{{{{\bf{E}}}}} }}}}_{en}^{out}\) es el resultado incrustado del bloque codificador final (asignado en el pseudocódigo), \({{{{{{{{\bf{H}}}} }}}}}_{s}^{en}\in {{\mathbb{R}}}^{{d}_{m}\times K},{{{{{{{{\bf{H }}}}}}}}}_{s}^{de}\in {{\mathbb{R}}}^{{d}_{m}\times {K}_{de}},{{ {{{{{{\bf{E}}}}}}}}}_{en}^{out}\in {{\mathbb{R}}}^{{d}_{m}\times K }\).

donde \({{{{{{{{\bf{W}}}}}}}}}_{q}^{(i)}\in {{\mathbb{R}}}^{{d} _{a}\times {d}_{m}}\), \({{{{{{{{\bf{W}}}}}}}}}_{k}^{(i)} \in {{\mathbb{R}}}^{{d}_{attn}\times {d}_{m}}\), \({{{{{{{{\bf{W}}} }}}}}}_{v}^{(i)}\in {{\mathbb{R}}}^{{d}_{a}\times {d}_{m}}\), \ ({{{{{{{{\bf{W}}}}}}}}}_{s}\in {{\mathbb{R}}}^{{d}_{m}\times h{ d}_{a}}\), \({{{{{{{\bf{D}}}}}}}}\in {{\mathbb{R}}}^{{d}_{m }\times K}\), i ∈ [1, h], h denota el número de atenciones paralelas. \(\left[\begin{array}{c}\cdot \end{array}\right]\) denota la concatenación de matriz, \({\widetilde{{{{{{{{\bf{V}} }}}}}}}}_{s}^{(i)}\) denota el cambio profundo y D denota la tendencia profunda. Denotamos el módulo de atención diferencial como Atención diferencial (Q, K, V) para facilitar las representaciones.

La salida final de Diviner se calcula a través de capas convolucionales, llamadas generadores de un paso, que toman la salida de la capa final del decodificador \({{{{{{{\bf{E}}}}}}}}} _ {de}^{out}\) como entrada:

donde \({{{{{{{{\bf{R}}}}}}}}}_{predict}\in {{\mathbb{R}}}^{{d}_{m}\times {K}_{r}},{{{{{{{{\bf{E}}}}}}}}}_{de}^{(M)}\in {{\mathbb{R}} }^{{d}_{m}\times {K}_{de}}\), ConvNet es una red multicapa de convolución completa, cuyos canales de entrada y salida son la longitud de entrada del decodificador Kde y la longitud de predicción Kr, respectivamente.

Para facilitar la reproducción, resumimos el marco de nuestro Adivinador en el siguiente pseudocódigo:

Los conjuntos de datos que respaldan nuestro trabajo se han depositado en https://doi.org/10.5281/zenodo.7827077. Sin embargo, se aplican restricciones a la disponibilidad de los datos de NPT, que se usaron bajo licencia para el estudio actual y, por lo tanto, no están disponibles públicamente. Sin embargo, los datos están disponibles a través de los autores previa solicitud razonable y con el permiso del Instituto de Consultoría de Diseño de Tecnología de la Información de China.

Los códigos están disponibles en https://doi.org/10.5281/zenodo.7825740.

Jovović, I., Husnjak, S., Forenbacher, I. & Maček, S. Aplicación innovadora de la tecnología 5G y blockchain en la industria 4.0. EAI Endoso Trans. Red Ind. Intel. sist. 6, e4 (2019).

Osseiran, A. et al. Escenarios para comunicaciones móviles e inalámbricas 5G: la visión del proyecto METIS. Común IEEE. revista 52, 26–35 (2014).

Artículo Google Académico

Wu, G., Yang, C., Li, S. & Li, GY Avances recientes en redes energéticamente eficientes y su aplicación en sistemas 5G. Cable IEEE. común 22, 145–151 (2015).

Artículo Google Académico

Hui, H., Ding, Y., Shi, Q., Li, F. y Yan, J. Internet de las cosas basado en la red 5G para la respuesta a la demanda en la red inteligente: una encuesta sobre el potencial de la aplicación. aplicación Energía 257, 113972 (2020).

Artículo Google Académico

Johansson, NA, Wang, Y., Eriksson, E. y Hessler, M. Acceso por radio para comunicaciones 5G ultra confiables y de baja latencia. en Actas de la Conferencia Internacional IEEE sobre Taller de Comunicación, 1184–1189 (2015).

Yilmaz, O., Wang, Y., Johansson, NA, Brahmi, N. & Sachs, J. Análisis de la comunicación 5G ultra confiable y de baja latencia para un caso de uso de automatización de fábrica. en Actas de la Conferencia Internacional IEEE sobre Taller de Comunicación (2015).

Fernández, ML, Huertas, CA, Gil, PM, García, CFJ & Martínez, PG Gestión dinámica de un sistema de detección de anomalías basado en deep learning para redes 5G. J. Inteligencia ambiental. Tararear. computar 10, 3083–3097 (2019).

Artículo Google Académico

O'Connell, E., Moore, D. & Newe, T. Desafíos asociados con la implementación de 5G en la fabricación. Telecomunicaciones 1, 48–67 (2020).

Artículo Google Académico

Oughton, EJ, Frias, Z., van der Gaast, S. & van der Berg, R. Evaluación de la capacidad, la cobertura y el costo de las estrategias de infraestructura 5G: Análisis de los Países Bajos. telemático. Informar. 37, 50–69 (2019).

Artículo Google Académico

Gupta, A. & Jha, RK Un estudio de la red 5g: arquitectura y tecnologías emergentes. Acceso IEEE 3, 1206–1232 (2015).

Artículo Google Académico

Wang, C. et al. Arquitectura celular y tecnologías clave para redes de comunicación inalámbrica 5G. Común IEEE. revista 52, 122–130 (2014).

Artículo Google Académico

Li, QC, Niu, H., Papathanassiou, AT & Wu, G. Capacidad de la red 5G: elementos y tecnologías clave. Tecnología vehicular IEEE. revista 9, 71–78 (2014).

Artículo Google Académico

Liu, H. Investigación sobre asignación de recursos y tecnología de optimización en la red de comunicación 5G. En Actas de la Conferencia internacional sobre electrónica de consumo e ingeniería informática, 209–212 (2022).

Yoo, W. & Sim, A. Modelado de pronóstico de series temporales en mediciones de red de gran ancho de banda. J. Cómputo de cuadrícula. 14, 463–476 (2016).

Artículo Google Académico

Wei, Y., Wang, J. & Wang, C. Un algoritmo de gestión de ancho de banda basado en predicción de tráfico de una futura arquitectura de Internet. en Actas de la Conferencia Internacional sobre Redes Inteligentes y Sistemas Inteligentes, 560–563 (2010).

Garroppo, RG, Giordano, S., Pagano, M. y Procissi, G. Sobre la predicción del tráfico para la asignación de recursos: un esquema de asignación basado en el límite de Chebyshev. computar común 31, 3741–3751 (2008).

Artículo Google Académico

Bega, D., Gramaglia, M., Fiore, M., Banchs, A. & Costa-Pérez, X. Deepcog: Optimización del aprovisionamiento de recursos en la división de redes con pronóstico de capacidad basado en inteligencia artificial. IEEE J. Sel. Zonas Comunes 38, 361–376 (2019).

Artículo Google Académico

Hassidim, A., Raz, D., Segalov, M. y Shaqed, A. Utilización de la red: la vista de flujo. en Actas de 2013 IEEE INFOCOM, 1429–1437 (2013).

Box, G., Jenkins, G., Reinsel, G. y Ljung, G. Análisis de series temporales: pronóstico y control (John Wiley & Sons, América, 2015).

Box, GE & Jenkins, GM Algunos avances recientes en pronóstico y control. Estado JR. Soc. C 17, 91–109 (1968).

MathSciNet Google Académico

Moayedi, H. & Masnadi-Shirazi, M. Arima modelo para predicción de tráfico de red y detección de anomalías. en Actas del Simposio Internacional sobre Tecnología de la Información, vol. 4, 1–6 (2008).

Azari, A., Papapetrou, P., Denic, S. & Peters, G. Predicción y clasificación del tráfico celular: una evaluación comparativa de lstm y arima. En Actas de la Conferencia Internacional sobre Discovery Science, 129-144 (2019).

Tikunov, D. & Nishimura, T. Predicción de tráfico para redes móviles utilizando el suavizado exponencial de Holt-Winter. En Actas de la Conferencia Internacional sobre Software, Telecomunicaciones y Redes Informáticas, 1–5 (2007).

Shu, Y., Yu, M., Yang, O., Liu, J. y Feng, H. Modelado y predicción de tráfico inalámbrico mediante modelos arima estacionales. IECE Trans. común 88, 3992–3999 (2005).

Artículo Google Académico

Rafsanjani , MK , Rezaei , A. , Shahraki , A. & Saeid , AB Qarima: un nuevo enfoque para la predicción en la teoría de colas . aplicación Matemáticas. Informática. Rev. 244, 514–525 (2014).

MathSciNet MATEMÁTICAS Google Académico

Taylor, S. & Letham, B. Pronósticos a escala. Soy. Estadística 72, 37–45 (2018).

Artículo MathSciNet MATEMÁTICAS Google Académico

LeCun, Y., Bengio, Y. & Hinton, G. Aprendizaje profundo. Naturaleza 521, 436–444 (2015).

Artículo Google Académico

Hochreiter, S. & Schmidhuber, J. Memoria larga a corto plazo. Cómputo neuronal. 9, 1735-1780 (1997).

Artículo Google Académico

Salinas, D., Flunkert, V., Gasthaus, J. & Januschowski, T. DeepAR: pronóstico probabilístico con redes recurrentes autorregresivas. En t. J. Pronóstico. 36, 1181–1191 (2020).

Artículo Google Académico

Qin, Y. et al. Una red neuronal recurrente basada en la atención de dos etapas para la predicción de series temporales. en Actas de la Conferencia Conjunta Internacional sobre Inteligencia Artificial, 2627–2633 (2017).

Mona, S., Mazin, E., Stefan, L. y Maja, R. Modelado de series temporales irregulares con unidades recurrentes continuas. proc. En t. Conf. Mach. Aprender. 162, 19388–19405 (2022).

Google Académico

Kashif, R., Calvin, S., Ingmar, S. & Roland, V. Modelos de difusión de eliminación de ruido autorregresivos para el pronóstico de series temporales probabilísticas multivariadas. en Actas de la Conferencia Internacional sobre Aprendizaje Automático, vol. 139, 8857–8868 (2021).

Alasdair, T., Alexander, PM, Cheng, SO y Xie, L. Radflow: un modelo recurrente, agregado y descomponible para redes de series temporales. en Actas de la Conferencia Internacional de la World Wide Web, 730–742 (2021).

Ling, F. et al. El aprendizaje automático multitarea mejora la predicción multiestacional del dipolo del océano Índico. Nat. común 13, 1–9 (2022).

Artículo Google Académico

Vaswani, A. et al. La atención es todo lo que necesitas. proc. año Conf. Información neuronal Proceso. sist. 30, 5998–6008 (2017).

Google Académico

Alexandre, D., Étienne, M. & Nicolas, C. TACTiS: cópulas de atención transformadora para series temporales. en Actas de la Conferencia Internacional sobre Aprendizaje Automático, vol. 162, 5447–5493 (2022).

Tung, N. & Aditya, G. Procesos neuronales transformadores: metaaprendizaje consciente de la incertidumbre a través del modelado de secuencias. en Actas de la Conferencia Internacional sobre Aprendizaje Automático, vol. 162, 16569–16594 (2022).

Wen, Q. et al. Transformadores en series de tiempo: una encuesta. CDR (2022).

Zhou, H. et al. Informer: más allá de un transformador eficiente para pronósticos de series de tiempo de secuencia larga. en Actas de la Conferencia AAAI sobre Inteligencia Artificial (2021).

Kitaev, N., Kaiser, L. y Levskaya, A. Reformer: el transformador eficiente. en Actas de la Conferencia Internacional sobre Representaciones de Aprendizaje (2019).

Li, S. et al. Mejorar la localidad y romper el cuello de botella de memoria del transformador en el pronóstico de series de tiempo. en Actas de la 33ª Conferencia Anual sobre Sistemas de Procesamiento de Información Neural vol. 32, 5244–5254 (2019).

Wu, H., Xu, J., Wang, J. & Long, M. Autoformer: transformadores de descomposición con autocorrelación para pronósticos de series a largo plazo. en Actas de la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural, vol. 34, 22419–22430 (2021).

Zhou, T. et al. Fedformer: transformador descompuesto de frecuencia mejorada para pronósticos de series a largo plazo. en Actas de la Conferencia Internacional sobre Aprendizaje Automático, vol. 162, 27268–27286 (2022).

Liu, S. et al. Pyraformer: atención piramidal de baja complejidad para el modelado y pronóstico de series temporales de largo alcance. en Actas de la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR) (2021).

Liu, M. et al. SCINet: modelado y pronóstico de series temporales con convolución e interacción de muestras. en las Actas de la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural (2022).

Wang, Z. et al. Aprendizaje de representaciones de tendencias estacionales latentes para pronósticos de series de tiempo. en las Actas de la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural (2022).

Xie, C. et al. Análisis de tendencias y pronóstico de la incidencia diaria notificada de la enfermedad de manos, pies y boca en Hubei, China, según el modelo de profeta. ciencia Rep. 11, 1–8 (2021).

Google Académico

Cox, DR & Miller, HD La teoría de los procesos estocásticos (Routledge, Londres, 2017).

Dette, H. & Wu, W. Predicción en series temporales localmente estacionarias. J. Autobús. economía Estadística 40, 370–381 (2022).

Artículo MathSciNet Google Académico

Wold, HO Sobre la predicción en series temporales estacionarias. Ana. Matemáticas. Estadística 19, 558–567 (1948).

Artículo MathSciNet MATEMÁTICAS Google Académico

Watson, GS Análisis de regresión suave. Sankhyā: The Indian Journal of Statistics, Serie A359–372 (1964).

Nadaraya, EA Sobre la estimación de la regresión. Teoría probabilística. aplicación 9, 141–142 (1964).

Artículo MATEMÁTICAS Google Académico

Chen, P., Liu, R., Aihara, K. & Chen, L. Autoreservoir computing para la predicción de varios pasos basada en la transformación de información espaciotemporal. Nat. común 11, 1–15 (2020).

Google Académico

Lu, J., Wang, Z., Cao, J., Ho, DW y Kurths, J. Fijación de la estabilización impulsiva de redes dinámicas no lineales con retraso variable en el tiempo. En t. J. Bifurc. Caos 22, 1250176 (2012).

Artículo MATEMÁTICAS Google Académico

Malik, N., Marwan, N., Zou, Y., Mucha, PJ y Kurths, J. Fluctuación de similitud para detectar transiciones entre distintos regímenes dinámicos en series temporales cortas. física Rev. E 89, 062908 (2014).

Artículo Google Académico

Yang, R., Lai, Y. y Grebogi, C. Pronosticar el futuro: ¿es posible que existan sistemas dinámicos no lineales adiabáticamente variables en el tiempo? Caos 22, 033119 (2012).

Artículo MathSciNet MATEMÁTICAS Google Académico

Henkel, SJ, Martin, JS y Nardari, F. Previsibilidad a corto plazo variable en el tiempo. J. Finanzas. economía 99, 560–580 (2011).

Artículo Google Académico

Wu, N., Green, B., Ben, X. & O'Banion, S. Modelos de transformadores profundos para pronósticos de series de tiempo: el caso de prevalencia de influenza. Preimpresión en arXiv https://doi.org/10.48550/arXiv.2001.08317 (2020).

Lea, C., Flynn, MD, Vidal, R., Reiter, A. & Hager, GD Redes convolucionales temporales para segmentación y detección de acciones. en Actas de la Conferencia IEEE sobre visión artificial y reconocimiento de patrones, 156-165 (2017).

Bahdanau, D., Cho, K. & Bengio, Y. Traducción automática neuronal mediante el aprendizaje conjunto para alinear y traducir. en Actas de la Conferencia Internacional sobre Representaciones de Aprendizaje (2015).

Oreshkin, BN, Carpov, D., Chapados, N. & Bengio, Y. N-BEATS: Análisis de expansión de base neural para pronósticos de series temporales interpretables. en Actas de la Conferencia Internacional sobre Representaciones de Aprendizaje (2020).

Li, S. et al. Mejorar la localidad y romper el cuello de botella de memoria del transformador en el pronóstico de series de tiempo. en Actas de la Conferencia Anual sobre Sistemas de Procesamiento de Información Neural 32 (2019).

Geary, N., Antonopoulos, A., Drakopoulos, E., O'Reilly, J. & Mitchell, J. Un marco para la planificación de redes ópticas bajo la incertidumbre del tráfico. en Actas del Taller Internacional sobre Diseño de Redes de Comunicación Confiables, 50–56 (2001).

Laguna, M. Aplicando optimización robusta a la expansión de capacidad de una ubicación en telecomunicaciones con incertidumbre de demanda. Administrar ciencia 44, S101–S110 (1998).

Artículo MATEMÁTICAS Google Académico

Bauschert, T. et al. Planificación de red bajo demanda incierta con optimización robusta. Común IEEE. revista 52, 178–185 (2014).

Artículo Google Académico

Radakovic, Z. & Feser, K. Un nuevo método para el cálculo de la temperatura del punto caliente en transformadores de potencia con refrigeración onan. Trans. IEEE. Entrega de energía 18, 1284–1292 (2003).

Artículo Google Académico

Zhou, LJ, Wu, GN, Tang, H., Su, C. y Wang, HL Método de circuito de calor para calcular el aumento de temperatura del transformador de tracción scott. alto voltaje Ing. 33, 136–139 (2007).

Google Académico

Jiang, J. et al. Predicción de puntos de inflexión en redes mutualistas a través de la reducción de dimensiones. proc. Academia Nacional. ciencia EE. UU. 115, E639–E647 (2018).

Artículo MathSciNet MATEMÁTICAS Google Académico

Chen, L., Liu, R., Liu, Z., Li, M. y Aihara, K. Detección de señales de alerta temprana para el deterioro repentino de enfermedades complejas mediante biomarcadores de red dinámica. ciencia Rep. 2, 1–8 (2012).

Artículo Google Académico

Yang, B. et al. El biomarcador de red dinámica indica metástasis pulmonar en el punto de inflexión del carcinoma hepatocelular. Nat. común 9, 1–14 (2018).

Google Académico

Liu, R., Chen, P. & Chen, L. La entropía del paisaje de muestra única revela la transición de fase inminente durante la progresión de la enfermedad. Bioinformática 36, ​​1522–1532 (2020).

Artículo Google Académico

Descargar referencias

Este trabajo fue apoyado por la Fundación Nacional de Ciencias Naturales de China bajo la subvención 62076016 y 12201024, Fundación de Ciencias Naturales de Beijing L223024.

Estos autores contribuyeron por igual: Yuguang Yang y Shupeng Geng.

Universidad de Pekín, 100191, Pekín, China

Yuguang Yang, Shupeng Geng, Baochang Zhang y Juan Zhang

Laboratorio Zhongguancun, 100094, Pekín, China

Baochang Zhang y Juan Zhang

China Unicom, 100037, Pekín, China

Zheng Wang y Yong Zhang

Universidad de Buffalo, 14260, Buffalo, Nueva York, EE. UU.

david doermann

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

YY, SG, BZ, JZ y DD concibieron la investigación. Todos los autores trabajan en la redacción del artículo. YY y SG contribuyeron igualmente a este trabajo mediante la realización de experimentos y análisis de resultados. ZW e YZ recopilaron los datos de tráfico de la red 5G. Todos los autores leyeron y aprobaron el documento final.

Correspondencia a Baochang Zhang o Juan Zhang.

Los autores declaran no tener conflictos de intereses.

En nuestra investigación no se produjeron casos de 'descarga de ética' ni de 'investigación en helicóptero'.

Communications Engineering agradece a Akhil Gupta, Erol Egrioglu y los demás revisores anónimos por su contribución a la revisión por pares de este trabajo. Editores principales de manejo: Miranda Vinay y Rosamund Daw. Un archivo de revisión por pares está disponible.

Nota del editor Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Yang, Y., Geng, S., Zhang, B. et al. Pronóstico de tráfico de red 5G a largo plazo mediante el modelado de no estacionariedad con aprendizaje profundo. Ing. común 2, 33 (2023). https://doi.org/10.1038/s44172-023-00081-4

Descargar cita

Recibido: 07 Septiembre 2022

Aceptado: 10 de mayo de 2023

Publicado: 06 junio 2023

DOI: https://doi.org/10.1038/s44172-023-00081-4

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt