Saturday 21 October 2017

Media Móvil Exponencial Rkt


¿Cómo funciona el TCP tiempo de ida y vuelta (RTT) el trabajo de estimación Qué diferente es la aplicación en múltiples sistemas operativos TCP RTT calcula utilizando una media móvil exponencial ponderado (en. m.wikipedia. o rg / wiki /. (Lo siento, can039t encontrar la manera de formatear hipervínculo en el móvil)) basado en la observada RTT durante la transmisión. Básicamente, cuando TCP envía un paquete, se inicia un temporizador, que el tiempo de espera cuando se alcanza el valor TimeoutInterval computarizada. Por simplicidad, sólo se utiliza un contador de tiempo, a pesar de que varios segmentos se hallan en tránsito a la vez (esto se llama pipelining). Para cualquier paquete dado, hay un número de secuencia. Cuando el emisor TCP recibe un ACK para el paquete, se detiene el cronómetro el tiempo transcurrido se guarda como SampleRTT, y proporciona una instantánea del estado de la red. Como este valor puede fluctuar con el tiempo, la EWMA se calcula utilizando la EstimatedRTT anterior y el SampleRTT recién adquirido por la ecuación: EstimatedRTT 0,875 0,125 EstimatedRTT SampleRTT Para una explicación de los valores utilizados, consulte RFC 6298. El uso de un EWMA significa que el importancia relativa de una muestra dada se cae exponencialmente a medida que se añaden más. En Inglés, las muestras más recientes son considerados más importantes debido a que la representan una estimación más reciente. Además de la media, la variabilidad RTT o desviación se estima por DevRTT 0,75 0,25 DevRTT SampleRTT - EstimatedRTT Teniendo en cuenta estos promedios, tenemos que decidir en un tiempo de espera para ajustar. Obviamente, el tiempo de espera debe ser de al menos EstimatedRTT, con un margen adicional para la varianza. Si DevRTT es pequeña, el RTT es bastante constante, por lo que el margen puede ser pequeña. Si la varianza es mayor, debemos permitir que un mayor margen para el error. Por lo tanto TimeoutInterval EstimatedRTT 4 DevRTT RFC 6298 recomienda un TimeoutInterval inicial de un segundo. Cuando se produce un tiempo de espera, el valor de TimeoutInterval se duplica para evitar otro tiempo de espera para el mismo paquete. Esto proporciona un cierto control de la congestión, así - los tiempos de espera se producen más, el TCP ya esperará antes de la retransmisión. Una vez que el paquete pasa por problemático, TimeoutInterval se restaura a su último valor calculado. EstimatedRTT no se calcula para paquetes que son retransmitidos, por lo que esta duplicación no afecta a la value. Assume que el RTT estimado de acuerdo con el que se han perdido. Supongamos que el RTT estimado (según el promedio móvil ponderado exponencial) es igual a la verdadera (ensemble) promedio de RTT, es decir EstimatedRTT valor promedio de RTT ESampleRTT. a) Suponga que el tiempo de espera se establece en 2 (dos) veces el RTT estimado (como en la versión original del TCP), es decir, tiempo de espera de 2 x EstimatedRTT. ¿Qué fracción de los paquetes será asumido perdida por el emisor TCP b) versiones usados ​​en la actualidad de la estimación del PCT, la media y la desviación media como discutimos en la clase (la desviación media es la distancia media absoluta de las muestras de RTT de la RTT estimado ), y establece el tiempo de espera a la media estimada (EstimatedRTT) más 4 (cuatro) veces la desviación estimada (devRTT), es decir, tiempo de espera Esta vista previa tiene secciones intencionada borrosa. Regístrese para ver la versión completa. EstimatedRTT 4 x devRTT. Supongamos que la conexión TCP utiliza este nuevo método, por el RTT estimado y la desviación son iguales a sus valores verdaderos (conjunto), es decir, EstimatedRTT ESampleRTT y devRTT ESampleRTT-EstimatedRTT. ¿Qué fracción de los paquetes será asumido perdió por el emisor TCP 6) Considere el algoritmo de estimación del RTT para ajustar el tiempo de retransmisión utilizado por TCP como discutimos en la clase: EstimatedRTT nueva larr (1 - alfa) EstimatedRTT edad alfa SampleRTT DevRTT nueva larr (1 - beta) DevRTT beta de edad EstimatedRTT edad - SampleRTT tiempo de espera larr EstimatedRTT nueva gamma DevRTT nueva Uno de los requisitos de este algoritmo, aunque no explícitamente, es que el tiempo de espera debe ser al menos igual a la más reciente RTT medido, es decir, tiempo de espera Este es el final de la vista previa. Regístrese para acceder al resto de la document. Estimated RTT acuerdo con la exponencial RTT estimado ponderado (según el promedio móvil ponderado exponencial) es igual a la verdadera (conjunto) promedio de RTT, es decir EstimatedRTT valor promedio de RTT ESampleRTT. i) (7 pts) Suponga que el tiempo de espera se establece en 2) dos veces (RTT estimado (como en la versión original del TCP), es decir, tiempo de espera de 2 x EstimatedRTT. ¿Qué fracción de los paquetes se asumirá perdieron por el emisor TCP ii) (7 pts) versiones actualmente empleados para la estimación del PCT, la media y la desviación media como discutimos en la clase (la desviación media es la distancia absoluta promedio de las muestras de RTT de la RTT estimado), y establece el tiempo de espera a la media estimada (EstimatedRTT) más 3 (tres) veces la desviación estimada (devRTT), es decir, tiempo de espera EstimatedRTT 3 x devRTT. Supongamos que la conexión TCP utiliza este nuevo método, por el RTT estimado y la desviación son iguales a sus valores verdaderos (conjunto), es decir, EstimatedRTT ESampleRTT y devRTT ESampleRTT-EstimatedRTT. ¿Qué fracción de los paquetes se asumirá perdida por el emisor TCP b) (8 pts) Supongamos que R VN. la velocidad a la que los bits están llegando a un búfer de recepción TCP, se da en la siguiente figura como una función del tiempo. El proceso de aplicación en el receptor es la eliminación de bits de la memoria intermedia de recepción a la velocidad constante de 200 Kbits / seg (2 x 10 6 bits / seg). Supongamos que el búfer de recepción está inicialmente vacía en t 0, y tiene un tamaño fijo de 50.000 bytes. Teniendo en cuenta el algoritmo de control de flujo TCP, ¿cuál es el valor de la ventana de recepción anunciada por el receptor en t 2 seg R VN 0 tiempo, sec 1 2 400 Kbits / seg a 300 Kbits / seg Este es el final de la vista previa. Regístrese para acceder al resto del documento. Haga clic para editar los detalles del documento Comparte este enlace con un amigo: Reportar este documento de informe Documentos más popular para CS 421 midterm1spring2005 Universidad Bilkent CS 421 - Primavera 2012 CS 421: Redes de Ordenadores PARCIAL I 31 de marzo de 2005 120 minutos Nombre: Estudiante No: SPRI Universidad midterm1spring2006 Bilkent CS 421 - primavera 2012 CS 421: Redes de Ordenadores PARCIAL I 23 de marzo de, de 2006 120 minutos Nombre: Estudiante No: SPRI midterm1spring2007 Bilkent Universidad CS 421 - primavera 2012 CS 421: Redes de Ordenadores pRIMAVERA intermedia de 2007 I 22 de marzo de, 2007 120 minutos nombre: Stud finalfall2007 Bilkent Universidad CS 421 - primavera 2012 CS 421: redes de ordenadores otoño de 2007 FINAL 9 de enero de, 2008 150 minutos nombre: Estudiante N finalspring2009 Bilkent Universidad CS 421 - primavera 2012 CS 421: redes de ordenadores pRIMAVERA 2009 últimos 29 de mayo de, 2009 150 minutos Nombre: Estudiante Sin midtermspring2010 Bilkent Universidad CS 421 - primavera 2012 CS 421: Redes de Ordenadores pRIMAVERA 2010 PARCIAL 30 de de marzo de, 2010 120 minutos Nombre: StudenMoving modelos de promedio y suavizado exponencial Como un primer paso para avanzar más allá de los modelos de medias, modelos de paseo aleatorio, y modelos lineales de tendencias, patrones y tendencias no estacionales pueden ser extrapolados utilizando un modelo de media móvil o alisado. El supuesto básico detrás de promediado y modelos de suavizado es que la serie de tiempo es estacionaria localmente con una media de variación lenta. Por lo tanto, tomamos una media móvil (local) para estimar el valor actual de la media y luego usar eso como el pronóstico para el futuro próximo. Esto puede ser considerado como un compromiso entre el modelo de la media y la deriva en el modelo del paseo aleatorio, sin. La misma estrategia se puede utilizar para estimar y extrapolar una tendencia local. Un promedio móvil a menudo se llama una versión quotsmoothedquot de la serie original porque los promedios de corto plazo tiene el efecto de suavizar los baches en la serie original. Al ajustar el grado de suavizado (el ancho de la media móvil), que podemos esperar para golpear algún tipo de equilibrio óptimo entre el rendimiento de los modelos de medias y caminar al azar. El tipo más simple de promedio de modelos es el. Sencilla (igualmente ponderados) Media Móvil: El pronóstico para el valor de Y en el tiempo t1 que se hace en el tiempo t es igual a la media aritmética de las observaciones más recientes M: (Aquí y en otros lugares que va a utilizar el símbolo 8220Y-hat8221 reposar para obtener la previsión de las series temporales Y hecha en la fecha previa temprano posible de un modelo dado.) Este promedio se centra en el periodo t (m1) / 2, lo que implica que la estimación de la media local tenderá a la zaga del verdadero valor de la media local por cerca de (m1) / 2 períodos. Por lo tanto, decimos que la edad promedio de los datos de la media móvil simple (m1) / 2 con respecto al período para el que se calcula el pronóstico: esta es la cantidad de tiempo en que las previsiones tienden a la zaga de los puntos de inflexión en el datos. Por ejemplo, si son un promedio de los últimos 5 valores, las previsiones será de unos 3 periodos tarde en la respuesta a los puntos de inflexión. Tenga en cuenta que si m1, el modelo de media móvil simple (SMA) es equivalente al modelo de paseo aleatorio (sin crecimiento). Si m es muy grande (comparable a la longitud del período de estimación), el modelo de SMA es equivalente al modelo de la media. Como con cualquier parámetro de un modelo de predicción, es costumbre para ajustar el valor de k con el fin de obtener el mejor quotfitquot a los datos, es decir, los errores de pronóstico más pequeños en promedio. Aquí está un ejemplo de una serie que parece mostrar fluctuaciones aleatorias alrededor de una media que varía lentamente. En primer lugar, permite tratar de encajar con un modelo de paseo aleatorio, lo que equivale a una media móvil simple de 1 plazo: El modelo de paseo aleatorio responde muy rápidamente a los cambios en la serie, pero al hacerlo se recoge gran parte de la quotnoisequot en el datos (las fluctuaciones aleatorias), así como la quotsignalquot (la media local). Si en lugar de probar una media móvil simple de 5 términos, obtenemos una puesta a punto más suave en busca de los pronósticos: El 5 plazo promedio móvil simple rendimientos significativamente más pequeños que los errores del modelo de paseo aleatorio en este caso. La edad promedio de los datos de esta previsión es de 3 ((51) / 2), de modo que tiende a la zaga de los puntos de inflexión en aproximadamente tres períodos. (Por ejemplo, una recesión parece haber ocurrido en el período de 21 años, pero las previsiones no dar la vuelta hasta varios períodos más tarde.) Tenga en cuenta que las previsiones a largo plazo del modelo de SMA son una línea recta horizontal, al igual que en el paseo aleatorio modelo. Por lo tanto, el modelo de SMA asume que no hay una tendencia en los datos. Sin embargo, mientras que las previsiones del modelo de paseo aleatorio son simplemente igual al último valor observado, las predicciones del modelo de SMA son iguales a una media ponderada de los valores recientes. Los límites de confianza calculados por Statgraphics para las previsiones a largo plazo de la media móvil simple no se ensanchan a medida que aumenta la previsión horizonte. Esto obviamente no es correcta Desafortunadamente, no existe una teoría estadística subyacente que nos dice cómo los intervalos de confianza debe ampliar para este modelo. Sin embargo, no es demasiado difícil de calcular estimaciones empíricas de los límites de confianza para los pronósticos a más largo horizonte. Por ejemplo, podría configurar una hoja de cálculo en la que el modelo de SMA sería utilizado para pronosticar 2 pasos por delante, 3 pasos por delante, etc., dentro de la muestra de datos históricos. A continuación, podría calcular las desviaciones estándar de la muestra de los errores en cada horizonte de pronóstico, y luego construir intervalos de confianza para los pronósticos a más largo plazo sumando y restando múltiplos de la desviación estándar correspondiente. Si tratamos una media móvil simple de 9 plazo, obtenemos previsiones aún más suaves y más de un efecto rezagado: La edad media es ahora de 5 puntos ((91) / 2). Si tomamos una media móvil de 19 plazo, el promedio de edad aumenta a 10: Tenga en cuenta que, de hecho, las previsiones están quedando atrás los puntos de inflexión en alrededor de 10 periodos. ¿Qué cantidad de suavizado que es mejor para esta serie Aquí se presenta una tabla que compara sus estadísticas de errores, incluyendo también una 3-plazo promedio: Modelo C, la media móvil de 5 plazo, se obtiene el valor más bajo de RMSE por un pequeño margen sobre el 3 - term y 9 plazo promedios, y sus otras estadísticas son casi idénticos. Así, entre los modelos con las estadísticas de errores muy similares, podemos elegir si preferimos un poco más la capacidad de respuesta o un poco más de suavidad en los pronósticos. (Volver al comienzo de la página.) Browns suavizado exponencial simple (promedio móvil ponderado exponencialmente) El modelo de media móvil simple descrito anteriormente tiene la propiedad indeseable que trata los últimos k observaciones por igual y completamente ignora todas las observaciones precedentes. Intuitivamente, los datos del pasado deben ser descontados de forma más gradual - por ejemplo, la observación más reciente debería ser un poco más de peso que 2 más reciente, y el segundo más reciente debería ser un poco más peso que la 3 más reciente, y pronto. El modelo de suavizamiento exponencial simple (SES) logra esto. Vamos a 945 denotan un constantquot quotsmoothing (un número entre 0 y 1). Una forma de escribir el modelo es definir una serie L que representa el nivel actual (es decir, valor medio local) de la serie como se estima a partir de datos hasta el presente. El valor de L en el tiempo t se calcula de forma recursiva a partir de su propio valor anterior así: Por lo tanto, el valor suavizado actual es una interpolación entre el valor suavizado anterior y la observación actual, donde los 945 controles de la proximidad entre el valor interpolado a la más reciente observación. La previsión para el próximo período es simplemente el valor suavizado actual: De manera equivalente, podemos expresar el pronóstico siguiente directamente en función de las previsiones anteriores y observaciones anteriores, en cualquiera de las siguientes versiones equivalentes. En la primera versión, la previsión es una interpolación entre pronóstico anterior y observación anterior: En la segunda versión, el siguiente pronóstico se obtiene mediante el ajuste de la previsión anterior en la dirección del error anterior por una cantidad fraccionaria 945. está el error cometido en el tiempo t. En la tercera versión, el pronóstico es un ponderado exponencialmente (es decir, descontado) de media móvil con el factor de descuento 1- 945: La versión de interpolación de la fórmula de predicción es el más simple de usar si está implementando el modelo en una hoja de cálculo: se ajusta en una sola célula y contiene referencias a celdas que apuntan a la previsión anterior, la observación anterior, y la célula donde se almacena el valor de 945. Tenga en cuenta que si 945 1, el modelo SES es equivalente a un modelo de paseo aleatorio (sin crecimiento). Si 945 0, el modelo SES es equivalente al modelo de la media, suponiendo que el primer valor de suavizado se establece igual a la media. (Volver al comienzo de la página.) La edad promedio de los datos en el pronóstico a simple alisado exponencial es 1/945 con respecto al período para el que se calcula el pronóstico. (Esto no se supone que es obvio, pero se puede demostrar fácilmente mediante la evaluación de una serie infinita.) Por lo tanto, el simple previsión de media móvil tiende a la zaga de los puntos de inflexión en alrededor de 1/945 períodos. Por ejemplo, cuando 945 0.5 el retraso es de 2 945 periodos en los que el retraso es 0,2 5 0,1 945 periodos en los que el retraso es de 10 períodos, y así sucesivamente. Para una edad media determinada (es decir, cantidad de lag), el suavizamiento exponencial simple (SES) Pronóstico es algo superior a la previsión media móvil simple (SMA) porque pone relativamente más peso en la más reciente --i. e observación. es ligeramente más quotresponsivequot a los cambios que ocurren en el pasado reciente. Por ejemplo, un modelo de SMA con 9 términos y un modelo de SES con 945 0.2 ambos tienen una edad promedio de 5 para los datos en sus previsiones, pero el modelo SES pone más peso en los últimos 3 valores que lo hace el modelo de SMA y en el mismo tiempo doesn8217t totalmente 8220forget8221 sobre los valores de más de 9 períodos de edad, como se muestra en esta tabla: Otra ventaja importante del modelo SES sobre el modelo SMA es que el modelo SES utiliza un parámetro de suavizado que es continuamente variable, por lo que puede fácilmente optimizada mediante el uso de un algoritmo de quotsolverquot para minimizar el error cuadrático medio. El valor óptimo de 945 en el modelo SES para esta serie resulta ser 0.2961, como se muestra aquí: La edad promedio de los datos de esta previsión es de 1 / 0,2961 3,4 periodos, que es similar a la de un móvil simple 6 plazo promedio. Las previsiones a largo plazo del modelo de SES son una línea recta horizontal. como en el modelo de SMA y el modelo de paseo aleatorio sin crecimiento. Sin embargo, tenga en cuenta que los intervalos de confianza calculados por Statgraphics ahora divergen de un modo de aspecto razonable, y que son sustancialmente más estrecha que los intervalos de confianza para el modelo de paseo aleatorio. El modelo SES asume que la serie es un poco predictablequot quotmore que lo hace el modelo de paseo aleatorio. Un modelo SES es en realidad un caso especial de un modelo ARIMA. por lo que la teoría estadística de los modelos ARIMA proporciona una buena base para el cálculo de los intervalos de confianza para el modelo SES. En particular, un modelo SES es un modelo ARIMA con una diferencia no estacional, un MA (1) plazo, y sin término constante. también conocido como un modelo quotARIMA (0,1,1) sin constantquot. El MA (1) coeficiente en el modelo ARIMA corresponde a la cantidad 1- 945 en el modelo de SES. Por ejemplo, si encaja en un modelo ARIMA (0,1,1) sin el temor constante a la serie analizada aquí, el MA estimado (1) coeficiente resulta ser 0.7029, que es casi exactamente uno menos 0,2961. Es posible añadir el supuesto de un no-cero tendencia constante lineal a un modelo de SES. Para ello, sólo tiene que especificar un modelo ARIMA con una diferencia no estacional y un (1) término MA con una constante, es decir, un modelo ARIMA (0,1,1) con constante. Las previsiones a largo plazo tendrán entonces una tendencia que es igual a la tendencia promedio observado durante todo el período de estimación. No se puede hacer esto en conjunto con ajuste estacional, ya que las opciones de ajuste estacional se desactivan cuando el tipo de modelo se establece en ARIMA. Sin embargo, se puede añadir una tendencia exponencial constante a largo plazo a un simple modelo de suavizado exponencial (con o sin ajuste estacional) mediante el uso de la opción de ajuste de la inflación en el procedimiento de pronóstico. La tasa de quotinflationquot apropiado (porcentaje de crecimiento) por período se puede calcular como el coeficiente de la pendiente en un modelo de tendencia lineal ajustada a los datos en conjunción con una transformación logaritmo natural, o puede basarse en otra información, independiente sobre las perspectivas de crecimiento a largo plazo . (Volver a la parte superior de la página.) Browns lineales (es decir, dobles) modelos de suavizado exponencial de la media móvil y modelos SES asumen que no hay una tendencia de cualquier tipo en los datos (que es por lo general OK o al menos no muy malo para 1- previsiones paso por delante cuando los datos son relativamente ruidoso), y que pueden ser modificados para incorporar una tendencia lineal constante como se muestra arriba. ¿Qué hay de tendencias a corto plazo Si una serie muestra una tasa variable de crecimiento o un patrón cíclico que se destaca claramente contra el ruido, y si hay una necesidad de pronosticar más de 1 periodo por delante, a continuación, la estimación de una tendencia local también puede ser un problema. El modelo simple de suavizado exponencial se puede generalizar para obtener un modelo lineal de suavizado exponencial (LES) que calcula las estimaciones locales de tanto nivel y la tendencia. El modelo de tendencia variable en el tiempo más simple es Browns lineales exponencial modelo de suavizado, que utiliza dos series diferentes alisado que se centran en diferentes puntos en el tiempo. La fórmula de predicción se basa en una extrapolación de una línea a través de los dos centros. (Una versión más sofisticada de este modelo, Holt8217s, se discute a continuación.) La forma algebraica de Brown8217s lineal modelo de suavizado exponencial, al igual que la del modelo simple de suavizado exponencial, se puede expresar en un número de formas diferentes pero equivalentes. La forma quotstandardquot de este modelo se suele expresar como sigue: Sea S la serie suavizada por enlaces sencillos, obtenido mediante la aplicación de suavizado exponencial simple de la serie Y. Es decir, el valor de S en el período t viene dada por: (Hay que recordar que, en virtud de simples suavizado exponencial, esto sería el pronóstico para Y en el periodo t1), entonces Squot denotan la serie suavizada doblemente obtenido mediante la aplicación de suavizado exponencial simple (utilizando la misma 945) de la serie S:. por último, el pronóstico para tk Y. para cualquier kgt1, viene dada por: Esto produce e 1 0 (es decir, engañar un poco, y dejar que el primer pronóstico es igual a la primera observación real), y e 2 Y2 Y1 8211. después de lo cual las previsiones se generan utilizando la ecuación anterior. Esto produce los mismos valores ajustados según la fórmula basada en S y S si éstas se puso en marcha el uso de S 1 S 1 Y 1. Esta versión del modelo se utiliza en la siguiente página que ilustra una combinación de suavizado exponencial con ajuste estacional. modelo Holt8217s lineal de suavizado exponencial Brown8217s LES calcula estimaciones locales de nivel y la tendencia al suavizar los datos recientes, pero el hecho de que lo hace con un único parámetro de suavizado un factor limitante para los patrones de datos que es capaz de encajar: el nivel y la tendencia no se les permite variar a frecuencias independientes. modelo Holt8217s LES resuelve este problema mediante la inclusión de dos constantes de suavizado, una para el nivel y uno para la tendencia. En cualquier momento t, como en el modelo Brown8217s, el no es una estimación L t del nivel local y una estimación T t de la tendencia local. Aquí se computan de forma recursiva a partir del valor de Y observó en el tiempo t, y las estimaciones anteriores del nivel y la tendencia por dos ecuaciones que se aplican suavizado exponencial a ellos por separado. Si el nivel estimado y la tendencia en el tiempo t-1 son L y T t82091 t-1. respectivamente, entonces el pronóstico para Y tshy que se habrían hecho en el momento t-1 es igual a L-1 t t t-1. Cuando se observa el valor real, la estimación actualizada del nivel se calcula de forma recursiva mediante la interpolación entre Y tshy y su pronóstico, L-1 t t t-1, usando pesos de 945 y 945. 1- El cambio en el nivel estimado, es decir, L t L 8209 t82091. puede interpretarse como una medición de ruido de la tendencia en el tiempo t. La estimación actualizada de la tendencia se calcula entonces de forma recursiva mediante la interpolación entre L T 8209 L t82091 y la estimación anterior de la tendencia, T t-1. usando pesos de 946 y 1-946: La interpretación de la tendencia constante de alisamiento 946 es análoga a la de los de nivel constante de alisamiento 945. Los modelos con valores pequeños de 946 asume que la tendencia cambia sólo muy lentamente con el tiempo, mientras que los modelos con 946 más grande asumen que está cambiando más rápidamente. Un modelo con un gran 946 cree que el futuro lejano es muy incierto, ya que los errores en la estimación de la tendencia-llegar a ser bastante importante cuando la previsión de más de un período que se avecina. (Volver al principio de la página.) El suavizado constantes de 945 y 946 se puede estimar de la forma habitual mediante la minimización del error cuadrático medio de las previsiones 1-paso-a continuación. Cuando esto se haga en Statgraphics, las estimaciones resultan ser 945 0,3048 y 946 0.008. El valor muy pequeño de 946 significa que el modelo supone muy poco cambio en la tendencia de un período a otro, por lo que, básicamente, este modelo está tratando de estimar una tendencia a largo plazo. Por analogía con la noción de que la edad promedio de los datos que se utiliza para estimar el nivel local de la serie, la edad media de los datos que se utiliza para estimar la tendencia local es proporcional a 1/946, aunque no exactamente igual a eso. En este caso que resulta ser 1 / 0.006 125. Esta isn8217t un número muy preciso ya que la precisión de la estimación de 946 isn8217t realmente 3 cifras decimales, pero es del mismo orden general de magnitud que el tamaño de muestra de 100 , por lo que este modelo tiene un promedio de más de un buen montón de historia para estimar la tendencia. La trama de previsión a continuación muestra que el modelo de LES estima una tendencia local de un poco más grande en el extremo de la serie de la tendencia constante estimado en el modelo SEStrend. Además, el valor estimado de 945 es casi idéntica a la obtenida ajustando el modelo SES con o sin tendencia, por lo que este es casi el mismo modelo. Ahora, hacen éstos se parecen a las previsiones razonables para un modelo que se supone que es la estimación de la tendencia local Si 8220eyeball8221 esta trama, parece que la tendencia local se ha convertido a la baja al final de la serie Lo que ha sucedido Los parámetros de este modelo se han estimado mediante la minimización del error al cuadrado de las previsiones de 1-paso adelante, no pronósticos a más largo plazo, en cuyo caso la tendencia doesn8217t hacen una gran diferencia. Si todo lo que está viendo son los errores 1-paso-a continuación, usted no está viendo el panorama general de las tendencias en (digamos) 10 o 20 períodos. Con el fin de conseguir este modelo más acorde con nuestra extrapolación de los datos de globo ocular, podemos ajustar manualmente la tendencia constante de alisamiento para que utilice una línea de base más corta para la estimación de tendencia. Por ejemplo, si elegimos para establecer 946 0.1, a continuación, la edad media de los datos utilizados en la estimación de la tendencia local es de 10 períodos, lo que significa que estamos promediando la tendencia de que los últimos 20 períodos más o menos. Here8217s lo que la trama de previsión parece si ponemos 946 0,1 945 0,3 mientras se mantiene. Esto parece intuitivamente razonable para esta serie, aunque es probable que sea peligroso extrapolar esta tendencia alguna más de 10 periodos en el futuro. ¿Qué pasa con las estadísticas de error Aquí está una comparación de modelos para los dos modelos que se muestran arriba, así como tres modelos SES. El valor óptimo de 945.para el modelo SES es de aproximadamente 0,3, pero resultados similares (con poco más o menos capacidad de respuesta, respectivamente) se obtienen con 0,5 y 0,2. exp lineal (A) Holt. suavizado con alfa y beta 0,3048 0,008 (B) Holts exp lineal. suavizado con alfa 0,3 y beta 0.1 (C) de suavizado exponencial simple con alfa 0,5 (D) de suavizado exponencial simple con alfa 0,3 (E) de suavizado exponencial simple con alfa 0,2 Sus estadísticas son casi idénticos, por lo que realmente can8217t tomar la decisión sobre la base de los errores de pronóstico 1 paso por delante dentro de la muestra de datos. Tenemos que recurrir a otras consideraciones. Si estamos convencidos de que tiene sentido basar la estimación actual tendencia en lo que ha ocurrido en los últimos 20 períodos más o menos, podemos hacer un caso para el modelo con LES y 945 0,3 946 0,1. Si queremos ser agnóstico sobre si existe una tendencia local, entonces uno de los modelos SLS podría ser más fácil de explicar y también daría más pronósticos media-of-the-road para los próximos 5 o 10 períodos. (Volver al principio de la página.) ¿Qué tipo de tendencia-extrapolación es mejor: La evidencia empírica horizontal o lineal sugiere que, si ya se han ajustado los datos (si es necesario) para la inflación, entonces puede ser imprudente extrapolar lineal a corto plazo tendencias muy lejos en el futuro. Tendencias hoy evidentes podrían crecer más en el futuro debido a causas variadas como la obsolescencia de los productos, el aumento de la competencia, y las depresiones cíclicas o repuntes en una industria. Por esta razón, suavizamiento exponencial simple menudo funciona mejor fuera de la muestra de lo que se podría esperar de otro modo, a pesar de su quotnaivequot horizontal extrapolación de tendencias. Amortiguadas modificaciones tendencia del modelo de suavizado exponencial lineal también se utilizan a menudo en la práctica de introducir una nota de cautela en sus proyecciones de tendencias. El modelo LES-tendencia amortiguada puede ser implementado como un caso especial de un modelo ARIMA, en particular, una (1,1,2) modelo ARIMA. Es posible calcular intervalos de confianza alrededor de las predicciones a largo plazo producidos por los modelos de suavizado exponencial, al considerarlos como casos especiales de los modelos ARIMA. (Cuidado: no todo el software calcula correctamente los intervalos de confianza para estos modelos.) La anchura de los intervalos de confianza depende de (i) el error RMS del modelo, (ii) el tipo de suavizado (simple o lineal) (iii) el valor (s) de la constante (s) de suavizado y (iv) el número de períodos por delante que se pronostica. En general, los intervalos se extienden más rápido a medida 945 se hace más grande en el modelo SES y se extienden mucho más rápido cuando se utiliza en lugar de lineal de suavizado simple. En este tema se tratará más adelante en la sección de modelos ARIMA de las notas. (Volver al principio de la página.) Medición de forma pasiva TCP tiempos de ida y vuelta Un vistazo de cerca a las mediciones de RTT TCP con Stephen D. Strowes, medición y vigilancia de la red de Límites Inc. RTT (tiempo de ida y vuelta) es importante por varias razones: permite los operadores de redes y usuarios finales para comprender su rendimiento de la red y ayudar a optimizar su entorno, y ayuda a las empresas a entender la capacidad de respuesta de sus servicios a los sectores de su base de usuarios. la red de medición de RTT es también importante para TCP (Transmission Control Protocol) apila para ayudar a optimizar el uso del ancho de banda. Pilas TCP en los hosts finales optimizan para un alto rendimiento mediante la medición de RTT pasiva de red utilizando las opciones de marca de tiempo TCP ampliamente desplegados transportar en las cabeceras TCP. Esta información, si se utilizan, conlleva algunas ventajas operativas distintas para los servicios y aplicaciones: anfitriones no tienen que poner en marcha fuera de la banda de ICMP (Internet Control Message Protocol) peticiones de eco (pings), ni necesitan para incrustar información de temporización en la solicitud tráfico. En su lugar, los anfitriones pueden medir de forma pasiva RTT-representante de ruta completa latencia de red experimentado por el tráfico TCP. retardo de red entendimiento es clave para entender algunos aspectos importantes del rendimiento de la red. El tiempo empleado en recorrer la red entre dos hosts afecta a cómo los servicios de respuesta son, y que afecta al ancho de banda efectivo disponible para los hosts finales. La medición de esta información de forma pasiva en los servidores puede ayudar a proporcionar una indicación de grano fino de la capacidad de respuesta del servicio desde la perspectiva de los clientes, y al mismo tiempo ofrece una red de medida de distancia para los clientes que es más útil que la geolocalización basada en IP de grano grueso ya menudo inexacta. La medición de RTT a muchos huéspedes o clientes es no trivial. Una solución es activo de sondeo, en forma de peticiones de eco ICMP y respuestas (es decir, ping), pero esto incurre en la carga de red adicional. En algunos casos se despriorizada tráfico ICMP, cayó por completo, o enruta a través de un camino diferente que el tráfico TCP. Cuando nada de esto es cierto, todavía existe la posibilidad de que RTT se mide a un NAT (Network Address Translator) y no con el fin de acogida intercambio de datos. Otra posible solución para la medición de la red RTT es medir la capacidad de respuesta de capa de aplicación. Esto, sin embargo, implica una, la medición específica de la aplicación ad hoc realizado mediante la incorporación de identificadores o marcas de tiempo en la corriente de bytes TCP, lo que puede dar una engañosa, la medición se infla para la red de RTT, dependiendo de las condiciones de red (más sobre esto más adelante). Ninguna de estas soluciones es totalmente satisfactoria porque ni está garantizado para medir la red de RTT que afecta el tráfico de aplicaciones. La información de fecha y hora transportar en las cabeceras TCP, sin embargo, ofrece otra solución: es efectivamente una medida RTT de capa de red que pasa a través de la mayoría de los dispositivos intermedios tales como NAT y firewalls y mide la ruta completa RTT entre ambos hosts en una conexión. Esta información proporciona la solución estimación de RTT única noncustom a disposición de los anfitriones finales. Herramientas como tcptrace pueden calcular RTT utilizando este estado, pero cualquier software que puede inspeccionar las cabeceras de paquetes (usualmente logrado a través de libpcap) o interrogar al sistema local de dicho estado del núcleo de forma pasiva puede reunir red RTT para todas las conexiones activas. Las principales diferencias entre estas medidas y cómo las condiciones de la red DIFERENTES les afectan no son obvias. El propósito de este artículo es discutir y demostrar las mediciones de RTT pasivas posible utilizando el tráfico TCP. Antecedentes TCP ofrece una corriente de bytes confiable para las aplicaciones que lo utilizan las aplicaciones enviar cantidades arbitrarias de datos, y la capa TCP envía esto como una serie de segmentos con números de secuencia y la carga útil longitudes que indica la parte de la corriente de bytes cada segmento representa. Para lograr un flujo de bytes ordenados, segmentos TCP retransmite si van a faltar entre el origen y el destino (o, si es una confirmación para un segmento recibido se pierde entre el destino y el origen). Para mejorar el rendimiento en todas las condiciones de la red, las medidas pila TCP RTT entre éste y el otro host en cada conexión para permitir una optimización de su RTO (tiempo de retransmisión) de manera adecuada y optimizar el tiempo necesario para recuperarse de un evento de pérdida. La especificación TCP original contenía ningún mecanismo obligatorio, dedicada RTT cálculo. En su lugar, pilas TCP intentaron calcular RTT por la observación de la hora a la que fue enviado un número de secuencia y la correlación que con un acuse de recibo correspondiente. Cálculo de los valores de RTT utilizando este mecanismo en la presencia de pérdida de paquetes, sin embargo, hace imposible una medición correcta. Se definieron 13 marcas de tiempo TCP para permitir que este cálculo de forma independiente en ambos extremos de una conexión mientras se intercambian datos entre los dos ejércitos. marcas de tiempo TCP ofrecen un mecanismo para el cálculo de RTT que es independiente de los números de secuencia y acuses de recibo. El algoritmo para el cálculo de RTT a partir de un flujo TCP entre dos ejércitos, documentado en el RFC 1323, 3 es comúnmente utilizado por ambos hosts finales en una conexión para refinar el RTO para mejorar el rendimiento de TCP en presencia de pérdida. El mecanismo es activado por defecto en los sistemas operativos modernos y rara vez bloqueado por cortafuegos, y así aparece en la mayoría de TCP fluye la opción TCP Marca de tiempo se sabe que está ampliamente extendido en la naturaleza. 5 RTT se calcula continuamente para cada conexión durante el tiempo que los datos se intercambian en esas conexiones. TCP calcula RTT para los paquetes intercambiados en una base por conexión y calcula la media móvil exponencial de estas mediciones, se hace referencia como SRTT (RTT suavizada). La pila TCP mantiene también la variación en la medición de RTT, el RTTVAR. SRTT que la pila TCP calcula para una conexión determina el valor RTO. variables dadas G, que es la granularidad de reloj del sistema, y ​​K. que se establece en 4, 8 el RTO se calcula como sigue: RTO SRTT max (G, K RTTVAR) El RTO se utiliza para optimizar el tiempo que espera la pila TCP, haber transmitido un segmento TCP, por un acuse de recibo correspondiente antes de volver a intentar la operación de envío. Las mediciones precisas de RTT entre dos hosts allow TCP para ajustar con precisión su RTO para cada conexión activa. Comprender el estado contenida en las cabeceras TCP realizan en la mayor parte del tráfico TCP puede ayudar a los diseñadores de aplicaciones o los operadores de red a entender los tiempos de retorno de red experimentado por el tráfico de aplicaciones. Muchas aplicaciones con restricciones de tiempo real utilizan TCP para transportar su tráfico, lo que es aceptable dentro de ciertos límites. 1 Es útil para entender cómo la semántica bytestream puede afectar al rendimiento en tiempo real. marcas de tiempo TCP son campos opcionales en la cabecera TCP, por lo que a pesar de que son extremadamente útiles y transporte en la mayor parte del tráfico, que no son estrictamente necesarias para TCP para funcionar. Los valores se llevan a cabo en dos campos de cabecera de 4 bytes: TSval (Marca de tiempo de valor) y TSecr (Marca de tiempo de respuesta de eco). Cada host implicados en una conexión emite marcas de tiempo TSval al otro anfitrión cada vez que se transmite un segmento TCP, y espera la TSecr correspondiente a cambio. La diferencia de tiempo medido entre la primera emisión de un TSval y recibirlo en un TSecr es la pilas TCP mejor estimación de RTT. Marca de tiempo aquí es un valor arbitrario que se incrementa en la granularidad del reloj del sistema local no es una marca de tiempo que puede ser interpretado de forma independiente, como el número de segundos desde la época. A modo de ejemplo, en la figura 1 el tiempo avanza de arriba a abajo, y las líneas horizontales indican en tiempo real de incremento (por ejemplo, en milisegundos). Dos anfitriones, A y B, tienen una conexión abierta y están intercambiando paquetes. En realidad, los dos anfitriones tienen relojes diferentes, pero por simplicidad asumen que están perfectamente sincronizados. El ejemplo funciona como sigue: Un anfitrión emite un segmento TCP que contiene las opciones de fecha y hora TSval 1, TSecr 0 TSecr se establece en 0, porque no TSval desde B se ha observado en A esto suele indicar una es la apertura de una conexión a B. B anfitrión recibe esta marca de tiempo en el momento 1 en el momento 2, B anfitrión emite un segmento TCP de nuevo a a, que contiene los valores TSval 2, TSecr TSvalA 1 Estos son recibidos en el host a en el tiempo 3. Teniendo en cuenta este valor y la hora actual se hizo eco, anfitrión a sabe que RTT en este caso es de aproximadamente 2 ms. Posteriormente, los próximos dos segmentos que A emite ambos llevan los valores TSval 3, TSecr TSvalB 2 El primero de ellos se recibe en el host B en el momento 4, por lo que el host B también puede calcular un RTT de 2 ms. Teniendo en cuenta los dos ecos de la misma marca de tiempo recibida, la duración mínima se supone que es más cercano al retardo de red actual si los cambios de retardo de red, los futuros intercambios medir esto. enviar continuamente los valores para el otro host y observando el tiempo mínimo hasta que la respuesta de eco que contiene ese valor es recibida permite que cada host final para determinar el RTT entre el mismo y el otro host en una conexión. La advertencia es que para un TSval que se considera útil, el segmento TCP debe ser que transporta datos desde la aplicación. segmentos TCP pueden llevar legítimamente una carga útil de cero bytes, más comúnmente al acusar recibo de un segmento de datos, o cuando los mensajes de actividad TCP están habilitados. Al exigir que TSvals válidos provienen sólo de los segmentos TCP que transportan datos, el algoritmo es menos probable para medir rupturas en la comunicación entre los anfitriones, donde el intercambio de datos se detiene por un momento y luego se reiniciará utilizando la última TSval recibido como el TSecr. Esto también implica que en un flujo TCP en el que se intercambian datos exclusivamente en una dirección, sólo uno de los anfitriones será capaz de calcular RTT. Por lo general, sin embargo, algunos comentarios capa de aplicación se produce en ambas direcciones. Por último, el cálculo del RTT se puede realizar en cualquier host que está reenviando el tráfico, no sólo los hosts finales, por lo que todo el camino RTT en todas las conexiones dentro de una red se puede calcular a partir de su puerta de enlace, por ejemplo. Todo lo que es necesario calcular precisa RTT es que ambas direcciones de una conexión pasan a través del anfitrión de monitoreo. Si este es el caso a menudo se basa en la arquitectura de red, pero se sabe que las rutas en Internet no son normalmente simétrica. 2 La ejecución de este algoritmo en un nodo de pasarela para una red a través del cual pasa todo el tráfico, sin embargo, permite el cálculo de RTT se lleve a cabo de forma pasiva en todas las conexiones desde una sola ubicación. Demostrando mediciones de RTT La red es un recurso compartido, y múltiples factores que pueden afectar el cálculo de TCP RTT. Esta sección cubre ampliamente algunos de estos factores y demuestra que el cálculo de RTT TCP se diferencia de la RTT percibida por las aplicaciones. El objetivo es demostrar la paridad con estimaciones ICMPs RTT, suponiendo que todo lo demás es igual, y de cómo la pérdida de paquetes y de amortiguación excesiva afecta a estas medidas relativas a la latencia percibida en la capa de aplicación. Para demostrar la capacidad de respuesta de las mediciones de RTT, los flujos de tráfico se simularon en un entorno virtualizado. El entorno es simple: dos hosts Linux se configuran en diferentes subredes, y un tercer servidor Linux, con activar el reenvío de paquetes, se ha configurado con dos interfaces de red, una para cada subred. Este ordenador de reenvío se utiliza para variar las características de la red observadas entre los dos anfitriones finales, utilizando la herramienta tc (control de tráfico). Características de la red no se modifican en los hosts finales, por lo que sus pilas TCP no son directamente conscientes de la configuración para cada experimento. Para cada experimento, un retardo de la salida de 50 ms se establece en cada interfaz en el host de reenvío, lo que resulta en un RTT de 100 ms entre los dos anfitriones finales. Cada experimento tiene una duración de 180 segundos. La tasa de datos máxima es de 10 Mbps. En estos huéspedes finales, los siguientes componentes están funcionando: Toro Ping se está ejecutando en ambos anfitriones, por lo que cada host está enviando peticiones de eco ICMP a la otra una vez por segundo. Este mide el valor RTT ICMP para establecer una realidad sobre el terreno RTT entre los hosts. toro Un par simple cliente / servidor de programas se está ejecutando, en el que el cliente envía una indicación de la hora local a través de una conexión TCP una vez por segundo al servidor, y el servidor se hace eco de la marca de tiempo de vuelta al cliente el cliente calcula la diferencia cada vez que lee la respuesta fuera de la corriente de bytes. La aplicación cliente se ejecuta dos hilos: uno para enviar y uno para recepción. Esto mide la RTT percibida por la capa de aplicación. Bull también se ejecuta en ambos anfitriones final es un pcap (captura de paquetes) lector que observa los valores de TCP timestamp realizadas en las cabeceras TCP para el tráfico generado por el programa cliente / servidor desde el que se calcula el RTT, la salida del último valor de RTT una vez por segundo . El valor exportado de estos experimentos es el RTT en lugar de un SRTT, ya que el objetivo aquí es examinar RTT real y no una aproximación. Esto calcula RTT pasivamente de marcas de tiempo TCP. No hay otro tipo de tráfico es intercambiado entre hosts, excepto durante la demostración de bufferbloat. Los siguientes ejemplos demuestran: 1. la capacidad de monitorizar el cambio de RTT con precisión mediante la modificación de la latencia de red. 2. El impacto de la pérdida de paquetes. 3. El impacto de tampones de gran tamaño (comúnmente referido como bufferbloat). Nagles Algoritmo Antes de describir estos experimentos en detalle, vamos a echar un vistazo a Nagles algoritmo, 6 que está activado por defecto en muchas pilas TCP. Su objetivo es reducir el número de pequeños datagramas, de cabecera-pesado transferidos por la red. Se opera por el retraso de la transmisión de nuevos datos si la cantidad de datos disponible para enviar es menor que el MSS (tamaño máximo de segmento), que es el segmento más largo permisible dada la unidad de transmisión máxima en el camino, y si no se envía los datos previamente sigue a la espera de confirmación. Algoritmo de Nagle puede causar demoras innecesarias para aplicaciones de tiempo crítico que se ejecutan a través de TCP. Por lo tanto, debido a la suposición es que tales aplicaciones se ejecutarán a través de TCP en los experimentos presentados aquí, Algoritmo de Nagle está desactivado. Esto se consigue en el cliente y el servidor estableciendo la opción de conector Tcpnodelay en todos los conectores en uso. Experimento 1: El cambio de condiciones de la red Al computar RTT, es fundamental que las mediciones reflejan con precisión las condiciones actuales. El propósito de este experimento es simplemente para demostrar la capacidad de respuesta de nuestros métricas para condiciones que cambian de una manera predecible. En este experimento se establece en la base de RTT (100 ms) inicialmente, y luego una latencia adicional (50 ms) se añade alternativamente a y se deduce de que la base de RTT incrementando el retraso en ambas interfaces en el host de reenvío por 25 ms. No tasa de pérdida se especifica en el camino, y no hay tráfico adicional se envía entre los dos ejércitos. Tenga en cuenta que puesto que el cálculo TCP RTT es totalmente pasiva, no se observe variación de RTT si no existe un intercambio de datos. En la presencia de tráfico, sin embargo, su beneficioso que la actualización de la medición RTT rápidamente. Los resultados de este experimento se muestran en la figura 2. Las medidas tomadas en todas las capas indican una distribución bimodal, que es precisamente lo que cabría esperar, sin otras condiciones que afectan a la red de tráfico. Las tres formas de mediciones tomadas son efectivamente equivalente, con la media RTT medidos en el ensayo que varían en no más de 1 por ciento. Experimento 2: Pérdida de paquetes La pérdida de paquetes en una red afecta a la fiabilidad, capacidad de respuesta, y el rendimiento. Puede ser causada por muchos factores, incluyendo enlaces de datos ruidosos corruptor, hardware defectuoso reenvío, o fallas transitorias durante el trazado de reconfiguración. Suponiendo que la infraestructura de la red no es defectuoso y enrutamiento es estable, la pérdida es a menudo causada por la congestión de red cuando convergen los flujos de datos causan un cuello de botella, obligando a los tampones para desbordar en el hardware de reenvío y, por lo tanto, los paquetes que se retiren. Pérdida puede suceder ya sea en el avance o el camino inverso de una conexión TCP, la única indicación de la pila TCP ser la ausencia de un ACK recibido. TCP ofrece aplicaciones de una corriente de bytes ordenada. Por lo tanto, cuando se produce la pérdida de un segmento y tiene que ser retransmitidos, segmentos que ya han llegado, sino que aparecerán más adelante en la corriente de bytes habrá que esperar a la entrega del tramo faltante por lo que la corriente de bytes puede ser vuelto a montar en orden. Conocido como el bloqueo de cabeza de línea, esto puede ser perjudicial para el rendimiento de las aplicaciones que se ejecutan a través de TCP, especialmente si la latencia es alta. confirmaciones selectivas, si está habilitado, permite a un host para indicar con precisión qué subconjunto de segmentos desapareció en el camino hacia adelante y por lo tanto qué subconjunto de retransmitir. Esto ayuda a mejorar el número de segmentos en vuelo cuando se ha producido la pérdida. En este experimento, la pérdida de paquetes se ha habilitado en el host de reenvío en las tasas de pérdida de 5, 10, 15, y 20 por ciento, siendo para demostrar que los segmentos TCP con el propósito están siendo intercambiados y RTT estimado por el TCP son más tolerantes a la pérdida de RTT medida por la aplicación. Los resultados de este experimento se muestran en la figura 3. Los puntos representan valores de la mediana, con percentiles 5 y 95 mostrados. En estas pruebas, una pérdida de paquetes 5 por ciento era capaz de introducir un medio-segundo de retardo para la aplicación, a pesar de que el valor de la mediana está cerca de la verdadera RTT de 100 ms el medio medido de la capa de aplicación RTT con 5 por ciento de pérdida es 196,4 92,4 ms, ms altas que la media medida para TCP RTT. Los medios medidos aumentan rápidamente: 400.3 ms para la pérdida del 10 por ciento, 1,2 s para la pérdida del 15 por ciento, y 17,7 s para la pérdida del 20 por ciento. Los valores de la mediana se muestran en la figura 3 para la capa de aplicación RTT siguen un patrón similar, y en este ejemplo se manifiestan en la capa de aplicación mediana RTT medidos en alrededor de 12 segundos con la pérdida de paquetes 20 por ciento. El RTT TCP, sin embargo, está siempre cerca de la verdadera distancia de 100 ms si bien los intercambios de paquetes retrasados ​​pueden inflar esta medida, la mayor desviación media observada en estas pruebas entre TCP RTT e ICMP RTT se registró un aumento de 57,7 ms en RTT medido en el capa TCP. El efecto de la pérdida de paquetes puede ser devastador para la capacidad de respuesta de las aplicaciones TCP, pero es evidente que la medición de forma pasiva a nivel de red RTT es todavía viable, y distinta de la latencia percibida experimentado por las aplicaciones que puede ser introducido por los PCT en orden semántica de entrega . Experimento 3: Bufferbloat malentendidos acerca de la relación entre la prevención de pérdida de rendimiento de la red y han dado lugar a excesiva búfer está introduciendo en el reenvío y el hardware de enrutamiento como una estrategia de pérdida de evitación. A menudo (pero no exclusivamente), esto afecta a los productos básicos CPE (Customer Premises Equipment), y afecta, pues, directamente a los usuarios finales. buffering excesiva, sin embargo, va en contra de los TCP algoritmo de detección de pérdidas por el aumento de demora y por lo tanto retrasar el tiempo necesario para que una pila TCP para identificar la pérdida y la espalda offmdashthat es decir, el retardo adicional introducido por grandes cantidades de memoria puede alterar los TCP mecanismo de control de congestión. Bufferbloat es un fenómeno bien conocido 7 en el que el tampón más profundo en una ruta de red entre dos hosts es finalmente llenado por TCP. Aparentemente, los diseñadores de sistemas aumentan el tamaño del tampón para reducir la pérdida, pero buffers más profundos aumentan el tiempo real tomada para los paquetes para recorrer un camino, aumentando el RTT y retrasando el tiempo que toma para TCP para determinar cuando se ha producido un evento de pérdida. La pérdida es el conductor para el algoritmo de control de congestión de TCP, por lo que el aumento de tamaño del búfer es en realidad contraproducente. Para demostrar bufferbloat en este experimento, tc tamaños de cola se aumentaron sistemáticamente de 10 KB, 100 KB, a continuación, 200 KB, y finalmente 300 KB en el host de reenvío, y se utilizó netcat para crear un flujo de alto ancho de banda entre cada uno de los finales anfitriones antes de iniciar la aplicación cliente / servidor. La intención del flujo de alto ancho de banda era llenar las colas más largas en el host de reenvío, lo que demuestra que el tiempo de drenaje afecta a la capacidad de respuesta de la aplicación. Los resultados del experimento se muestran en las figuras 4 y 5. La figura 4 muestra la dispersión de las mediciones de RTT como se aumentaron los tamaños de tampón. La prueba de 300 KB en la Figura 5 muestra las medidas de RTT muy similares de ambos anfitriones en las mediciones ICMP, en la capa TCP, y en la capa de aplicación media y la mediana de los valores para todas las capas en estos experimentos fueron todos dentro de 2 ms de uno al otro. Todas las medidas de RTT se inflan en la misma cantidad, porque el tamaño del búfer excesiva aumenta efectivamente la longitud del camino de capa de red. Teniendo en cuenta que la aplicación de prueba emite sólo un puñado de paquetes de una vez por segundo, el patrón de diente de sierra es indicativo de los datos de llenado netcat una cola, a continuación, TCP espera de la cola se drene antes de enviar más datos de netcats, formando un patrón de ráfagas. Estas colas llenas afectan negativamente a la entrega del resto del tráfico y aumentan los valores de RTT aplicaciones de prueba, que varían de 100 ms a 250 ms aproximadamente como resultado. El problema bufferbloat se está trabajando de forma regular. Mecanismos como SACO (reconocimientos selectivos), DSACK (Duplicar SACO) y ECN (Explicit Congestion Notification), cuando está activado, todos ayudan a aliviar bufferbloat. Además, las estrategias de gestión de colas activos tales como Codel han sido aceptados en los kernels de la línea principal. En resumen, es evidente que para reducir al mínimo los retrasos causados ​​por la cabeza de la línea de bloqueo en TCP, la pérdida de paquetes debe mantenerse al mínimo. Teniendo en cuenta que hay que esperar que la pérdida de paquetes como principal impulsor de algoritmo de control de congestión TCP, también hay que tener cuidado para minimizar el almacenamiento en búfer de red, y evitar los retrasos ocasionados por bufferbloat. El último requisito, en particular, es útil tener en cuenta a la hora de aprovisionamiento redes de datos con tiempos críticos que deben ser entregados de forma fiable. Trabajo relacionado La cuestión clave cuando se utiliza TCP para aplicaciones sensibles al tiempo es que TCP ofrece una corriente de bytes confiable. Este requisito es distinto de otros aspectos clave de TCP, como el control de la congestión y control de flujo. TCP no es adecuado para todas las aplicaciones, sin embargo. Eli Brosh et al. discutir con más detalle el comportamiento de TCP en presencia de cierta demora límites y de aceptabilidad de rendimiento de las aplicaciones. 1 9 UDP es el protocolo más utilizado después del TCP es un protocolo orientado a datagramas sin control de la congestión, el flujo de los mecanismos de control, o un mensaje de pedidos. Se aumenta efectivamente la capa IP con números de puerto UDP-capa. Sin la limitación de mensaje de pedido, no se ve afectado por el problema de la cabeza de línea de bloqueo que puede afectar a las conexiones TCP. UDP sí sola no es adecuada para muchas aplicaciones, sin embargo, debido a la fiabilidad es a menudo un requisito, y el control de congestión es importante para permitir la distribución justa de los recursos de la red. Muchas aplicaciones eligen a la capa de protocolos en la parte superior de la UDP, tales como RTP (Real Time Protocol) en conjunto con RTCP (Protocolo de Control en Tiempo Real), 10 destinados principalmente para el transporte de tráfico en tiempo real sensible al tiempo, capaz de manejar pequeñas cantidades de pérdida. Estas aplicaciones del juego de protocolos tales como VoIP, que no requieren el 100 por ciento de confiabilidad y encontrar retrasos típicos de los jefes de la línea de bloqueo perjudiciales. RTCP permite el control de congestión de grano grueso y permite aplicaciones en tiempo real para modificar su uso por la elección de los ajustes de calidad diferentes para la transmisión en vivo, pero el control de la congestión no se construye por sí mismo. DCCP 4 es una, de mejor esfuerzo protocolo de capa de transporte orientado a mensajes que no se haga valer el estricto orden de entrega de datos, no maneja la retransmisión de datagramas, pero no realizar el control de congestión para conservar los recursos de la red. DCCP es útil para un conjunto similar de aplicaciones como RTP y RTCP, pero la adición de control de congestión sin potencial duplicación datagrama es importante, lo que permite RTP para funcionar sobre DCCP con menos preocupación por el consumo de recursos de red. SCTP 11 es también un protocolo de transporte orientado a mensajes, en donde cada mensaje se entrega a la aplicación en orden. Estricta ordenación de mensajes, sin embargo, es opcional, por lo que el transporte puede ser más sensible para el tráfico de aplicaciones. SCTP también abastece a la fiabilidad parcial. 12 Obsérvese que bufferbloat es endémica, y otros protocolos de transporte se ven afectadas de la misma manera como TCP, pero relajante estrictas limitaciones de pedido en la capa de transporte es un método para mejorar el rendimiento mediante la eliminación del tiempo de respuesta adicional incurrido cuando la corriente se bloquea a la espera de que falta datos.

No comments:

Post a Comment