L’utilisation de la fonction de fenêtre exponentielle est d’abord attribuée à Poisson comme une extension d’une technique d’analyse numérique du 17ème siècle, puis adoptée par la communauté du traitement du signal dans les années 1940. ici, le lissage exponentiel est L’application de la fonction de fenêtre exponentielle, ou de Poisson. Le lissage exponentiel a été suggéré pour la première fois dans la littérature statistique sans citer de travaux antérieurs de Robert Goodell Brown en 1956, puis développé par Charles C. Holt en 1957., La formulation ci-dessous, qui est celle couramment utilisée, est attribuée à Brown et est connue sous le nom de « lissage exponentiel simple de Brown ». Toutes les méthodes de Holt, Winters et Brown peuvent être considérées comme une simple application du filtrage récursif, trouvé pour la première fois dans les années 1940 pour convertir les filtres à réponse impulsionnelle finie (FIR) en Filtres à réponse impulsionnelle infinie.

la forme La plus simple de lissage exponentiel est donnée par la formule:

s t = α x t + ( 1 − α ) s t − 1 = s t − 1 + α ( x, t − s, t − 1 ) . {\displaystyle s_{t}=\alpha x_{t}+(1-\alpha )s_{t-1}=s_{t-1}+\alpha (x_{t}-s_{t-1}).,}

où α {\displaystyle \alpha } est le facteur de lissage, et 0 ≤ α ≤ 1 {\displaystyle 0\leq \alpha \leq 1} . En d’autres termes, le lissage statistique s t {\displaystyle s_{t}} est une simple moyenne pondérée de l’observation courante x t {\displaystyle x_{t}} et le précédent lissé statistique s t − 1 {\displaystyle s_{t-1}} . Le lissage exponentiel Simple est facilement appliqué et produit une statistique lissée dès que deux observations sont disponibles.,Le terme facteur de lissage appliqué à α {\displaystyle \alpha } ici est quelque chose d’un mauvais nom, car des valeurs plus grandes de α {\displaystyle \alpha } réduisent en fait le niveau de lissage, et dans le cas limite Avec α {\displaystyle \alpha } = 1 la série de sortie est juste l’observation actuelle. Les valeurs de α {\displaystyle \ alpha } proches de un ont moins d’effet de lissage et donnent plus de poids aux changements récents dans les données, tandis que les valeurs de α {\displaystyle \alpha } proches de zéro ont un plus grand effet de lissage et sont moins sensibles aux changements récents.,

contrairement à d’autres méthodes de lissage, telles que la moyenne mobile simple, cette technique ne nécessite aucun nombre minimum d’observations avant de commencer à produire des résultats. En pratique, cependant, une « bonne moyenne » ne sera pas atteinte tant que plusieurs échantillons n’auront pas été moyennés ensemble; par exemple, un signal constant prendra environ 3 / α {\displaystyle 3/\alpha } étapes pour atteindre 95% de la valeur réelle., Pour reconstruire avec précision le signal d’origine sans perte d’information, toutes les étapes de la moyenne mobile exponentielle doivent également être disponibles, car les échantillons plus anciens se désintègrent de manière exponentielle. Cela contraste avec une simple moyenne mobile, dans laquelle certains échantillons peuvent être ignorés sans perte d’informations en raison de la pondération constante des échantillons dans la moyenne. Si un nombre connu d’échantillons est omis, on peut également ajuster une moyenne pondérée pour cela, en donnant un poids égal au nouvel échantillon et à tous ceux à ignorer.,

Cette forme simple de lissage exponentiel est également connue sous le nom de moyenne mobile à pondération exponentielle (EWMA). Techniquement, il peut également être classé comme un modèle de moyenne mobile intégrée autorégressive (ARIMA) (0,1,1) sans terme constant.

constante de Tempsedit

α = 1 − e − Δ t/τ {\displaystyle \alpha =1-e^{-\Delta T / \tau}}

Où Δ T {\displaystyle \Delta T} est l’intervalle de temps d’échantillonnage de l’implémentation en temps discret., Si le temps d’échantillonnage est rapide par rapport à la constante de temps ( Δ t τ τ {\displaystyle \Delta T\ll \tau } ) alors

α ≈ Δ t τ {\displaystyle \alpha \approx {\frac {\Delta T}{\Tau }}}

choisir la valeur lissée initialedit

notez que dans la définition ci-dessus, s 0 {\displaystyle s_{0}} est initialisé à x 0 {\displaystyle x_{0}} . Parce que le lissage exponentiel nécessite qu’à chaque étape nous ayons la prévision précédente, il n’est pas évident de savoir comment démarrer la méthode., Nous pourrions supposer que la prévision initiale est égale à la valeur initiale de la demande; cependant, cette approche présente un sérieux inconvénient. Le lissage exponentiel met un poids substantiel sur les observations passées, de sorte que la valeur initiale de la demande aura un effet déraisonnablement important sur les premières prévisions. Ce problème peut être résolu en permettant au processus d’évoluer pendant un nombre raisonnable de périodes (10 ou plus) et en utilisant la moyenne de la demande au cours de ces périodes comme prévision initiale., Il existe de nombreuses autres façons de définir cette valeur initiale, mais il est important de noter que plus la valeur de α {\displaystyle \alpha} est petite , plus votre prévision sera sensible sur la sélection de cette valeur initiale plus lisse s 0 {\displaystyle s_{0}} .

OptimizationEdit

pour chaque méthode de lissage exponentiel, nous devons également choisir la valeur des paramètres de lissage. Pour un lissage exponentiel simple, il n’y a qu’un seul paramètre de lissage (α), mais pour les méthodes qui suivent, il y a généralement plus d’un paramètre de lissage.,

Il y a des cas où les paramètres de lissage peuvent être choisis de manière subjective – le prévisionniste spécifie la valeur des paramètres de lissage en fonction de l’expérience antérieure. Cependant, une façon plus robuste et objective d’obtenir des valeurs pour les paramètres inconnus inclus dans toute méthode de lissage exponentiel consiste à les estimer à partir des données observées.,

SSE = ∑ t = 1 T ( y T-Y ^ T ^ T-1 − 2 = ∑ t = 1 T E T 2 {\displaystyle {\text {SSE}}= \ sum _{t = 1}^{t} (y_{t}-{\hat {y}}_{T \ mid t-1})^{2}=\sum _{t=1}^{T}e_{t}^{2}}

contrairement au cas de régression (où nous avons des formules pour calculer directement les coefficients de régression qui minimisent L’ESS) cela implique un problème de minimisation non linéaire et nous devons utiliser un outil d’optimisation pour effectuer cela.

nom « exponentiel » edit

le nom « lissage exponentiel » est attribué à l’utilisation de la fonction de fenêtre exponentielle pendant la convolution., Il n’est plus attribué à Holt, Winters & Brown.

En remplacement direct de la définition de l’équation exponentielle simple lissage retour sur elle-même, nous constatons que

s t = α x t + ( 1 − α ) s t − 1 = α x t + α ( 1 − α ) x t − 1 + ( 1 − α ) 2 s t − 2 = α + ( 1 − α ) t x 0 . {\displaystyle {\begin{aligné}s_{t}&=\alpha x_{t}+(1-\alpha )s_{t-1}\\&=\alpha x_{t}+\alpha (1-\alpha )x_{t-1}+(1-\alpha )^{2}s_{t 2}\\&=\alpha \left+(1-\alpha )^{t}x_{0}.,autre statistique s T {\displaystyle s_{t}} devient la moyenne pondérée d’un nombre de plus en plus grand des observations passées s T − 1 , … , S T − {\displaystyle s_{t-1},\ldots ,s_{t-}} , et les poids attribués aux observations précédentes sont proportionnels aux termes de la progression géométrique 1 , ( 1 − α ) , ( 1 − α ) 2 , … , ( 1 − α ) n, {{\displaystyle 1,(1-\alpha ),(1-\alpha) ^{2},\ldots ,(1-\alpha) ^{n},\ldots }

une progression géométrique est la version discrète d’une fonction exponentielle, c’est donc là que le nom de cette méthode de lissage est originaire selon les traditions statistiques.,

comparaison avec la moyenne mouvantedit

Le lissage exponentiel et la moyenne mobile présentent des défauts similaires d’introduction d’un décalage par rapport aux données d’entrée. Bien que cela puisse être corrigé en décalant le résultat de la moitié de la longueur de la fenêtre pour un noyau symétrique, tel qu’une moyenne mobile ou gaussienne, il n’est pas clair dans quelle mesure cela serait approprié pour le lissage exponentiel. Ils ont également tous deux à peu près la même distribution d’erreur de prévision lorsque α = 2/(k + 1)., Ils diffèrent en ce que le lissage exponentiel prend en compte toutes les données passées, alors que la moyenne mobile ne prend en compte que k points de données passés. Sur le plan informatique, ils diffèrent également en ce que la moyenne mobile nécessite que les k points de données passés, ou le point de données au décalage k + 1 plus la valeur de prévision la plus récente, soient conservés, alors que le lissage exponentiel n’a besoin que de la valeur de prévision la plus récente.,

dans la littérature sur le traitement du signal, l’utilisation de filtres Non causaux (symétriques) est courante et la fonction de fenêtre exponentielle est largement utilisée de cette manière, mais une terminologie différente est utilisée: le lissage exponentiel équivaut à un filtre à réponse impulsionnelle infinie (IIR) du premier ordre et la moyenne mobile équivaut à un filtre à réponse impulsionnelle finie

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *