het gebruik van de exponentiële vensterfunctie wordt voor het eerst toegeschreven aan Poisson als een uitbreiding van een numerieke analysetechniek uit de 17e eeuw, en later overgenomen door de signaalverwerkingsgemeenschap in de jaren 1940. hier is exponentieel gladmaken de toepassing van de exponentiële, of Poisson, vensterfunctie. Exponential smoothing werd voor het eerst voorgesteld in de statistische literatuur zonder verwijzing naar eerder werk van Robert Goodell Brown in 1956, en vervolgens uitgebreid door Charles C. Holt in 1957., De formulering hieronder, die vaak wordt gebruikt, wordt toegeschreven aan Brown en staat bekend als “Brown’ s simple exponential smoothing”. Alle methoden van Holt, Winters en Brown kunnen worden gezien als een eenvoudige toepassing van recursieve filtering, voor het eerst gevonden in de jaren 1940 om eindige impulsrespons (FIR) filters om te zetten in oneindige impulsrespons filters.

De eenvoudigste vorm van exponentiële afvlakking wordt gegeven door de formule:

s t = α x t + ( 1 − α ) s t − 1 = s t − 1 + α ( x t − s t − 1 ) . {\displaystyle s_{t}= \ alpha x_{t}+(1-\alpha )s_{t-1}=s_{t-1}+\alpha (x_{t}-s_{t-1}).,}

waarbij α {\displaystyle \ alpha } de afvlakkingsfactor is, en 0 ≤ α ≤ 1 {\displaystyle 0\leQ \ alpha \ leq 1} . Met andere woorden, de afgevlakte Statistiek s t {\displaystyle s_{t}} is een eenvoudig gewogen gemiddelde van de huidige waarneming x t {\displaystyle x_{t}} en de vorige afgevlakte Statistiek s t − 1 {\displaystyle s_{t-1}} . Eenvoudige exponentiële smoothing wordt gemakkelijk toegepast, en het produceert een gladgestreken statistiek zodra twee waarnemingen beschikbaar zijn.,De term smoothing factor toegepast op α {\displaystyle \alpha } hier is iets van een verkeerde benaming, aangezien grotere waarden van α {\displaystyle \alpha } daadwerkelijk verminderen het niveau van smoothing, en in het limiterende geval met α {\displaystyle \alpha } = 1 de output serie is slechts de huidige waarneming. Waarden van α {\displaystyle \alpha } dicht bij één hebben minder een gladmakend effect en geven meer gewicht aan recente veranderingen in de gegevens, terwijl waarden van α {\displaystyle \alpha } dichter bij nul een groter gladmakend effect hebben en minder reageren op recente veranderingen.,

In tegenstelling tot sommige andere smoothing methoden, zoals het eenvoudige voortschrijdend gemiddelde, vereist deze techniek geen minimumaantal waarnemingen voordat ze resultaten begint te produceren. In de praktijk zal echter pas een” goed gemiddelde ” worden bereikt als meerdere monsters samen zijn genomen; bijvoorbeeld, een constant signaal zal ongeveer 3 / α {\displaystyle 3/\alpha } fasen in beslag nemen om 95% van de werkelijke waarde te bereiken., Om het originele signaal nauwkeurig te reconstrueren zonder informatieverlies moeten alle stadia van het exponentiële voortschrijdend gemiddelde ook beschikbaar zijn, omdat oudere monsters exponentieel in gewicht vervallen. Dit is in tegenstelling tot een eenvoudig voortschrijdend gemiddelde, waarin sommige monsters kunnen worden overgeslagen zonder zoveel verlies van informatie als gevolg van de constante weging van monsters binnen het gemiddelde. Als een bekend aantal monsters zal worden gemist, kan men een gewogen gemiddelde voor dit ook aan te passen, door gelijk gewicht aan de nieuwe monster en alle die worden overgeslagen.,

deze eenvoudige vorm van exponentieel gladmaken wordt ook wel een exponentieel gewogen voortschrijdend gemiddelde (EWMA) genoemd. Technisch kan het ook worden geclassificeerd als een autoregressief geïntegreerd voortschrijdend gemiddelde (ARIMA) (0,1,1) model zonder constante term.

tijd constantEdit

α = 1-e-Δ T / τ {\displaystyle \alpha =1-e^{- \Delta T/\tau }}

waarbij Δ T {\displaystyle \Delta T} het bemonsteringstijdinterval is van de afzonderlijke tijdimplementatie., Als de bemonsteringstijd snel is in vergelijking met de tijdconstante ( Δ t τ τ {\displaystyle \Delta T\ll \tau } ) dan

α ≈ Δ t τ {\displaystyle \alpha \approx {\frac {\Delta T}{\tau }}}

het kiezen van de eerste afgevlakte waardedit

merk op dat in de definitie hierboven, s 0 {\displaystyle s_{0}} wordt geïnitialiseerd naar x 0 {\displaystyle x_{0}} . Omdat exponentiële smoothing vereist dat we in elke fase de vorige voorspelling hebben, is het niet duidelijk hoe we de methode kunnen starten., We zouden kunnen aannemen dat de initiële prognose gelijk is aan de initiële waarde van de vraag; deze benadering heeft echter een ernstig nadeel. Exponentiële smoothing legt aanzienlijk gewicht op waarnemingen uit het verleden, dus de initiële waarde van de vraag zal een onredelijk groot effect hebben op vroege voorspellingen. Dit probleem kan worden opgelost door het proces gedurende een redelijk aantal perioden (10 of meer) te laten evolueren en het gemiddelde van de vraag tijdens die perioden als initiële prognose te gebruiken., Er zijn veel andere manieren om deze beginwaarde in te stellen, maar het is belangrijk op te merken dat hoe kleiner de waarde van α {\displaystyle \alpha } , hoe gevoeliger uw voorspelling zal zijn bij de selectie van deze beginwaarde s 0 {\displaystyle s_{0}} .

OptimizationEdit

voor elke exponentiële smoothing methode moeten we ook de waarde voor de smoothing parameters kiezen. Voor eenvoudige exponentiële smoothing is er slechts één smoothing parameter (α), maar voor de volgende methoden is er meestal meer dan één smoothing parameter.,

er zijn gevallen waarin de afvlakparameters op subjectieve wijze kunnen worden gekozen – de voorspeller specificeert de waarde van de afvlakparameters op basis van eerdere ervaring. Echter, een meer robuuste en objectieve manier om waarden te verkrijgen voor de onbekende parameters opgenomen in een exponentiële smoothing methode is om ze te schatten op basis van de waargenomen gegevens.,

SSE = ∑ t = 1 T (y t − y ^ T ∣ t − 1 ) 2 = ∑ t = 1 T e T 2 {\displaystyle {\text{SSE}} = \sum _{t = 1}^{T} (y_{t}-{\hat {y}}_{t \ mid t-1})^{2}=\sum _{t = 1}^{T}e_{t}^{2}}

In tegenstelling tot het geval van regressie (waar we formules hebben om direct de regressiecoëfficiënten te berekenen die de SSE minimaliseren) gaat dit om een niet-lineair minimalisatieprobleem en we moeten een optimalisatietool gebruiken om dit uit te voeren.

“Exponential” namingEdit

de naam ‘exponential smoothing’ wordt toegeschreven aan het gebruik van de exponential window functie tijdens convolutie., Het wordt niet langer toegeschreven aan Holt, Winters & Brown.

door directe substitutie van de definiërende vergelijking voor eenvoudige exponentiële afvlakking terug in zichzelf vinden we dat

s T = α x t + (1 − α ) s t − 1 = α x t + α ( 1 − α ) x T − 1 + (1 − α ) 2 s t − 2 = α + (1-α ) t x 0 . {\displaystyle {\begin{aligned}s_{t}&=\alpha x_{t}+(1-\alpha )s_{t-1}\\&=\alpha x_{t}+\alpha (1-\alpha )x_{t-1}+(1-\alpha )^{2}s_{t-2}\\&=\alpha \links+(1-\alpha )^{t}x_{0}.,othed Statistiek s t {\displaystyle s_{t}} wordt het gewogen gemiddelde van een steeds groter aantal waarnemingen uit het verleden s t − 1 , … , s t − {\displaystyle s_{t-1},\ldots ,s_{t-}} , en de gewichten die aan eerdere waarnemingen zijn toegekend zijn evenredig met de termen van de geometrische progressie 1 , ( 1 − α ) , ( 1 − α ) 2 , … , ( 1 − α ) n , … {\displaystyle 1,(1-\alpha ),(1-\alpha )^{2},\ldots ,(1-\alpha )^{n},\ldots }

een geometrische progressie is de discrete versie van een exponentiële functie.,

vergelijking met moving averagedit

exponentiële smoothing en moving average hebben vergelijkbare defecten van het invoeren van een vertraging ten opzichte van de inputgegevens. Hoewel dit kan worden gecorrigeerd door het resultaat te verschuiven met de helft van de vensterlengte voor een symmetrische kernel, zoals een voortschrijdend gemiddelde of Gaussiaans, is het onduidelijk hoe geschikt Dit zou zijn voor exponentiële smoothing. Ze hebben ook beide ongeveer dezelfde verdeling van de voorspellingsfout wanneer α = 2/(k + 1)., Ze verschillen in die exponentiële smoothing rekening houdt met alle gegevens uit het verleden, terwijl moving average alleen rekening houdt met k verleden datapunten. Rekenkundig gezien verschillen ze ook in het feit dat voortschrijdend gemiddelde vereist dat de afgelopen K-gegevenspunten, of het gegevenspunt op lag k + 1 plus de meest recente voorspellingswaarde, worden gehouden, terwijl exponentiële smoothing alleen de meest recente voorspellingswaarde moet worden gehouden.,

in de literatuur over signaalverwerking is het gebruik van niet-causale (symmetrische) filters gemeengoed, en de exponentiële vensterfunctie wordt op deze manier breed gebruikt, maar een andere terminologie wordt gebruikt: exponentiële smoothing is gelijk aan een eerste-orde infinite-impulse response (IIR) filter en voortschrijdend gemiddelde is gelijk aan een eindige impulsrespons filter met gelijke wegingsfactoren.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *