Exponential Gewichtete Gleitende Durchschnittsprognose




Exponential Gewichtete Gleitende DurchschnittsprognoseExponentielle Glattung erklart. Kopie des Urheberrechts. Inhalt auf InventoryOps ist urheberrechtlich geschutzt und steht nicht fur die Wiederveroffentlichung zur Verfugung. Wenn die Menschen zuerst den Begriff Exponential Smoothing begegnen sie denken, dass klingt wie eine Holle von viel Glattung. Was Glattung ist. Sie beginnen dann eine komplizierte mathematische Berechnung vorstellen, die wahrscheinlich erfordert einen Abschluss in Mathematik zu verstehen, und hoffe, es ist eine eingebaute Excel-Funktion verfugbar, wenn sie es jemals tun mussen. Die Wirklichkeit der exponentiellen Glattung ist weit weniger dramatisch und weit weniger traumatisch. Die Wahrheit ist, ist exponentielle Glattung eine sehr einfache Berechnung, die eine ziemlich einfache Aufgabe erfullt. Es hat nur einen komplizierten Namen, weil was technisch passiert als Folge dieser einfachen Berechnung ist eigentlich ein wenig kompliziert. Um zu verstehen, exponentielle Glattung, hilft es, mit dem allgemeinen Konzept der Glattung und ein paar andere gangige Methoden, um Glattung zu erreichen beginnen. Was ist Glattung Glattung ist ein sehr haufiger statistischer Prozess. Tatsachlich begegnen wir regelma?ig geglattete Daten in verschiedenen Formen in unserem Alltag. Jedes Mal, wenn Sie einen Durchschnitt verwenden, um etwas zu beschreiben, verwenden Sie eine geglattete Zahl. Wenn Sie daruber nachdenken, warum Sie einen Durchschnitt verwenden, um etwas zu beschreiben, werden Sie schnell verstehen, das Konzept der Glattung. So erlebten wir zum Beispiel den warmsten Winter. Wie konnen wir das quantifizieren? Nun beginnen wir mit Datensatzen der taglichen hohen und niedrigen Temperaturen fur den Zeitraum, den wir Winter fur jedes Jahr in der aufgezeichneten Geschichte nennen. Aber das lasst uns mit einer Menge von Zahlen, die um einiges herumspringen (es ist nicht wie jeden Tag dieser Winter war warmer als die entsprechenden Tage aus allen fruheren Jahren). Wir brauchen eine Zahl, die alle diese Sprunge aus den Daten entfernt, so dass wir besser vergleichen konnen einen Winter zum nachsten. Das Entfernen der Sprunge in den Daten hei?t Glattung, und in diesem Fall konnen wir einfach einen einfachen Durchschnitt verwenden, um die Glattung zu erreichen. In der Bedarfsprognose verwenden wir die Glattung, um zufallige Variation (Larm) aus unserer historischen Nachfrage zu entfernen. Dies ermoglicht es uns, die Bedarfsmuster (vor allem die Trend - und Saisonalitat) und die Nachfrage, die zur Abschatzung der zukunftigen Nachfrage genutzt werden konnen, besser zu identifizieren. Der Larm in der Nachfrage ist das gleiche Konzept wie das tagliche Springen der Temperaturdaten. Nicht uberraschend, die haufigste Art und Weise Menschen entfernen Rauschen aus der Nachfrage Geschichte ist es, einen einfachen Durchschnitt verwenden oder genauer, ein gleitender Durchschnitt. Ein gleitender Durchschnitt verwendet nur eine vordefinierte Anzahl von Perioden, um den Durchschnitt zu berechnen, und diese Perioden bewegen sich mit der Zeit. Zum Beispiel, wenn Im mit einem 4-Monats-gleitenden Durchschnitt, und heute ist der 1. Mai, Im mit einem Durchschnitt der Nachfrage, die im Januar, Februar, Marz und April aufgetreten. Am 1. Juni werde ich die Nachfrage von Februar, Marz, April und Mai nutzen. Gewichteter gleitender Durchschnitt. Wenn wir einen Durchschnitt verwenden, wenden wir die gleiche Wichtigkeit (Gewicht) auf jeden Wert im Datensatz an. Im gleitenden 4-Monatsdurchschnitt stellte jeder Monat 25 des gleitenden Durchschnitts dar. Bei der Verwendung der Nachfragegeschichte, um die zukunftige Nachfrage (und insbesondere die zukunftige Entwicklung) zu prognostizieren, ist es logisch, zu der Schlussfolgerung zu kommen, dass die jungere Geschichte eine gro?ere Auswirkung auf Ihre Prognose haben mochte. Wir konnen unsere gleitende durchschnittliche Berechnung anpassen, um verschiedene Gewichte auf jede Periode anzuwenden, um die gewunschten Ergebnisse zu erzielen. Wir geben diese Gewichte als Prozentsatze an, und die Summe aller Gewichte fur alle Perioden muss zu 100 addieren. Wenn wir also entscheiden, dass wir 35 als Gewicht fur die nachste Periode in unserem 4-monatigen gewichteten gleitenden Durchschnitt anwenden wollen, konnen wir Subtrahieren 35 von 100 zu finden, wir haben 65 ubrig geblieben, um uber die anderen 3 Perioden zu teilen. Zum Beispiel konnen wir am Ende mit einer Gewichtung von 15, 20, 30 und 35 fur die 4 Monate (15 20 30 35 100). Exponentielle Glattung. Wenn wir auf das Konzept der Anwendung eines Gewichtes auf die jungste Periode (wie z. B. 35 im vorigen Beispiel) und das Verbreiten des Restgewichts (berechnet durch Subtrahieren des letzten Periodengewichts von 35 von 100 auf 65) zuruckgehen, haben wir Die Grundbausteine ??fur unsere exponentielle Glattungsberechnung. Der Steuereingang der Exponentialglattungsberechnung ist als Glattungsfaktor (auch Glattungskonstante genannt) bekannt. Es handelt sich im Wesentlichen um die Gewichtung fur die jungsten Zeitraume Nachfrage. Wenn wir also 35 als Gewichtung fur die letzte Periode in der gewichteten gleitenden Durchschnittsberechnung verwendeten, konnten wir auch 35 als Glattungsfaktor in unserer exponentiellen Glattungsberechnung verwenden, um einen ahnlichen Effekt zu erhalten. Der Unterschied zu der exponentiellen Glattungsberechnung ist, dass anstelle von uns auch herauszufinden, wie viel Gewicht auf jede vorhergehende Periode anzuwenden ist, der Glattungsfaktor verwendet, um das automatisch zu tun. Also hier kommt der exponentielle Teil. Wenn wir 35 als Glattungsfaktor verwenden, betragt die Gewichtung der letzten Periodennachfrage 35. Die Gewichtung der nachsten letzten Periodennachfrage (der Zeitraum vor dem jungsten) betragt 65 von 35 (65 ergibt sich aus der Subtraktion von 35 von 100). Dies entspricht 22,75 Gewichtung fur diesen Zeitraum, wenn Sie die Mathematik. Die nachste Nachfrage nach der letzten Zeit wird 65 von 65 von 35 sein, was 14,79 entspricht. Der Zeitraum davor wird gewichtet mit 65 von 65 von 65 von 35, was 9,61 entspricht, und so weiter. Und dies geht zuruck durch alle Ihre fruheren Perioden den ganzen Weg zuruck zum Anfang der Zeit (oder der Punkt, an dem Sie begonnen haben, exponentielle Glattung fur das jeweilige Element). Youre wahrscheinlich denken, dass aussehen wie eine ganze Menge Mathe. Aber die Schonheit der exponentiellen Glattungsberechnung ist, dass, anstatt zu jeder vorherigen Periode neu berechnen mussen, jedes Mal wenn Sie eine neue Periodenanforderung erhalten, verwenden Sie einfach die Ausgabe der exponentiellen Glattungsberechnung aus der vorherigen Periode, um alle vorherigen Perioden darzustellen. Sind Sie noch verwirrt Dies wird mehr Sinn machen, wenn wir die tatsachliche Berechnung betrachten Normalerweise beziehen wir uns auf die Ausgabe der exponentiellen Glattung Berechnung als die nachste Periode Prognose. In Wirklichkeit braucht die endgultige Prognose etwas mehr Arbeit, aber fur die Zwecke dieser spezifischen Berechnung werden wir sie als die Prognose bezeichnen. Die exponentielle Glattungsberechnung ist wie folgt: Die letzte Periodenforderung multipliziert mit dem Glattungsfaktor. PLUS Die Prognose der letzten Perioden multipliziert mit (minus Glattungsfaktor). D die letzten Perioden S den Glattungsfaktor, der in dezimaler Form dargestellt ist (also 35 als 0,35 dargestellt werden). F die letzten Periodenprognosen (die Ausgabe der Glattungsberechnung aus der vorherigen Periode). OR (unter Annahme eines Glattungsfaktors von 0,35) (D 0,35) (F 0,65) Es wird nicht viel einfacher als das. Wie Sie sehen konnen, benotigen wir fur die Dateneingaben hier nur die jungsten Zeitraume und die letzten Prognosezeitraume. Wir wenden den Glattungsfaktor (Gewichtung) auf die letzten Perioden an, die in der gewichteten gleitenden Durchschnittsberechnung dieselbe Weise erfordern. Anschlie?end legen wir die verbleibende Gewichtung (1 minus Glattungsfaktor) auf die jeweils aktuellsten Perioden an. Da die Prognose der letzten Perioden auf Basis der vorherigen Periodennachfrage und der vorherigen Periodenprognosen erstellt wurde, die auf der Nachfrage nach dem vorherigen Zeitraum und der Prognose fur den Zeitraum vor der Prognose beruhte, der auf der Nachfrage fur den Zeitraum zuvor beruhte Dass und die Prognose fur den Zeitraum vor, dass auf der Grundlage der Zeitraum vor, dass. Gut, konnen Sie sehen, wie alle vorherigen Perioden Nachfrage sind in der Berechnung dargestellt, ohne tatsachlich zuruck und Neuberechnung alles. Und das ist, was fuhr die anfangliche Popularitat der exponentiellen Glattung. Es war nicht, weil es einen besseren Job des Glattens als gewogenen gleitenden Durchschnitt machte, war es, weil es einfacher war, in einem Computerprogramm zu berechnen. Und weil Sie didnt brauchen, um daruber nachzudenken, welche Gewichtung fruheren Perioden zu geben oder wie viele vorherige Perioden zu verwenden, wie Sie in gewichteten gleitenden Durchschnitt. Und, weil es klang nur kuhler als gewichtet gleitenden Durchschnitt. Tatsachlich konnte man argumentieren, dass der gewichtete gleitende Durchschnitt eine gro?ere Flexibilitat bietet, da Sie mehr Kontrolle uber die Gewichtung fruherer Perioden haben. Die Realitat ist entweder von diesen konnen respektable Ergebnisse liefern, also warum nicht mit einfacher und kuhler klingen gehen. Exponentielle Glattung in Excel Lets sehen, wie dies tatsachlich in einer Kalkulationstabelle mit realen Daten aussehen wurde. Kopie des Urheberrechts. Inhalt auf InventoryOps ist urheberrechtlich geschutzt und steht nicht fur die Wiederveroffentlichung zur Verfugung. In Abbildung 1A haben wir eine Excel-Tabelle mit 11 Wochen Nachfrage und eine exponentiell geglattete Prognose aus dieser Nachfrage berechnet. Ive verwendete einen Glattungsfaktor von 25 (0,25 in Zelle C1). Die aktuelle aktive Zelle ist Zelle M4, die die Prognose fur Woche 12 enthalt. In der Formelleiste sehen Sie die Formel (L3C1) (L4 (1-C1)). Die einzigen direkten Eingaben zu dieser Berechnung sind die vorherigen Periodennachfrage (Zelle L3), die vorherigen Periodenvorhersage (Zelle L4) und der Glattungsfaktor (Zelle C1, dargestellt als absolute Zelle Bezug C1). Wenn wir eine exponentielle Glattungsberechnung starten, mussen wir den Wert fur die 1. Prognose manuell stecken. Also in Zelle B4, anstatt eine Formel, haben wir nur in der Nachfrage aus der gleichen Periode wie die Prognose eingegeben. In der Zelle C4 haben wir unsere erste exponentielle Glattungsberechnung (B3C1) (B4 (1-C1)). Wir konnen dann kopieren Cell C4 und fugen Sie es in den Zellen D4 bis M4, um den Rest unserer prognostizierten Zellen zu fullen. Sie konnen nun auf eine beliebige Prognosezelle doppelklicken, um zu sehen, dass sie auf der vorherigen Periodenprognosezelle und den vorherigen Periodennachfragezellen basiert. Somit erbt jede nachfolgende exponentielle Glattungsberechnung die Ausgabe der vorherigen exponentiellen Glattungsberechnung. Das ist, wie jede vorherige Periodenanforderung in der letzten Periodenrechnung dargestellt wird, obwohl diese Berechnung nicht direkt auf die vorherigen Perioden bezieht. Wenn Sie Lust bekommen wollen, konnen Sie Excels Trace Prazedenzfall-Funktion. Klicken Sie dazu auf Cell M4, und klicken Sie dann in der Multifunktionsleiste (Excel 2007 oder 2010) auf die Registerkarte Formeln, und klicken Sie dann auf Vorverfolgung verfolgen. Es wird Verbindungslinien auf die erste Ebene der Prazedenzfalle ziehen, aber wenn Sie auf Trace Precedents klicken, zieht es Verbindungslinien zu allen vorherigen Perioden, um Ihnen die vererbten Beziehungen anzuzeigen. Jetzt konnen Sie sehen, was exponentielle Glattung fur uns getan hat. Abbildung 1B zeigt ein Liniendiagramm unserer Nachfrage und Prognose. Sie sehen, wie die exponentiell geglattete Prognose die meiste Zersiedelung (das Springen um) von der wochentlichen Nachfrage entfernt, aber dennoch gelingt, dem zu folgen, was ein Aufwartstrend bei der Nachfrage zu sein scheint. Youll auch bemerken, dass die geglattete Vorhersagelinie tendenziell niedriger als die Nachfrage Linie ist. Dies wird als Trendverzogerung bezeichnet und ist ein Nebeneffekt des Glattprozesses. Jedes Mal, wenn Sie Glattung verwenden, wenn ein Trend vorliegt, wird Ihre Prognose hinter dem Trend zuruckbleiben. Dies gilt fur jede Glattungstechnik. In der Tat, wenn wir diese Tabellenkalkulation fortsetzen und beginnen Eingabe niedrigeren Nachfrage-Nummern (einen Abwartstrend) wurden Sie sehen, die Nachfrage Linie fallen, und die Trendlinie uber sie vor dem Beginn der Abwartstrend folgen. Thats, warum ich zuvor erwahnt, die Ausgabe aus der exponentiellen Glattung Berechnung, die wir eine Prognose nennen, braucht noch etwas mehr Arbeit. Es gibt viel mehr zu Prognosen als nur Glattung der Beulen in der Nachfrage. Wir mussen zusatzliche Anpassungen fur Dinge wie Trend lag, Saisonalitat, bekannte Ereignisse, die die Nachfrage beeinflussen konnen, etc. Aber alle, die uber den Rahmen dieses Artikels. Sie werden wahrscheinlich auch in Begriffe wie double-exponentielle Glattung und Triple-exponentielle Glattung. Diese Begriffe sind ein wenig irrefuhrend, da Sie nicht re-Glattung der Nachfrage mehrfach (Sie konnten, wenn Sie wollen, aber das ist nicht der Punkt hier). Diese Begriffe reprasentieren die Verwendung einer exponentiellen Glattung fur zusatzliche Elemente der Prognose. Also mit einfacher exponentieller Glattung glatten Sie die Grundanforderung, aber mit doppelt-exponentieller Glattung glatten Sie die Grundanforderung plus den Trend und mit dreifach-exponentieller Glattung glatten Sie die Grundanforderung plus Trend und Saisonalitat. Die andere am haufigsten gestellte Frage uber exponentielle Glattung ist, wo bekomme ich meinen Glattungsfaktor Es gibt keine magische Antwort hier, mussen Sie verschiedene Glattungsfaktoren mit Ihren Nachfrage Daten testen, um zu sehen, was Ihnen die besten Ergebnisse zu testen. Es gibt Berechnungen, die den Glattungsfaktor automatisch einstellen (und andern) konnen. Diese fallen unter den Begriff adaptive Glattung, aber Sie mussen vorsichtig mit ihnen sein. Es gibt einfach keine perfekte Antwort und Sie sollten nicht blind implementieren keine Berechnung ohne grundliche Prufung und Entwicklung eines grundlichen Verstandnis dessen, was die Berechnung tut. Sie sollten auch What-If-Szenarien ausfuhren, um zu sehen, wie diese Berechnungen auf Bedarfsanderungen reagieren, die moglicherweise nicht in den Bedarfsdaten vorhanden sind, die Sie fur Tests verwenden. Das Datenbeispiel, das ich vorher verwendet habe, ist ein sehr gutes Beispiel fur eine Situation, in der Sie wirklich einige andere Szenarien testen mussen. Dieses besondere Datenbeispiel zeigt einen etwas konsequenten Aufwartstrend. Viele gro?e Unternehmen mit sehr teuren Prognose-Software bekam in gro?en Schwierigkeiten in der nicht so fernen Vergangenheit, wenn ihre Software-Einstellungen, die fur eine wachsende Wirtschaft gezwickt wurden nicht gut reagiert, wenn die Wirtschaft begann stagnieren oder schrumpfen. Dinge wie dieses passieren, wenn Sie nicht verstehen, was Ihre Berechnungen (Software) tatsachlich tun. Wenn sie ihr Prognosesystem verstanden, hatten sie gewu?t, da? sie notig waren, um zu springen und etwas zu andern, als plotzliche dramatische Veranderungen an ihrem Geschaft auftraten. So dort haben Sie es die Grundlagen der exponentiellen Glattung erklart. Wollen Sie mehr uber die Verwendung exponentieller Glattung in einer aktuellen Prognose wissen, lesen Sie in meinem Buch Inventory Management Explained. Kopie des Urheberrechts. Inhalt auf InventoryOps ist urheberrechtlich geschutzt und steht nicht fur die Wiederveroffentlichung zur Verfugung. Dave Piasecki. Ist Eigentumer / Betreiber von Inventory Operations Consulting LLC. Ein Beratungsunternehmen, das Dienstleistungen im Zusammenhang mit Bestandsfuhrung, Materialhandling und Lagerbetrieb anbietet. Er hat uber 25 Jahre Erfahrung in der Betriebsfuhrung und kann uber seine Website (www. inventoryops) erreicht werden, wo er zusatzliche relevante Informationen unterhalt. My BusinessForecasting von Smoothing Techniques Diese Seite ist ein Teil der JavaScript E-Labs Lernobjekte fur die Entscheidungsfindung. Andere JavaScript in dieser Serie sind unter verschiedenen Bereichen von Anwendungen im Abschnitt MENU auf dieser Seite kategorisiert. Eine Zeitreihe ist eine Folge von Beobachtungen, die zeitlich geordnet sind. Inharent in der Sammlung von Daten uber die Zeit genommen, ist eine Form der zufalligen Variation. Es gibt Methoden zur Verringerung der Annullierung der Wirkung aufgrund zufalliger Variation. Weit verbreitete Techniken sind Glattung. Diese Techniken, wenn richtig angewandt, zeigt deutlicher die zugrunde liegenden Trends. Geben Sie die Zeitreihe Row-weise in der Reihenfolge beginnend mit der linken oberen Ecke und den Parametern ein, und klicken Sie dann auf die Schaltflache Berechnen, um eine Prognose fur eine Periode zu erhalten. Blank Boxen sind nicht in den Berechnungen, sondern Nullen enthalten. Wenn Sie Ihre Daten eingeben, um von Zelle zu Zelle in der Daten-Matrix zu bewegen, verwenden Sie die Tabulatortaste nicht Pfeil oder geben Sie die Tasten ein. Merkmale der Zeitreihen, die durch die Untersuchung seines Graphen aufgezeigt werden konnten. Mit den prognostizierten Werten und dem Residualverhalten, Condition Prognose Modellierung. Moving Averages: Gleitende Durchschnitte zahlen zu den beliebtesten Techniken fur die Vorverarbeitung von Zeitreihen. Sie werden verwendet, um zufalliges wei?es Rauschen aus den Daten zu filtern, um die Zeitreihe glatter zu machen oder sogar bestimmte in der Zeitreihe enthaltene Informationskomponenten zu betonen. Exponentialglattung: Dies ist ein sehr populares Schema, um eine geglattete Zeitreihe zu erzeugen. Wahrend in den gleitenden Durchschnitten die bisherigen Beobachtungen gleich gewichtet werden, erhalt die exponentielle Glattung exponentiell abnehmende Gewichte, wenn die Beobachtung alter wird. Mit anderen Worten, die jungsten Beobachtungen sind relativ mehr Gewicht in der Prognose gegeben als die alteren Beobachtungen. Double Exponential Smoothing ist besser im Umgang mit Trends. Triple Exponential Smoothing ist besser im Umgang mit Parabeltrends. Ein exponentiell gewichteter gleitender Durchschnitt mit einer Glattungskonstanten a. Entspricht in etwa einem einfachen gleitenden Durchschnitt der Lange (d. h. Periode) n, wobei a und n durch a 2 / (n1) OR n (2 - a) / a verknupft sind. So wurde beispielsweise ein exponentiell gewichteter gleitender Durchschnitt mit einer Glattungskonstante gleich 0,1 etwa einem 19 Tage gleitenden Durchschnitt entsprechen. Und ein 40 Tage einfacher gleitender Durchschnitt wurde etwa einem exponentiell gewichteten gleitenden Durchschnitt mit einer Glattungskonstanten gleich 0,04878 entsprechen. Holts Lineare Exponentialglattung: Angenommen, die Zeitreihe ist nicht saisonal, sondern zeigt Trend. Holts-Methode schatzt sowohl das aktuelle Niveau als auch den aktuellen Trend. Beachten Sie, dass der einfache gleitende Durchschnitt ein Spezialfall der exponentiellen Glattung ist, indem die Periode des gleitenden Mittelwertes auf den ganzzahligen Teil von (2-Alpha) / Alpha gesetzt wird. Fur die meisten Geschaftsdaten ist ein Alpha-Parameter kleiner als 0,40 oft effektiv. Man kann jedoch eine Gittersuche des Parameterraums mit 0,1 bis 0,9 mit Inkrementen von 0,1 durchfuhren. Dann hat das beste Alpha den kleinsten mittleren Absolutfehler (MA Error). Wie man mehrere Glattungsmethoden miteinander vergleicht: Obwohl es numerische Indikatoren fur die Beurteilung der Genauigkeit der Prognosetechnik gibt, besteht der am weitesten verbreitete Ansatz darin, einen visuellen Vergleich mehrerer Prognosen zu verwenden, um deren Genauigkeit zu bewerten und unter den verschiedenen Prognosemethoden zu wahlen. Bei diesem Ansatz muss man auf demselben Graphen die ursprunglichen Werte einer Zeitreihenvariablen und die vorhergesagten Werte aus verschiedenen Prognoseverfahren aufzeichnen und damit einen visuellen Vergleich erleichtern. Sie konnen die Vergangenheitsvorhersage von Smoothing Techniques JavaScript verwenden, um die letzten Prognosewerte basierend auf Glattungstechniken zu erhalten, die nur einen einzigen Parameter verwenden. Holt - und Winters-Methoden zwei bzw. drei Parameter, daher ist es keine leichte Aufgabe, die optimalen oder sogar nahezu optimalen Werte durch Versuch und Fehler fur die Parameter auszuwahlen. Die einzelne exponentielle Glattung betont die kurzreichweite Perspektive, die sie den Pegel auf die letzte Beobachtung setzt und basiert auf der Bedingung, dass es keinen Trend gibt. Die lineare Regression, die auf eine Linie der kleinsten Quadrate zu den historischen Daten (oder transformierten historischen Daten) passt, reprasentiert die lange Reichweite, die auf dem Grundtrend konditioniert ist. Holts lineare exponentielle Glattung erfasst Informationen uber die jungsten Trend. Die Parameter im Holts-Modell sind Ebenenparameter, die verringert werden sollten, wenn die Menge der Datenvariation gro? ist, und der Trends-Parameter sollte erhoht werden, wenn die aktuelle Trendrichtung durch das Kausale beeinflusst wird. Kurzfristige Prognose: Beachten Sie, dass jeder JavaScript auf dieser Seite eine einstufige Prognose zur Verfugung stellt. Um eine zweistufige Prognose zu erhalten. Fugen Sie einfach den prognostizierten Wert an das Ende der Zeitreihendaten und klicken Sie dann auf die Schaltflache Berechnen. Sie konnen diesen Vorgang fur ein paar Mal wiederholen, um die benotigten kurzfristigen Prognosen zu erhalten. Moving durchschnittliche und exponentielle Glattungsmodelle Als ein erster Schritt in uber jenseits der mittleren Modelle, zufallige gehen Modelle und lineare Trend-Modelle, nicht saisonale Muster und Trends bewegen konnen Unter Verwendung eines gleitenden Durchschnitts - oder Glattungsmodells extrapoliert werden. Die grundlegende Annahme hinter Mittelwertbildung und Glattungsmodellen ist, dass die Zeitreihe lokal stationar mit einem sich langsam verandernden Mittelwert ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschatzen und dann als die Prognose fur die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-ohne-Drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschatzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als "quotsmoothedquot" - Version der ursprunglichen Serie bezeichnet, da die kurzzeitige Mittelung die Wirkung hat, die Sto?e in der ursprunglichen Reihe zu glatten. Durch Anpassen des Glattungsgrades (die Breite des gleitenden Durchschnitts) konnen wir hoffen, eine Art von optimaler Balance zwischen der Leistung des Mittelwerts und der zufalligen Wandermodelle zu erreichen. Die einfachste Art der Mittelung Modell ist die. Einfache (gleichgewichtige) Moving Average: Die Prognose fur den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Mittelwert der letzten m Beobachtungen: (Hier und anderswo werde ich das Symbol 8220Y-hat8221 stehen lassen Fur eine Prognose der Zeitreihe Y, die am fruhestmoglichen fruheren Zeitpunkt durch ein gegebenes Modell durchgefuhrt wird.) Dieser Mittelwert wird in der Periode t (m1) / 2 zentriert, was bedeutet, da? die Schatzung des lokalen Mittels dazu neigt, hinter dem Wert zu liegen Wahren Wert des lokalen Mittels um etwa (m1) / 2 Perioden. Das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt ist also (m1) / 2 relativ zu der Periode, fur die die Prognose berechnet wird: dies ist die Zeitspanne, in der die Prognosen dazu tendieren, hinter den Wendepunkten in der Region zu liegen Daten. Wenn Sie z. B. die letzten 5 Werte mitteln, werden die Prognosen etwa 3 Perioden spat sein, wenn sie auf Wendepunkte reagieren. Beachten Sie, dass, wenn m1, die einfache gleitende Durchschnitt (SMA) - Modell ist gleichbedeutend mit der random walk-Modell (ohne Wachstum). Wenn m sehr gro? ist (vergleichbar der Lange des Schatzzeitraums), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es ublich, den Wert von k anzupassen, um den besten Quotienten der Daten zu erhalten, d. H. Die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel einer Reihe, die zufallige Fluktuationen um ein sich langsam veranderndes Mittel zu zeigen scheint. Erstens konnen wir versuchen, es mit einem zufalligen Fu?modell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff entspricht: Das zufallige Wandermodell reagiert sehr schnell auf Anderungen in der Serie, aber dabei nimmt er viel von der quotnoisequot in der Daten (die zufalligen Fluktuationen) sowie das Quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen anwenden, erhalten wir einen glatteren Satz von Prognosen: Der 5-Term-einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufallige Wegmodell. Das durchschnittliche Alter der Daten in dieser Prognose betragt 3 ((51) / 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zu liegen. (Zum Beispiel scheint ein Abschwung in Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich erst nach mehreren Perioden spater.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie beim zufalligen Weg Modell. Somit geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Wahrend jedoch die Prognosen aus dem Zufallswegmodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Mittelwert der neueren Werte. Die von Statgraphics berechneten Konfidenzgrenzen fur die Langzeitprognosen des einfachen gleitenden Durchschnitts werden nicht breiter, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht richtig Leider gibt es keine zugrunde liegende statistische Theorie, die uns sagt, wie sich die Vertrauensintervalle fur dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schatzungen der Konfidenzgrenzen fur die langerfristigen Prognosen zu berechnen. Beispielsweise konnen Sie eine Tabellenkalkulation einrichten, in der das SMA-Modell fur die Vorhersage von 2 Schritten im Voraus, 3 Schritten voraus usw. innerhalb der historischen Datenprobe verwendet wird. Sie konnten dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle fur langerfristige Prognosen durch Addieren und Subtrahieren von Vielfachen der geeigneten Standardabweichung konstruieren. Wenn wir einen 9-term einfachen gleitenden Durchschnitt ausprobieren, erhalten wir sogar noch bessere Prognosen und mehr eine nacheilende Wirkung: Das Durchschnittsalter betragt jetzt 5 Perioden ((91) / 2). Wenn wir einen 19-term gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10 an: Beachten Sie, dass die Prognosen tatsachlich hinter den Wendepunkten um etwa 10 Perioden zuruckbleiben. Welches Ma? an Glattung ist am besten fur diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, darunter auch einen 3-Term-Durchschnitt: Modell C, der 5-Term-Gleitender Durchschnitt, ergibt den niedrigsten Wert von RMSE mit einer kleinen Marge uber die 3 - term und 9-Term-Mittelwerte, und ihre anderen Statistiken sind fast identisch. So konnen wir bei Modellen mit sehr ahnlichen Fehlerstatistiken wahlen, ob wir ein wenig mehr Reaktionsfahigkeit oder ein wenig mehr Glatte in den Prognosen bevorzugen wurden. (Ruckkehr nach oben.) Browns Einfache Exponentialglattung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwunschte Eigenschaft, da? es die letzten k-Beobachtungen gleich und vollstandig ignoriert. Intuitiv sollten vergangene Daten in einer allmahlicheren Weise diskontiert werden - zum Beispiel sollte die jungste Beobachtung ein wenig mehr Gewicht als die zweitletzte erhalten, und die 2. jungsten sollten ein wenig mehr Gewicht als die 3. jungsten erhalten, und bald. Das einfache exponentielle Glattungsmodell (SES) erfullt dies. Es sei 945 eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Moglichkeit, das Modell zu schreiben, besteht darin, eine Reihe L zu definieren, die den gegenwartigen Pegel (d. H. Den lokalen Mittelwert) der Serie, wie er aus Daten bis zu der Zeit geschatzt wird, darstellt. Der Wert von L zur Zeit t wird rekursiv von seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglattete Wert eine Interpolation zwischen dem vorher geglatteten Wert und der aktuellen Beobachtung, wobei 945 die Nahe des interpolierten Wertes auf die neueste steuert Uberwachung. Die Prognose fur die nachste Periode ist einfach der aktuelle geglattete Wert: Aquivalent konnen wir die nachste Prognose direkt in Form fruherer Prognosen und fruherer Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrucken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nachste Prognose durch Anpassung der bisherigen Prognose in Richtung des bisherigen Fehlers um einen Bruchteil 945 erhalten Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Abzinsungsfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu verwenden, wenn Sie das Modell in einer Tabellenkalkulation implementieren Einzelne Zelle und enthalt Zellverweise, die auf die vorhergehende Prognose, die vorherige Beobachtung und die Zelle mit dem Wert von 945 zeigen. Beachten Sie, dass, wenn 945 1, das SES-Modell zu einem zufalligen Weg-Modell (ohne Wachstum) aquivalent ist. Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, wobei angenommen wird, dass der erste geglattete Wert gleich dem Mittelwert gesetzt ist. (Zuruck zum Seitenanfang) Das Durchschnittsalter der Daten in der Simple-Exponential-Glattungsprognose betragt 1/945 relativ zu dem Zeitraum, fur den die Prognose berechnet wird. (Dies sollte nicht offensichtlich sein, kann aber leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher zu Verzogerungen hinter den Wendepunkten um etwa 1/945 Perioden. Wenn beispielsweise 945 0,5 die Verzogerung 2 Perioden betragt, wenn 945 0,2 die Verzogerung 5 Perioden betragt, wenn 945 0,1 die Verzogerung 10 Perioden und so weiter ist. Fur ein gegebenes Durchschnittsalter (d. H. Eine Verzogerung) ist die einfache exponentielle Glattungsprognose (SES) der simplen gleitenden Durchschnittsprognose (SMA) etwas uberlegen, weil sie relativ viel mehr Gewicht auf die jungste Beobachtung - i. e stellt. Es ist etwas mehr quresponsivequot zu Anderungen, die sich in der jungsten Vergangenheit. Zum Beispiel haben ein SMA - Modell mit 9 Terminen und ein SES - Modell mit 945 0,2 beide ein durchschnittliches Alter von 5 Jahren fur die Daten in ihren Prognosen, aber das SES - Modell legt mehr Gewicht auf die letzten 3 Werte als das SMA - Modell und am Gleiches gilt fur die Werte von mehr als 9 Perioden, wie in dieser Tabelle gezeigt: 822forget8221. Ein weiterer wichtiger Vorteil des SES-Modells gegenuber dem SMA-Modell ist, dass das SES-Modell einen Glattungsparameter verwendet, der kontinuierlich variabel ist und somit leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell fur diese Serie ergibt sich wie folgt: Das Durchschnittsalter der Daten in dieser Prognose betragt 1 / 0,2961 3,4 Perioden, was ahnlich wie bei einem 6-Term-Simple Moving ist durchschnittlich. Die Langzeitprognosen aus dem SES-Modell sind eine horizontale Gerade. Wie im SMA-Modell und dem Random-Walk-Modell ohne Wachstum. Es ist jedoch anzumerken, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernunftigen Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle fur das Zufallswegmodell. Das SES-Modell geht davon aus, dass die Serie etwas vorhersehbarer ist als das Zufallswandermodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So dass die statistische Theorie der ARIMA-Modelle eine solide Grundlage fur die Berechnung der Konfidenzintervalle fur das SES-Modell bildet. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht sonderbaren Differenz, einem MA (1) - Term und kein konstanter Term. Ansonsten als quotARIMA (0,1,1) - Modell ohne Konstantquot bekannt. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Gro?e 1 - 945 im SES-Modell. Wenn Sie zum Beispiel ein ARIMA-Modell (0,1,1) ohne Konstante an die hier analysierte Serie anpassen, ergibt sich der geschatzte MA (1) - Koeffizient auf 0,7029, was fast genau ein Minus von 0,2961 ist. Es ist moglich, die Annahme eines von Null verschiedenen konstanten linearen Trends zu einem SES-Modell hinzuzufugen. Dazu wird nur ein ARIMA-Modell mit einer Nicht-Seasonal-Differenz und einem MA (1) - Term mit einer Konstanten, d. h. einem ARIMA-Modell (0,1,1) mit konstantem Wert angegeben. Die langfristigen Prognosen haben dann einen Trend, der dem durchschnittlichen Trend uber den gesamten Schatzungszeitraum entspricht. Sie konnen dies nicht in Verbindung mit saisonalen Anpassungen tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA gesetzt ist. Sie konnen jedoch einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glattungsmodell (mit oder ohne saisonale Anpassung) hinzufugen, indem Sie die Inflationsanpassungsoption im Prognoseverfahren verwenden. Die prozentuale Zinssatzquote (prozentuale Wachstumsrate) pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell geschatzt werden, das an die Daten in Verbindung mit einer naturlichen Logarithmuswandlung angepasst ist, oder es kann auf anderen unabhangigen Informationen bezuglich der langfristigen Wachstumsperspektiven beruhen . (Ruckkehr nach oben.) Browns Linear (dh doppelt) Exponentielle Glattung Die SMA-Modelle und SES-Modelle gehen davon aus, dass es in den Daten keinen Trend gibt (was in der Regel in Ordnung ist oder zumindest nicht zu schlecht fur 1- Wenn die Daten relativ verrauscht sind), und sie konnen modifiziert werden, um einen konstanten linearen Trend, wie oben gezeigt, zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen das Rauschen auszeichnet, und wenn es notwendig ist, mehr als eine Periode vorher zu prognostizieren, konnte die Schatzung eines lokalen Trends auch sein Ein Problem. Das einfache exponentielle Glattungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glattungsmodell (LES) zu erhalten, das lokale Schatzungen sowohl des Niveaus als auch des Trends berechnet. Das einfachste zeitvariable Trendmodell ist Browns lineares exponentielles Glattungsmodell, das zwei verschiedene geglattete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine weiterentwickelte Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des Brown8217s linearen exponentiellen Glattungsmodells, wie die des einfachen exponentiellen Glattungsmodells, kann in einer Anzahl von unterschiedlichen, aber aquivalenten Formen ausgedruckt werden. Die quadratische quadratische Form dieses Modells wird gewohnlich wie folgt ausgedruckt: Sei S die einfach geglattete Reihe, die durch Anwendung einfacher exponentieller Glattung auf Reihe Y erhalten wird. Das hei?t, der Wert von S in der Periode t ist gegeben durch: (Erinnern wir uns, Exponentielle Glattung, so wurde dies die Prognose fur Y in der Periode t1 sein.) Dann sei Squot die doppelt geglattete Folge, die man erhalt, indem man eine einfache exponentielle Glattung (unter Verwendung desselben 945) auf die Reihe S anwendet: Schlie?lich die Prognose fur Ytk. Fur jedes kgt1 ist gegeben durch: Dies ergibt e & sub1; & sub0; (d. h. Cheat ein Bit und die erste Prognose der tatsachlichen ersten Beobachtung gleich) und e & sub2; Y & sub2; 8211 Y & sub1; Nach denen die Prognosen unter Verwendung der obigen Gleichung erzeugt werden. Dies ergibt die gleichen Anpassungswerte wie die Formel auf der Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nachsten Seite verwendet, die eine Kombination von exponentieller Glattung mit saisonaler Anpassung veranschaulicht. Holt8217s Lineares Exponentialglattung Brown8217s LES-Modell berechnet lokale Schatzungen von Pegel und Trend durch Glatten der letzten Daten, aber die Tatsache, dass dies mit einem einzigen Glattungsparameter erfolgt, legt eine Einschrankung fur die Datenmuster fest, die es anpassen kann: den Pegel und den Trend Durfen nicht zu unabhangigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem durch zwei Glattungskonstanten, eine fur die Ebene und eine fur den Trend. Zu jedem Zeitpunkt t, wie in Brown8217s-Modell, gibt es eine Schatzung L t der lokalen Ebene und eine Schatzung T t der lokalen Trend. Hier werden sie rekursiv aus dem zum Zeitpunkt t beobachteten Wert von Y und den vorherigen Schatzungen von Pegel und Trend durch zwei Gleichungen berechnet, die exponentielle Glattung separat anwenden. Wenn der geschatzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose fur Y tshy, die zum Zeitpunkt t-1 gemacht worden ware, gleich L t-1 T t-1. Wenn der tatsachliche Wert beobachtet wird, wird die aktualisierte Schatzung des Pegels rekursiv berechnet, indem zwischen Y tshy und seiner Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1- 945 interpoliert wird. Die Anderung des geschatzten Pegels, Namlich L t 8209 L t82091. Kann als eine verrauschte Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schatzung des Trends wird dann rekursiv berechnet, indem zwischen L t 8209 L t82091 und der vorherigen Schatzung des Trends T t-1 interpoliert wird. Unter Verwendung der Gewichte von 946 und 1-946: Die Interpretation der Trendglattungskonstanten 946 ist analog zu der Pegelglattungskonstante 945. Modelle mit kleinen Werten von 946 nehmen an, dass sich der Trend mit der Zeit nur sehr langsam andert, wahrend Modelle mit Gro?ere 946 nehmen an, dass sie sich schneller andert. Ein Modell mit einem gro?en 946 glaubt, dass die ferne Zukunft sehr unsicher ist, da Fehler in der Trendschatzung bei der Prognose von mehr als einer Periode ganz wichtig werden. (Ruckkehr nach oben) Die Glattungskonstanten 945 und 946 konnen auf ubliche Weise geschatzt werden, indem der mittlere quadratische Fehler der 1-Schritt-Voraus-Prognosen minimiert wird. Wenn dies in Statgraphics getan wird, erweisen sich die Schatzungen als 945 0.3048 und 946 0,008. Der sehr geringe Wert von 946 bedeutet, dass das Modell eine sehr geringe Veranderung im Trend von einer Periode zur nachsten annimmt, so dass dieses Modell im Grunde versucht, einen langfristigen Trend abzuschatzen. In Analogie zum Durchschnittsalter der Daten, die fur die Schatzung der lokalen Ebene der Serie verwendet werden, ist das Durchschnittsalter der Daten, die bei der Schatzung des lokalen Trends verwendet werden, proportional zu 1/946, wenn auch nicht exakt gleich es. In diesem Fall ergibt sich 1 / 0,006 125. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schatzung von 946 nicht wirklich 3 Dezimalstellen betragt, sondern sie ist von der gleichen Gro?enordnung wie die Stichprobengro?e von 100 , So dass dieses Modell ist im Durchschnitt uber eine ganze Menge Geschichte bei der Schatzung der Trend. Das Prognose-Diagramm unten zeigt, dass das LES-Modell einen etwas gro?eren lokalen Trend am Ende der Serie schatzt als der im SEStrend-Modell geschatzte konstante Trend. Au?erdem ist der Schatzwert von 945 fast identisch mit dem, der durch Anpassen des SES-Modells mit oder ohne Trend erhalten wird, so dass dies fast das gleiche Modell ist. Nun, sehen diese aussehen wie vernunftige Prognosen fur ein Modell, das soll Schatzung einer lokalen Tendenz Wenn Sie 8220eyeball8221 dieser Handlung, sieht es so aus, als ob der lokale Trend nach unten am Ende der Serie gedreht hat Was ist passiert Die Parameter dieses Modells Wurden durch Minimierung des quadratischen Fehlers von 1-Schritt-Voraus-Prognosen, nicht langerfristigen Prognosen, abgeschatzt, wobei der Trend keinen gro?en Unterschied macht. Wenn alles, was Sie suchen, 1-Schritt-vor-Fehler sind, sehen Sie nicht das gro?ere Bild der Trends uber (sagen) 10 oder 20 Perioden. Um dieses Modell im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, konnen wir die Trendglattungskonstante manuell anpassen, so dass sie eine kurzere Basislinie fur die Trendschatzung verwendet. Wenn wir beispielsweise 946 0,1 setzen, betragt das durchschnittliche Alter der Daten, die bei der Schatzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend uber die letzten 20 Perioden oder so mitteln. Here8217s, was das Prognose-Plot aussieht, wenn wir 946 0,1 setzen, wahrend 945 0,3 halten. Dies scheint intuitiv vernunftig fur diese Serie, obwohl es wahrscheinlich gefahrlich, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich fur die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 fur das SES-Modell betragt etwa 0,3, aber ahnliche Ergebnisse (mit etwas mehr oder weniger Reaktionsfahigkeit) werden mit 0,5 und 0,2 erhalten. (A) Holts linearer Exp. Glattung mit alpha 0.3048 und beta 0,008 (B) Holts linear exp. Glattung mit alpha 0,3 (E) Einfache exponentielle Glattung mit alpha 0,3 (E) Einfache exponentielle Glattung mit alpha 0,2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl auf der Basis machen konnen Von 1-Schritt-Vorhersagefehlern innerhalb der Datenprobe. Wir mussen auf andere Uberlegungen zuruckgreifen. Wenn wir glauben, dass es sinnvoll ist, die aktuelle Trendschatzung auf das, was in den letzten 20 Perioden passiert ist, zugrunde zu legen, konnen wir fur das LES-Modell mit 945 0,3 und 946 0,1 einen Fall machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann konnte eines der SES-Modelle leichter zu erklaren sein, und wurde auch fur die nachsten 5 oder 10 Perioden mehr Mittelprognosen geben. (Ruckkehr nach oben.) Welche Art von Trend-Extrapolation am besten ist: horizontal oder linear Empirische Evidenz deutet darauf hin, dass es, wenn die Daten bereits fur die Inflation angepasst wurden (wenn notig), unpratent ist, kurzfristige lineare Werte zu extrapolieren Trends sehr weit in die Zukunft. Die heutigen Trends konnen sich in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstarkte Konkurrenz und konjunkturelle Abschwunge oder Aufschwunge in einer Branche abschwachen. Aus diesem Grund fuhrt eine einfache exponentielle Glattung oft zu einer besseren Out-of-Probe, als ansonsten erwartet werden konnte, trotz ihrer quotnaivequot horizontalen Trend-Extrapolation. Damped Trendmodifikationen des linearen exponentiellen Glattungsmodells werden in der Praxis haufig auch eingesetzt, um in seinen Trendprojektionen eine Note des Konservatismus einzufuhren. Das Dampfungs-Trend-LES-Modell kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA-Modells (1,1,2), implementiert werden. Es ist moglich, Konfidenzintervalle um langfristige Prognosen zu berechnen, die durch exponentielle Glattungsmodelle erzeugt werden, indem man sie als Spezialfalle von ARIMA-Modellen betrachtet. (Achtung: Nicht alle Software berechnet die Konfidenzintervalle fur diese Modelle korrekt.) Die Breite der Konfidenzintervalle hangt ab von (i) dem RMS-Fehler des Modells, (ii) der Art der Glattung (einfach oder linear) (iii) dem Wert (S) der Glattungskonstante (n) und (iv) die Anzahl der Perioden vor der Prognose. Im Allgemeinen breiten sich die Intervalle schneller aus, da 945 im SES-Modell gro?er wird und sich viel schneller ausbreiten, wenn lineare statt einfache Glattung verwendet wird. Dieses Thema wird im Abschnitt "ARIMA-Modelle" weiter erlautert. (Zuruck zum Seitenanfang.) Exploration des exponentiell gewichteten gleitenden Durchschnitts Volatilitat ist die haufigste Ma?nahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem fruheren Artikel haben wir gezeigt, wie man einfache historische Volatilitat berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilitat, um zukunftiges Risiko zu messen.) Wir verwendeten Googles tatsachliche Aktienkursdaten, um die tagliche Volatilitat basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilitat zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansatze: historische und implizite (oder implizite) Volatilitat. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es pradiktive ist. Die implizite Volatilitat dagegen ignoriert die Geschichte, die sie fur die Volatilitat der Marktpreise lost. Es hofft, dass der Markt am besten wei? und dass der Marktpreis, auch wenn implizit, eine Konsensschatzung der Volatilitat enthalt. (Fur verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilitat.) Wenn wir uns auf die drei historischen Ansatze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von taglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrucken ausgedruckt wird. Fur jeden Tag nehmen wir das naturliche Protokoll des Verhaltnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von taglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansatze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zuruck. Setzen Sie einen anderen Weg, jede quadratische Ruckkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor (speziell eine 1 / m) ist, dann sieht eine einfache Varianz so aus: Die EWMA verbessert die einfache Varianz Die Schwache dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Yesterdays (sehr jungste) Ruckkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zuruck. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein gro?eres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) fuhrt Lambda ein. Die als Glattungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nachste quadrierte Ruckkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht entspricht (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein mu?) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt fur die Googles-Volatilitat.) Der Unterschied zwischen einfacher Volatilitat und EWMA fur Google wird unten angezeigt. Einfache Volatilitat wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre tagliche Aktienkursdaten, das sind 509 tagliche Renditen und 1/509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilitat wollen, mussen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der taglichen Volatilitat zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tagliche Volatilitat von 2,4, aber die EWMA gab eine tagliche Volatilitat von nur 1,4 (Details siehe Tabelle). Offenbar lie? sich die Googles-Volatilitat in jungster Zeit nieder, daher konnte eine einfache Varianz kunstlich hoch sein. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benotigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchfuhren, aber eine der besten Eigenschaften der EWMA ist, da? die gesamte Reihe zweckma?igerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, da? heutige Varianzreferenzen (d. h. eine Funktion der fruheren Tagesvarianz) ist. Sie konnen diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es hei?t: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Ruckkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufugen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zuruck. Dennoch ist Lambda unser Glattungsparameter. Ein hoheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen hoheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren konnen). Zusammenfassung Volatilitat ist die momentane Standardabweichung einer Aktie und die haufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir konnen Varianz historisch oder implizit messen (implizite Volatilitat). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwache mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdunnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise konnen wir beide eine gro?e Stichprobengro?e, sondern auch mehr Gewicht auf neuere Renditen. (Um eine Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Eine Person, die Derivate, Rohstoffe, Anleihen, Aktien oder Wahrungen mit einem uberdurchschnittlichen Risiko als Gegenleistung handelt. "HINTquot ist ein Akronym, das fur fur quothigh Einkommen keine Steuern steht. Es wird auf Hochverdiener angewendet, die vermeiden, Bundeseinkommen zu zahlen. Ein Market Maker, dass kauft und verkauft extrem kurzfristige Unternehmensanleihen genannt Commercial Paper. Ein Papierhandler ist in der Regel. Eine Bestellung mit einem Brokerage zu kaufen oder zu verkaufen eine bestimmte Anzahl von Aktien zu einem bestimmten Preis oder besser platziert. Der uneingeschrankte Kauf und Verkauf von Waren und Dienstleistungen zwischen den Landern ohne Einschrankungen wie. In der Welt des Geschafts ist ein Unicorn ein Unternehmen, in der Regel ein Start-up, die nicht uber eine etablierte Performance-Rekord. Gegeben einer Zeitreihe xi, mochte ich einen gewichteten gleitenden Durchschnitt mit einem Mittelwert-Fenster von N Punkten zu berechnen, wo die Gewichtungen begunstigen neuere Werte gegenuber alteren Werten. Bei der Wahl der Gewichte verwende ich die bekannte Tatsache, da? eine geometrische Reihe gegen 1 konvergiert, d. H. Sum (frac) k, sofern unendlich viele Begriffe genommen werden. Um eine diskrete Zahl von Gewichtungen zu erhalten, die zu einer Einheit summieren, nehme ich einfach die ersten N-Terme der geometrischen Reihe (frac) k und normalisiere dann ihre Summe. Bei N4 ergeben sich zum Beispiel die nicht normierten Gewichte, die nach Normalisierung durch ihre Summe ergibt. Der gleitende Mittelwert ist dann einfach die Summe aus dem Produkt der letzten 4 Werte gegen diese normierten Gewichte. Diese Methode verallgemeinert sich in der offensichtlichen Weise zu bewegten Fenstern der Lange N und scheint auch rechnerisch einfach. Gibt es einen Grund, diese einfache Methode nicht zu verwenden, um einen gewichteten gleitenden Durchschnitt mit exponentiellen Gewichten zu berechnen, frage ich, weil der Wikipedia-Eintrag fur EWMA komplizierter erscheint. Was mich fragt, ob die Lehrbuch-Definition von EWMA hat vielleicht einige statistische Eigenschaften, die die obige einfache Definition nicht oder sind sie in der Tat gleichwertig sind, beginnen Sie mit 1), dass es keine ungewohnlichen Werte Und keine Pegelverschiebungen und keine Zeittrends und keine saisonalen Dummies 2), dass das optimale gewichtete Mittel Gewichte aufweist, die auf eine gleichma?ige Kurve fallen, die durch einen Koeffizienten 3 beschreibbar ist), dass die Fehlerabweichung konstant ist, dass es keine bekannten Ursachenreihen gibt Annahmen. Ndash IrishStat Okt 1 14 am 21:18 Ravi: In dem gegebenen Beispiel ist die Summe der ersten vier Ausdrucke 0,9375 0,06250,1250.250,5. Die ersten vier Ausdrucke haben also 93,8 des Gesamtgewichts (6,2 ist im abgeschnittenen Schwanz). Verwenden Sie diese, um normierte Gewichte zu erhalten, die zu einer Einheit durch Reskalierung (dividieren) um 0,9375 zusammenkommen. Dies ergibt 0,06667, 0,1333, 0,267, 0,5333. Ndash Assad Ebrahim Ich habe festgestellt, dass die Berechnung der exponentiell gewichteten laufenden Durchschnitte mit overline leftarrow overline alpha (x - overline), alphalt1 ist eine einfache einzeilige Methode, die leicht, wenn auch nur annahernd interpretierbar in Bezug auf Eine effektive Anzahl von Proben Nalpha (vergleichen Sie diese Form an die Form fur die Berechnung der laufenden Mittelwert), erfordert nur das aktuelle Datum (und den aktuellen Mittelwert), und ist numerisch stabil. Technisch integriert dieser Ansatz alle Geschichte in den Durchschnitt. Die beiden Hauptvorteile bei der Verwendung des Vollfensters (im Gegensatz zum verkurzten, in der Frage diskutierten) liegen darin, dass es in einigen Fallen die analytische Charakterisierung der Filterung erleichtern kann, und es reduziert die Fluktuationen, die bei sehr gro?en (oder kleinen) Daten induziert werden Wert ist Teil des Datensatzes. Zum Beispiel betrachten das Filter-Ergebnis, wenn die Daten sind alle Null, au?er fur ein Datum, dessen Wert 106. beantwortet Nov 29 12 bei 0:33