Saturday 18 November 2017

Autoregressive Gleitende Mittelreihe


Es gibt eine Reihe von Ansätzen zur Modellierung von Zeitreihen. Wir skizzieren einige der häufigsten Ansätze unten. Trend, saisonal, Restzersetzungen Ein Ansatz ist es, die Zeitreihen in einen Trend-, Saison - und Restbestandteil zu zerlegen. Eine dreifache Exponentialglättung ist ein Beispiel für diesen Ansatz. Ein anderes Beispiel, das saisonale Löß genannt wird, basiert auf lokal gewichteten kleinsten Quadraten und wird von Cleveland (1993) diskutiert. Wir behandeln nicht saisonale Löss in diesem Handbuch. Frequenzbasierte Methoden Ein weiterer Ansatz, der in der wissenschaftlichen und technischen Anwendung häufig verwendet wird, besteht darin, die Serie im Frequenzbereich zu analysieren. Ein Beispiel für diesen Ansatz bei der Modellierung eines sinusförmigen Datensatzes wird in der Strahlablenkungsfallstudie gezeigt. Das Spektraldiagramm ist das Hauptinstrument für die Frequenzanalyse von Zeitreihen. Autoregressive (AR) Modelle Ein allgemeiner Ansatz für die Modellierung univariater Zeitreihen ist das autoregressive (AR) Modell: Xt delta phi1 X phi2 X cdots phip X At, wobei (Xt) die Zeitreihe, (At) weißes Rauschen und delta ist Links (1 - sum p phii rechts) mu. Mit (mu) das Prozeßmittel. Ein autoregressives Modell ist einfach eine lineare Regression des aktuellen Wertes der Serie gegen einen oder mehrere vorherige Werte der Serie. Der Wert von (p) wird als Ordnung des AR-Modells bezeichnet. AR-Modelle können mit einer von verschiedenen Methoden analysiert werden, einschließlich Standard-linearen Methoden der kleinsten Quadrate. Sie haben auch eine einfache Interpretation. Moving Average (MA) Modelle Ein weiteres gemeinsames Konzept für die Modellierung von univariaten Zeitreihenmodellen ist das gleitende Durchschnittsmodell (MA): Xt mu At - theta1 A - theta2 A - cdots - thetaq A, wobei (Xt) die Zeitreihe (mu ) Ist der Mittelwert der Reihe, (A) sind weiße Rauschterme, und (theta1,, ldots,, thetaq) sind die Parameter des Modells. Der Wert von (q) wird als Ordnung des MA-Modells bezeichnet. Das heißt, ein gleitendes Durchschnittsmodell ist konzeptionell eine lineare Regression des aktuellen Wertes der Reihe gegen das weiße Rauschen oder zufällige Schocks eines oder mehrerer früherer Werte der Reihe. Es wird angenommen, daß die zufälligen Schocks an jedem Punkt von der gleichen Verteilung, typischerweise einer Normalverteilung, mit einer Stelle bei Null und einer konstanten Skala kommen. Die Unterscheidung in diesem Modell ist, dass diese zufälligen Schocks propagiert werden, um zukünftige Werte der Zeitreihe. Das Anpassen der MA-Schätzungen ist komplizierter als bei AR-Modellen, da die Fehlerterme nicht beobachtbar sind. Dies bedeutet, dass iterative nicht-lineare Anpassungsverfahren anstelle von linearen kleinsten Quadraten verwendet werden müssen. MA-Modelle haben auch eine weniger offensichtliche Interpretation als AR-Modelle. Manchmal schlagen die ACF und PACF vor, dass ein MA-Modell eine bessere Modellwahl wäre und manchmal beide AR - und MA-Begriffe in demselben Modell verwendet werden sollten (siehe Abschnitt 6.4.4.5). Beachten Sie jedoch, dass die Fehlerterme nach dem Modell unabhängig sein sollten und den Standardannahmen für einen univariaten Prozess folgen. Box und Jenkins einen Ansatz, der den gleitenden Durchschnitt und die autoregressiven Ansätze in dem Buch Time Series Analysis: Forecasting and Control (Box, Jenkins und Reinsel, 1994) kombiniert. Obwohl sowohl autoregressive als auch gleitende Durchschnittsansätze bereits bekannt waren (und ursprünglich von Yule untersucht wurden) bestand der Beitrag von Box und Jenkins darin, eine systematische Methodik zur Identifizierung und Schätzung von Modellen zu entwickeln, die beide Ansätze berücksichtigen könnten. Dies macht Box-Jenkins Modelle eine leistungsfähige Klasse von Modellen. Die nächsten Abschnitte behandeln diese Modelle im Detail. Autoregressive Moving Average ARMA (p, q) Modelle für die Zeitreihenanalyse - Teil 3 Dies ist der dritte und letzte Beitrag in der Mini-Serie auf Autoregressive Moving Average (ARMA) Modelle für die Zeit Reihen-Analyse. Weve eingeführt Autoregressive Modelle und Moving Average Modelle in den beiden vorherigen Artikeln. Jetzt ist es Zeit, sie zu einem anspruchsvolleren Modell zu kombinieren. Letztendlich wird dies zu den ARIMA - und GARCH-Modellen führen, die es uns ermöglichen, die Rendite der Anlagen und die Volatilität der Prognose vorherzusagen. Diese Modelle bilden die Grundlage für Handelssignale und Risikomanagementtechniken. Wenn Sie Teil 1 und Teil 2 gelesen haben, haben Sie gesehen, dass wir dazu neigen, ein Muster für unsere Analyse eines Zeitreihenmodells zu folgen. Ich wiederhole es kurz hier: Grundlagen - Warum interessieren wir uns für dieses bestimmte Modell Definition - Eine mathematische Definition, um Mehrdeutigkeit zu reduzieren. Correlogram - Plotten eines Beispielkorrelogramms, um ein Modellverhalten zu visualisieren. Simulation und Montage - Anpassung des Modells an Simulationen, um sicherzustellen, dass wir das Modell richtig verstanden haben. Echte Finanzdaten - Anwenden des Modells auf reale historische Vermögenspreise. Vorhersage - Prognostieren Sie nachfolgende Werte, um Handelssignale oder Filter aufzubauen. Um diesem Artikel zu folgen, ist es ratsam, einen Blick auf die früheren Artikel zur Zeitreihenanalyse zu werfen. Sie können alle hier gefunden werden. Bayesian Information Criterion Im Teil 1 dieser Artikel-Serie haben wir das Akaike Information Criterion (AIC) als Mittel zur Unterstützung der Wahl zwischen den einzelnen besten Zeitreihenmodellen betrachtet. Ein eng verwandtes Werkzeug ist das Bayesian Information Criterion (BIC). Im Wesentlichen hat es ein ähnliches Verhalten wie die AIC, dass es Modelle mit zu vielen Parametern bestraft. Dies kann zu Überbeanspruchungen führen. Der Unterschied zwischen der BIC und AIC ist, dass die BIC ist strenger mit seiner Bestrafung von zusätzlichen Parametern. Bayesian Information Criterion Wenn wir die Likelihood-Funktion für ein statistisches Modell mit k Parametern und L die Wahrscheinlichkeit maximieren. Dann ist das Bayessche Informationskriterium gegeben durch: wobei n die Anzahl der Datenpunkte in der Zeitreihe ist. Bei der Auswahl geeigneter ARMA (p, q) Modelle werden wir den AIC und den BIC verwenden. Ljung-Box Test In Teil 1 dieser Artikel-Serie Rajan erwähnt in der Disqus kommentiert, dass die Ljung-Box-Test angemessener als die Verwendung der Akaike Information Criterion des Bayesian Information Criterion bei der Entscheidung, ob ein ARMA-Modell war eine gute Passform zu einer Zeit Serie. Der Ljung-Box-Test ist ein klassischer Hypothesentest, der dazu dient, zu testen, ob sich ein Satz von Autokorrelationen eines eingebauten Zeitreihenmodells signifikant von Null unterscheidet. Der Test testet nicht jede einzelne Verzögerung nach Zufälligkeit, sondern testet die Zufälligkeit über eine Gruppe von Verzögerungen. Ljung-Box-Test Wir definieren die Nullhypothese als: Die Zeitreihendaten bei jeder Verzögerung sind i. i.d .. das heißt, die Korrelationen zwischen den Populationsreihenwerten sind Null. Wir definieren die alternative Hypothese als: Die Zeitreihendaten sind nicht i. i.d. Und besitzen serielle Korrelation. Wir berechnen die folgende Teststatistik. Q: Wenn n die Länge der Zeitreihenprobe ist, ist k die Stichprobe Autokorrelation bei der Verzögerung k und h die Anzahl der Verzögerungen unter dem Test. Die Entscheidungsregel, ob die Nullhypothese zurückgewiesen werden soll, besteht darin, zu überprüfen, ob Q gt chi2 für eine chi-quadrierte Verteilung mit h Freiheitsgraden am 100 (1-alpha) - ten Perzentil ist. Während die Details des Tests etwas kompliziert erscheinen können, können wir in der Tat R verwenden, um den Test für uns zu berechnen und das Verfahren etwas zu vereinfachen. Autogressive Moving Average (ARMA) Modelle der Ordnung p, q Nun, da wir über den BIC und den Ljung-Box-Test diskutierten, waren wir bereit, unser erstes gemischtes Modell, nämlich den autoregressiven Moving Average der Ordnung p, q oder ARMA (p, Q). Bisher haben wir autoregressive Prozesse und gleitende Durchschnittsprozesse betrachtet. Das frühere Modell betrachtet sein eigenes Verhalten in der Vergangenheit als Input für das Modell und als solche Versuche, Marktteilnehmer-Effekte, wie Impuls und Mittelwert-Reversion im Aktienhandel zu erfassen. Das letztere Modell wird verwendet, um Schock Informationen zu einer Serie zu charakterisieren, wie eine Überraschung Einkommen Ankündigung oder unerwartete Ereignis (wie die BP Deepwater Horizon Ölpest). Daher versucht ein ARMA-Modell, diese beiden Aspekte bei der Modellierung finanzieller Zeitreihen zu erfassen. Beachten Sie, dass ein ARMA-Modell nicht berücksichtigt Volatilität Clustering, eine wichtige empirische Phänomene von vielen finanziellen Zeitreihen. Es ist kein bedingt heteroszendierendes Modell. Dafür müssen wir auf die ARCH - und GARCH-Modelle warten. Definition Das ARMA-Modell (p, q) ist eine lineare Kombination zweier linearer Modelle und somit selbst noch linear: Autoregressives Moving Average Modell der Ordnung p, q Ein Zeitreihenmodell ist ein autoregressives gleitendes Durchschnittsmodell der Ordnung p, q . ARMA (p, q), wenn: Anfang xt alpha1 x alpha2 x ldots wt beta1 w beta2 w ldots betaq w end Wo ist weißes Rauschen mit E (wt) 0 und Varianz sigma2. Wenn wir den Backward Shift Operator betrachten. (Siehe vorhergehender Artikel) können wir das obige als Funktion theta und phi folgendermaßen umschreiben: Wir können einfach erkennen, dass wir durch die Einstellung von p neq 0 und q0 das AR (p) - Modell erhalten. Wenn wir p 0 und q neq 0 setzen, erhalten wir das MA (q) - Modell. Eines der wichtigsten Merkmale des ARMA-Modells ist, dass es sparsam und redundant in seinen Parametern ist. Das heißt, ein ARMA-Modell erfordert oft weniger Parameter als ein AR (p) - oder MA (q) - Modell alleine. Darüber hinaus, wenn wir die Gleichung in Bezug auf die BSO umschreiben, dann die theta und phi Polynome können manchmal gemeinsam einen gemeinsamen Faktor, so dass ein einfacheres Modell. Simulationen und Correlogramme Wie bei den autoregressiven und gleitenden Durchschnittsmodellen simulieren wir nun verschiedene ARMA-Serien und versuchen dann, ARMA-Modelle an diese Realisierungen anzupassen. Wir führen dies aus, weil wir sicherstellen wollen, dass wir das Anpassungsverfahren verstehen, einschließlich der Berechnung von Konfidenzintervallen für die Modelle sowie sicherzustellen, dass das Verfahren tatsächlich vernünftige Schätzungen für die ursprünglichen ARMA-Parameter wiederherstellt. In Teil 1 und Teil 2 haben wir manuell die AR - und MA-Serie konstruiert, indem wir N Abtastwerte aus einer Normalverteilung ziehen und dann das spezifische Zeitreihenmodell unter Verwendung von Verzögerungen dieser Abtastwerte herstellen. Allerdings gibt es einen einfacheren Weg, um AR-, MA-, ARMA - und sogar ARIMA-Daten zu simulieren, einfach durch die Verwendung der arima. sim-Methode in R. Wir beginnen mit dem einfachsten nicht-trivialen ARMA-Modell, nämlich dem ARMA (1,1 ) Modell. Das heißt, ein autoregressives Modell der Ordnung eins kombiniert mit einem gleitenden Durchschnittsmodell der Ordnung eins. Ein solches Modell hat nur zwei Koeffizienten, alpha und beta, die die ersten Verzögerungen der Zeitreihe selbst und die schockweißen Rauschterme darstellen. Ein solches Modell ist gegeben durch: Wir müssen die Koeffizienten vor der Simulation angeben. Lets take alpha 0.5 und beta -0.5: Die Ausgabe ist wie folgt: Lets auch das Korrektogramm zeichnen: Wir können sehen, dass es keine signifikante Autokorrelation, die von einem ARMA (1,1) - Modell erwartet wird. Schließlich können wir versuchen, die Koeffizienten und deren Standardfehler mit Hilfe der Arimafunktion zu bestimmen: Wir können die Konfidenzintervalle für jeden Parameter mit Hilfe der Standardfehler berechnen: Die Konfidenzintervalle enthalten die wahren Parameterwerte für beide Fälle 95 Konfidenzintervalle sehr breit sind (eine Folge der hinreichend großen Standardfehler). Jetzt versuchen wir ein ARMA (2,2) Modell. Das heißt, ein AR (2) - Modell kombiniert mit einem MA (2) - Modell. Für dieses Modell müssen wir vier Parameter angeben: alpha1, alpha2, beta1 und beta2. Nehmen wir alpha1 0.5, alpha2-0.25 beta10.5 und beta2-0.3: Die Ausgabe unseres ARMA (2,2) - Modells ist wie folgt: Und die entsprechende autocorelation: Wir können nun versuchen, ein ARMA (2,2) - Modell an Die Daten: Wir können auch die Konfidenzintervalle für jeden Parameter berechnen: Beachten Sie, dass die Konfidenzintervalle für die Koeffizienten für die gleitende Durchschnittskomponente (beta1 und beta2) nicht tatsächlich den ursprünglichen Parameterwert enthalten. Dies beschreibt die Gefahr des Versuchens, Modelle an Daten anzupassen, auch wenn wir die wahren Parameterwerte kennen. Für Handelszwecke benötigen wir jedoch nur eine Vorhersagekraft, die den Zufall übertrifft und genügend Gewinn über die Transaktionskosten erzeugt, um rentabel zu sein auf lange Sicht. Nun, da wir einige Beispiele für simulierte ARMA-Modelle gesehen haben, brauchen wir Mechanismus für die Auswahl der Werte von p und q bei der Anpassung an die Modelle zu echten Finanzdaten. Auswahl des besten ARMA-Modells (p, q) Um zu bestimmen, welche Ordnung p, q des ARMA-Modells für eine Reihe geeignet ist, müssen wir die AIC (oder BIC) über eine Teilmenge von Werten für p, q und verwenden Dann den Ljung-Box-Test anwenden, um zu bestimmen, ob eine gute Passung für bestimmte Werte von p, q erzielt worden ist. Um diese Methode zu zeigen, werden wir zunächst einen speziellen ARMA (p, q) Prozess simulieren. Wir werden dann alle paarweisen Werte von p in und qin durchschleifen und die AIC berechnen. Wir wählen das Modell mit dem niedrigsten AIC aus und führen dann einen Ljung-Box-Test auf die Residuen durch, um festzustellen, ob wir eine gute Passform erreicht haben. Zunächst wird eine ARMA (3,2) - Serie simuliert: Wir werden nun ein Objekt final erstellen, um den besten Modell-Fit und den niedrigsten AIC-Wert zu speichern. Wir schleifen über die verschiedenen p, q-Kombinationen und verwenden das aktuelle Objekt, um die Anpassung eines ARMA (i, j) - Modells für die Schleifenvariablen i und j zu speichern. Wenn der aktuelle AIC kleiner als irgendein vorher berechneter AIC ist, setzen wir die letzte AIC auf diesen aktuellen Wert und wählen diese Reihenfolge. Nach Beendigung der Schleife haben wir die Reihenfolge der in final. order gespeicherten ARMA-Modelle, und die ARIMA (p, d, q) passen sich an (mit der integrierten d-Komponente auf 0 gesetzt), die als final. arma gespeichert ist , Ordnung und ARIMA-Koeffizienten: Wir können sehen, dass die ursprüngliche Ordnung des simulierten ARMA-Modells wiederhergestellt wurde, nämlich mit p3 und q2. Wir können das Corelogramm der Residuen des Modells darstellen, um zu sehen, ob sie wie eine Realisierung von diskreten weißen Rauschen (DWN) aussehen: Das Corelogramm sieht tatsächlich wie eine Realisierung von DWN aus. Schließlich führen wir den Ljung-Box-Test für 20 Verzögerungen durch, um dies zu bestätigen: Beachten Sie, dass der p-Wert größer als 0,05 ist, was besagt, dass die Residuen auf dem 95-Level unabhängig sind und somit ein ARMA-Modell (3,2) Gutes Modell passend. Offensichtlich sollte dies der Fall sein, da wir die Daten selbst simuliert haben. Dies ist jedoch genau das Verfahren, das wir verwenden werden, wenn wir ARMA (p, q) - Modelle im folgenden Abschnitt zum SampP500-Index passen. Finanzdaten Nachdem wir nun das Verfahren zur Auswahl des optimalen Zeitreihenmodells für eine simulierte Serie skizziert haben, ist es relativ einfach, diese auf Finanzdaten anzuwenden. Für dieses Beispiel wollen wir erneut den SampP500 US Equity Index wählen. Wir können die täglichen Schlusskurse unter Verwendung von quantmod herunterladen und dann den Protokoll-Rücklauf-Stream erzeugen: Mit dem AIC können Sie das gleiche Anpassungsverfahren wie für die oben beschriebene simulierte ARMA (3,2) - Reihe des SampP500 durchführen: Das am besten passende Modell Hat die Ordnung ARMA (3,3): Hier können die Residuen des angepassten Modells dem SampP500 log täglichen Retourenstrom zugewiesen werden: Beachten Sie, dass es einige signifikante Peaks gibt, vor allem bei höheren Lags. Dies deutet auf eine schlechte Passform hin. Wir können einen Ljung-Box-Test durchführen, um festzustellen, ob wir statistische Beweise dafür haben: Wie wir vermuteten, ist der p-Wert kleiner als 0,05 und als solche können wir nicht sagen, dass die Residuen eine Realisierung von diskreten weißen Rauschen sind. Daher gibt es eine zusätzliche Autokorrelation in den Residuen, die nicht durch das eingebaute ARMA (3,3) - Modell erklärt wird. Next Steps Wie wir in dieser Artikelreihe besprochen haben, haben wir in den SampP500-Serien, insbesondere in den Perioden 2007-2008, Hinweise auf bedingte Heterosedastizität (Volatilitäts-Clustering) gefunden. Wenn wir ein GARCH-Modell später in der Artikel-Serie verwenden, werden wir sehen, wie diese Autokorrelationen zu beseitigen. In der Praxis sind ARMA-Modelle nie generell gut für Log-Aktien-Renditen. Wir müssen die bedingte Heterosedastizität berücksichtigen und eine Kombination von ARIMA und GARCH verwenden. Der nächste Artikel wird ARIMA betrachten und zeigen, wie die integrierte Komponente unterscheidet sich von der ARMA-Modell, das wir in diesem Artikel betrachtet haben. Klicken Sie unten, um mehr darüber zu erfahren. Die Informationen auf dieser Website ist die Meinung der einzelnen Autoren auf der Grundlage ihrer persönlichen Beobachtung, Forschung und jahrelange Erfahrung. Der Herausgeber und seine Autoren sind nicht registrierte Anlageberater, Rechtsanwälte, CPAs oder andere Finanzdienstleister und machen keine Rechts-, Steuer-, Rechnungswesen, Anlageberatung oder andere professionelle Dienstleistungen. Die Informationen, die von dieser Web site angeboten werden, sind nur allgemeine Ausbildung. Weil jeder Einzelne sachliche Situation anders ist, sollte der Leser seinen persönlichen Berater suchen. Weder der Autor noch der Herausgeber übernehmen jegliche Haftung oder Verantwortung für Fehler oder Unterlassungen und haben weder eine Haftung noch Verantwortung gegenüber Personen oder Körperschaften in Bezug auf Schäden, die direkt oder indirekt durch die auf dieser Website enthaltenen Informationen verursacht oder vermutet werden. Benutzung auf eigene Gefahr. Darüber hinaus kann diese Website erhalten finanzielle Entschädigung von den Unternehmen erwähnt durch Werbung, Affiliate-Programme oder auf andere Weise. Preise und Angebote von Inserenten auf dieser Website ändern sich häufig, manchmal ohne Vorankündigung. Während wir uns bemühen, rechtzeitige und genaue Informationen aufrechtzuerhalten, können Angebot Details veraltet sein. Besucher sollten daher die Bedingungen dieser Angebote vor der Teilnahme an ihnen überprüfen. Der Autor und sein Herausgeber haften nicht für die Aktualisierung der Informationen und haften nicht für Inhalte, Produkte und Dienstleistungen von Drittanbietern, auch wenn sie über Hyperlinks und Anzeigen auf dieser Website aufgerufen werden. RIMA steht für Autoregressive Integrated Moving Average-Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukünftigen Werte einer Serie, die vollständig auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausreißern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprünglichen Autoren), ARIMA ist in der Regel überlegen exponentielle Glättung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark flüchtig sind, kann eine gewisse Glättungsmethode besser ablaufen. Wenn Sie nicht über mindestens 38 Datenpunkte verfügen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarität impliziert, dass die Reihe auf einem ziemlich konstanten Niveau über Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen der Saisonalität im Laufe der Zeit dramatischer. Ohne dass diese Stationaritätsbedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wächst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wächst, können Sie das gleiche Verfahren anwenden und die Daten erneut differenzieren. Ihre Daten würden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander über die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzögerung bezeichnet. Zum Beispiel misst eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander in der Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten, die zwei Perioden voneinander entfernt sind, über die gesamte Reihe korreliert werden. Autokorrelationen können im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Maßnahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte für eine gegebene Reihe bei unterschiedlichen Verzögerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion der so genannten autoregressiven und gleitenden Durchschnittsparameter zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, dass jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der geschätzte Wert von A (1) 0,30 betrug, dann wäre der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknüpft. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzüglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept dahinter ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufälligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie in den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur für Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhängt. Wie im Fall von autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf übergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Längen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenführen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für eine kompliziertere Prognose-Tool macht, kann die Struktur tatsächlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der höchsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer ersten gleitenden Durchschnittskomponente haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter einzuschließen sind. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsprozeß gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, für Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexität, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausreißer, Messfehler etc.) den theoretischen Identifikationsprozess verzerren können. Deshalb ist die traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft.

No comments:

Post a Comment