Sunday 16 April 2017

Identification Of Autoregressive Moving Average Parameters Of Time Series

Ein RIMA steht für Autoregressive Integrated Moving Average Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukünftigen Werte einer Serie, die vollständig auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausreißern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprünglichen Autoren), ARIMA ist in der Regel überlegen exponentielle Glättung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark flüchtig sind, kann eine gewisse Glättungsmethode besser ablaufen. Wenn Sie nicht über mindestens 38 Datenpunkte verfügen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarität impliziert, dass die Reihe auf einem ziemlich konstanten Niveau über Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen der Saisonalität im Laufe der Zeit dramatischer. Ohne dass diese Stationaritätsbedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wächst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wächst, können Sie das gleiche Verfahren anwenden und die Daten erneut differenzieren. Ihre Daten würden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander über die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzögerung bezeichnet. Zum Beispiel misst eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander über die gesamte Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten, die zwei Perioden voneinander getrennt sind, über die gesamte Reihe miteinander korrelieren. Autokorrelationen können im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Maßnahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte für eine gegebene Reihe bei unterschiedlichen Verzögerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion der so genannten autoregressiven und gleitenden Durchschnittsparameter zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, dass jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der geschätzte Wert von A (1) 0,30 betrug, dann wäre der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknüpft. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzüglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept dahinter ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufälligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie bei den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur für Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhängt. Wie im Fall von autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf übergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Längen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenführen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für eine kompliziertere Prognose-Tool macht, kann die Struktur tatsächlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der höchsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer ersten gleitenden Durchschnittskomponente haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter eingeschlossen werden sollen. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsprozeß gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, für Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexität, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausreißer, Messfehler etc.) den theoretischen Identifikationsprozess verzerren können. Deshalb ist die traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft. Dokumentation ist das unbedingte Mittel des Prozesses, und x03C8 (L) ist ein rationales, unendlich langsames Verzögerungsoperatorpolynom (1 x03C8 1 L x03C8 2 L 2 x 2026) . Anmerkung: Die Constant-Eigenschaft eines arima-Modellobjekts entspricht c. Und nicht das unbedingte Mittel 956. Durch Wolds-Zerlegung 1. Gleichung 5-12 entspricht einem stationären stochastischen Prozeß, vorausgesetzt, daß die Koeffizienten x03C8i absolut summierbar sind. Dies ist der Fall, wenn das AR-Polynom, x03D5 (L). Stabil ist. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Zusätzlich ist das Verfahren kausal, vorausgesetzt das MA-Polynom ist invertierbar. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Econometrics Toolbox forciert Stabilität und Invertierbarkeit von ARMA Prozessen. Wenn Sie ein ARMA-Modell mit Arima angeben. Erhalten Sie einen Fehler, wenn Sie Koeffizienten eingeben, die nicht einem stabilen AR-Polynom oder einem invertierbaren MA-Polynom entsprechen. Ähnlich erfordert die Schätzung während der Schätzung Stationaritäts - und Invertibilitätsbeschränkungen. Literatur 1 Wold, H. Eine Studie in der Analyse stationärer Zeitreihen. Uppsala, Schweden: Almqvist amp Wiksell, 1938. Wählen Sie Ihr LandIdentifizierung von periodischen autoregressiven gleitenden Durchschnittsmodellen und deren Anwendung auf die Modellierung von Flussflüssen 1 Die Erzeugung von synthetischen Flussflussproben, die die wesentlichen statistischen Merkmale historischer Flussströme reproduzieren können, ist nützlich Die Planung, das Design und den Betrieb von Wasserressourcen-Systemen. Die meisten Flussflussreihen sind periodisch stationär, dh ihre Mittelwerte und Kovarianzfunktionen sind periodisch bezüglich der Zeit. Dieser Artikel entwickelt Modellidentifikations - und Simulationstechniken auf der Grundlage eines periodischen autoregressiven Moving Average (PARMA) Modells zur Erfassung der saisonalen Schwankungen der Flussflussstatistik. Der Innovationsalgorithmus wird verwendet, um Parameterschätzwerte zu erhalten. Ein Antrag auf monatliche Flussdaten für den Fraser River in British Columbia ist enthalten. Eine sorgfältige statistische Analyse der PARMA-Modellresiduen, einschließlich eines abgeschnittenen Pareto-Modells für die extremen Schwänze, erzeugt eine realistische Simulation dieser Flussströme. 1. Einleitung 2 Zeitreihenanalyse und Modellierung ist ein wichtiges Instrument in der Hydrologie und Wasserressourcen. Es wird für den Aufbau mathematischer Modelle verwendet, um synthetische hydrologische Aufzeichnungen zu erzeugen, um die Wahrscheinlichkeit von Extremereignissen zu bestimmen, hydrologische Ereignisse zu prognostizieren, Trends und Verschiebungen in hydrologischen Aufzeichnungen zu erfassen und fehlende Daten zu interpolieren und Datensätze zu erweitern. Die Forschung in diesem Artikel berichtet direkt auf Fluss-Flow-Daten-Generation. Die Erzeugung von synthetischen Flussströmungsserien kann für die Bestimmung der Abmessungen von hydraulischen Werken, für die Risikobewertung in der städtischen Wasserversorgung und für die Bewässerung, für den optimalen Betrieb von Reservoirsystemen, für die Bestimmung des Ausfallrisikos von zuverlässigen Kapazitäten von hydroelektrischen Systemen, für die Planung von Kapazitäten nützlich sein Erweiterung der Wasserversorgung, und andere sehen Salas. 1993. 3 Die statistischen Merkmale der hydrologischen Reihe sind wichtige Entscheidungsfaktoren bei der Auswahl des Modelltyps. Zum Beispiel haben in den meisten Fällen, die in der Natur bekannt sind, Flußströmungen ein bedeutendes periodisches Verhalten im Mittelwert, Standardabweichung und Schiefe. Zusätzlich zu diesen Periodizitäten zeigen sie eine zeitliche Korrelationsstruktur, die entweder konstant oder periodisch sein kann. Eine derartige serielle Abhängigkeit oder Autokorrelation in Flußstromserien ergibt sich üblicherweise aus der Wirkung der Lagerung, wie Oberflächen-, Boden - und Bodenspeicher, die bewirken, daß das Wasser durch nachfolgende Zeiträume im System verbleibt. Die übliche Vorgehensweise bei der Modellierung solcher periodischen Flussdurchflussserien ist es zunächst, die Reihe zu standardisieren oder zu filtern und dann ein geeignetes stationäres stochastisches Modell an die reduzierte Serie Salas et al. . 1980 Thompstone et al. . 1985 Vecchia. 1985a. 1985b Salas. 1993 Chen und Rao. 2002. Die Standardisierung oder Filterung der meisten Flussdurchflussreihen kann jedoch aufgrund von periodischen Autokorrelationen nicht zu stationären Residuen führen. In diesen Fällen ist das resultierende Modell nicht spezifiziert Tiao und Grupe. 1980. Periodische Modelle können daher verwendet werden, um die periodische Korrelationsstruktur zu entfernen. Eine wichtige Klasse von periodischen Modellen, die in solchen Situationen nützlich sind, besteht aus periodischen autoregressiven Moving Average Modellen (PARMA), die Erweiterungen von häufig verwendeten ARMA-Modellen sind, die periodische Parameter erlauben. PARMA-Modelle stellen explizit die saisonalen Schwankungen des Mittelwertes, der Strömungsstandardabweichung und der Strömungsautokorrelation dar, was zu einem realistischeren Zeitreihenmodell führt, das zu zuverlässigeren Simulationen natürlicher Flussströme führt. 4 Es gab viele Diskussionen über periodische Zeitreihenmodelle Jones und Brelsford. 1967 Pagano. 1978 Troutman. 1979 Tjoslashstheim und Paulsen. 1982 Salas et al. . 1981. 1982. Vecchia. 1985a. 1985b Vecchia und Ballerini. 1991 Salas und Obeysekera. 1992 Anderson und Vecchia. 1993 Ula. 1990. 1993 Ula und Smadi. 1997. Adams und Goodwin. 1995 Anderson und Meerschaert. 1997. Lund und Basawa. 1999. 2000 Shao und Lund. 2004. Die Zeitreihenanalyse von Datensequenzen umfasst in der Regel drei Hauptschritte: Modellidentifikation, Parameterschätzung und Diagnoseprüfung. Die Parameterschätzung für PARMA-Modelle ist wegen der höheren Schätzanzahl bei den stationären ARMA-Modellen schwieriger als bei stationären ARMA-Modellen. Anderson et al. 1999 wurde der Innovationsalgorithmus zur Parameterschätzung einer gleitenden gleitenden Darstellung von PARMA-Modellen entwickelt. Anderson und Meerschaert 2005 lieferten auch eine asymptotische Verteilung für diese Schätzungen. Diese Ergebnisse können für die Identifikation von PARMA-Modellen für periodische Prozesse verwendet werden, wurden bisher jedoch nicht auf diese Aufgabe übertragen. Modellidentifikation und Simulation für Flussflüsse mit periodischen Autokorrelationen ist der Hauptschub dieses Artikels. Daher ist, um realistische synthetische Flussflüsse zu erzeugen, ein weiterer wichtiger Schritt erforderlich. Die Modellresiduen approximieren die Grundrauschenfolge, aus der der PARMA-Prozess entsteht. Daher ist es notwendig, die statistische Verteilung dieser Zufallsvariablen abzuschätzen, um sie genau zu simulieren. Wird dieser Schritt nicht durchgeführt, führt dies zu verzerrten Simulationsergebnissen, insbesondere in Bezug auf Extremwerte, die bei der Analyse von Überschwemmungen und Dürren wichtig sind. 5 Dieser Artikel hat zwei Ziele. Die erste ist, die Wirksamkeit der Technik durch die Verwendung von simulierten Daten aus verschiedenen PARMA-Modelle zu demonstrieren, und die andere ist eine Anwendung mit monatlichen Flussdaten für den Fraser River in Hope, British Columbia zu beschreiben. 2. Mathematische Formulierung des PARMA-Modells 7 Das periodische ARMA-Verfahren t mit der Periode S (bezeichnet mit PARMA S (p. Q)) hat eine Darstellung, wobei Xtt minus mu t und t eine Folge von Zufallsvariablen mit mittlerem Null - und Skalensignal ist So dass t sigma t minus1 x25b t unabhängig und identisch verteilt (iid) ist. Die Schreibweise in (1) stimmt mit der von Box und Jenkins 1976 überein. Die autoregressiven Parameter x3d5 t (j), die gleitenden Durchschnittsparameter theta t (j) und die restlichen Standardabweichungen sigma t sind alle periodischen Funktionen von t mit Gleicher Zeitraum S ge 1. Die Standardabweichungen sigma t des Rauschverfahrens t werden als strikt positiv angenommen. Wir nehmen auch an, dass (1) das Modell eine kausale Repräsentation zulässt. 3. Identifikation und Schätzung von PARMA-Modellen 8 In diesem Abschnitt dokumentieren wir die wesentlichen Ergebnisse und Ideen zur Identifikation und Parameterschätzung von PARMA-Modellen. Eine Erzählung ist vor jedem Ergebnis enthalten, so dass der Leser Einblick in die Methodik zu gewinnen. Wir enthalten Referenzen, die die detaillierten Beweise liefern. Wenn Nj Jahre von Daten, die aus N N y S Datenpunkten bestehen, das Stichprobenmittel die Probenautokovarianz und die Probenautokorrelation definieren, wobei X t, m (i x2113) / S und middot die größte ganze Zahl ist. Der Innovationsalgorithmus, der von Anderson et al. 1999 gibt uns eine praktische Methode zur Schätzung der Parameter in unserem PARMA-Modell. Da die Parameter saisonabhängig sind, gibt es einen notationalen Unterschied zwischen dem Innovationsalgorithmus für PARMA-Prozesse und dem für ARMA-Prozesse. Brockwell und Davis. 1991. Wir stellen diesen Unterschied durch die ldquoseason, rdquo i vor. Für monatliche Daten haben wir S 12 Jahreszeiten und unsere Konvention soll i 0 den ersten Monat darstellen, i 1 repräsentiere den zweiten, hellip und i S minus 1 11 repräsentiere den letzten. 9 Die Idee des Innovationsalgorithmus besteht darin, den gleitenden Durchschnitt in (2) durch eine endliche Approximation mit den k jüngsten Beobachtungen abzuschätzen. Es sei der beste lineare Prädiktor von X i k, basierend auf den Daten X i. Hellip, X i k minus1. D. h. diejenige, die den mittleren quadratischen Fehler minimiert, wobei Xi k minus j minus i k minus j (i) ist. J 1, hellip, k sind unkorrelierte Elemente, die die Rauschsequenz (auch ldquoinnovationsrdquo genannt) x25b i k minus j in (2) abschätzen. Folglich schätzen die Parameter theta k, j (i) die gleitenden mittleren Koeffizienten psi i k (j) in dieser Gleichung. Anderson et. Al. 1999 zeigen, dass diese Koeffizienten (zusammen mit den entsprechenden mittleren quadratischen Fehlern) durch die folgende Variante des Innovationsalgorithmus rekursiv berechnet werden können: für alle i. J wobei x3008 t x3009 die dem Index t entsprechende Jahreszeit ist. So dass x3008 jS i x3009 i. Ersetzen wir die Autokovarianzen in (10) durch die entsprechenden Stichprobenautokovarianzen (5). Erhalten wir die Innovationsschätzungen k, l (i) und k, i auf Basis der Zeitreihendaten. Anderson et al. 1999 zeigen, dass diese Mengen konvergieren (in Wahrscheinlichkeit), um eine konsistente Schätzung der gleitenden durchschnittlichen Modellparameter aus Daten zu erhalten. Des Weiteren zeigen Anderson und Meerschaert 2005, dass als ny rarr infin und k rarr infin für beliebige feste i 0, 1, hellip, S minus 1, wobei ldquorArrrdquo eine Konvergenz in der Verteilung anzeigt, und amp55349amp56489 (m. v) eine normale Zufallsvariable ist Mit Mittelwert m und Varianz v. Die wichtigste technische Bedingung für die Konvergenz (12) zu halten ist, dass die Rauschsequenz x25b t ein endliches viertes Moment hat. In der Praxis ist N die Anzahl der Datenjahre, k die Anzahl der Iterationen des Innovationsalgorithmus (typischerweise in der Größenordnung von k 10 oder 15, siehe die Erörterung in Abschnitt 4), und die Konvergenz der Verteilung wird verwendet Um die Menge auf der linken Seite von (12) durch eine normale Zufallsvariable zu approximieren. Gleichung (12) kann verwendet werden, um Konfidenzintervalle und Hypothesentests für die gleitenden Mittelwerte in (2) zu erzeugen. Beispielsweise lehnt eine Alpha-Level-Teststatistik die Nullhypothese (H 0 psi i (u) 0) zugunsten der Alternative (H a. Psi i (u) ne 0 ab, was anzeigt, dass der Modellparameter statistisch signifikant verschieden ist Von null), wenn x2223 Z x2223 gt z alpha / 2. Der p-Wert für diesen Test Der Innovationsalgorithmus erlaubt es uns, ein geeignetes Modell für die periodische Zeitreihe zu identifizieren, und die p-Wertformel gibt uns einen Weg, um zu bestimmen, welche Koeffizienten im identifizierten PARMA-Modell statistisch signifikant verschieden von Null sind Diejenigen mit einem kleinen p-Wert, sagen wir, p lt 0,05). Wir veranschaulichen die praktische Anwendung dieser Formeln in den Abschnitten 4 und 5. 4. Simulationsstudie 10 Eine detaillierte Simulationsstudie wurde durchgeführt, um den praktischen Nutzen des Innovationsalgorithmus für die Modellidentifikation in der Gegenwart von saisonal korrelierten Daten zu untersuchen. Es wurden Daten für verschiedene PARMA S (p. Q) Modelle simuliert. Für jedes Modell wurden individuelle Realisierungen von N y 50, 100, 300 und 500 Jahren von Daten simuliert und der Innovationsalgorithmus verwendet, um Parameterschätzungen für jede Realisierung zu erhalten. In jedem Fall wurden Schätzwerte für k 10, k 15 und k 20 Iterationen erhalten, um die Konvergenz zu untersuchen, und p-Werte wurden unter Verwendung von (13) berechnet, um jene Schätzwerte zu identifizieren, die statistisch signifikant waren (p lt 0,05). Einige allgemeine Schlussfolgerungen können aus dieser Studie gezogen werden. Wir fanden, dass 10 bis 15 Iterationen des Innovationsalgorithmus in der Regel ausreichend sind, um vernünftige Schätzungen der Modellparameter zu erhalten. Wir fanden auch, dass N y 50 Jahre der monatlichen oder vierteljährlichen Daten nur grobe Schätzungen der Modellparameter liefern, während N y 100 Jahre im Allgemeinen ausreichend sind, um gute Schätzungen zu geben. Für die Daten zwischen 50 und 100 Jahren sind die Schätzungen weniger genau, aber im allgemeinen für praktische Anwendungen ausreichend. Um die allgemeine Qualität dieser Ergebnisse zu veranschaulichen, ist hier ein besonderer Fall eines PARMA 4 (1,1) - Modells zusammengefasst, bei dem kS i sigma i minus1 x25b kS i eine iid-Folge normaler Zufallsvariablen mit mittlerem Nullpunkt und Standardabweichung ist eins. Die periodische Notation X kS i bezieht sich auf die (mittleren Null) simulierten Daten für die Jahreszeit i des Jahres k. Aus dem obigen Modell wurde eine einzige Realisierung mit N y 500 Jahren Quartalsdaten (Stichprobengröße von N N y S 500 middot 4 2000) erzeugt. 11 Tabelle 1 zeigt die Ergebnisse nach k 15 Iterationen des Innovationsalgorithmus. Für Saison 0 sind die ersten vier Lags statistisch signifikant, für Saison 2 und 3 sind die ersten drei Lags signifikant, während für Saison 1 nur die ersten beiden signifikant sind. Da die Parameterschätzwerte im allgemeinen nicht mit einer bestimmten Verzögerung auf (statistisch) Null abschneiden, ist es vorteilhaft, ein sparsames Mischbewegungsmittel / autoregressives Modell zu suchen. Um ein gemischtes Modell (1) unter Verwendung der Innovationsschätzungen zu setzen, setzen wir (2) in (1) ein und setzen dann die Koeffizienten des Rauschens x25bt auf beiden Seiten gleich, um die Parameter theta t und x3d5t zu bestimmen. Dies erfordert, dass statistisch signifikante Werte von psi i (j) für jede Jahreszeit i für Lags 1 le x2113 le p q verfügbar sind. Für pq 1 nimmt die resultierende Gleichung eine vereinfachte Form an. Die tatsächlichen Werte der autoregressiven Parameter x3d5 i und der gleitenden Durchschnittsparameter theta i für die Saison i zusammen mit den geschätzten Parametern, die durch Ersetzen der Innovationsschätzungen aus Tabelle 1 in (16) erhalten wurden, sind in der Tabelle dargestellt 2. Standardisierte Residuen, delta t. Für dieses PARMA 4 (1,1) - Modell unter Verwendung der Gleichung berechnet werden, die durch Lösen (1) für die Innovationen und Ersetzen der geschätzten Modellparameter für ihre wahren Werte erhalten wurde. Das PARMA S (1,1) - Modell ist das einfachste gemischte Modell und wird daher bevorzugt, solange diagnostische Diagramme der Restautokorrelation (ACF) und / oder partielle Autokorrelation (PACF) keine signifikante serielle Abhängigkeit anzeigen. Für die hier berichtete Simulation war dies der Fall, und daher wurde ein PARMA 4 (1,1) - Modell als ausreichend beurteilt. Die ACF - und PACF-Diagramme ähnelten denen in Abschnitt 5 (siehe Abbildung 2). Tabelle 1. Gleitende durchschnittliche Parameterschätzungen und p-Werte Nach k 15 Iterationen des Innovationsalgorithmus, angewandt auf N y 500 Jahre simulierter PARMA 4 (1,1) Daten a 5. Anwendung auf Modellierung natürlicher Flussströme 12 Als nächstes modellieren wir monatlich Fluss-Fluss-Zeit-Serie aus dem Fraser River in Hope, British Columbia. Der Fraser River ist der längste Fluss in British Columbia, der fast 1400 km lang ist und durch eine Drainagefläche von 220.000 km 2 getragen wird. Er erhebt sich in den Rocky Mountains am Yellowhead Pass, in der Nähe des British Columbia-Alta. Linie und fließt nordwestlich durch den Rocky Mountain Trench zu Prince George, von dort südlich und westlich der Straße von Georgia in Vancouver. Seine wichtigsten Nebenflüsse sind die Nechako, Quesnel, Chilcotin und Thompson Flüsse. Weitere Informationen finden Sie unter scitech. pyr. ec. gc. ca/waterweb/. 13 Die Daten werden aus täglichen Entladungsmessungen, in Kubikmeter pro Sekunde, gemittelt über jeden der jeweiligen Monate, um die monatliche Reihe zu erhalten. Die Serie enthält 72 Jahre Daten von Oktober 1912 bis September 1984. In der folgenden Analyse entspricht S 0 dem Oktober und S 11 entspricht September. Der Einsatz des ldquowater yearrdquo ab dem 1. Oktober ist für die stationäre ARMA-Modellierung von Flussströmen aufgrund der geringen Korrelation zwischen den Fallmonatenströmen gebräuchlich. Wir nehmen die gleiche Notation für den Vergleich mit diesen Modellen an, aber in unserem Fall ist jeder Anfangsmonat gleich gut, da wir die saisonalen Variationen explizit modellieren. Eine partielle Darstellung der ursprünglichen Daten, die in Abbildung 1 dargestellt ist, zeigt das zyklische Verhalten der monatlichen Ströme. Der Stichprobenmittelwert, die Standardabweichung und die Autokorrelationen bei Lag 1 und Lag 2 sind in Tabelle 3 angegeben (siehe auch Abbildung 8). Die Nichtstationarität der Reihe ist offensichtlich, da die mittleren Standardabweichungs - und Korrelationsfunktionen von Monat zu Monat erheblich variieren. Das Entfernen der Periodizität in Mittelwert und Varianz wird nicht zu einer stationären Reihe führen. Daher ist ein periodisch stationäres Serienmodell geeignet. Nach k 20 Iterationen liefert der Innovationsalgorithmus die in Tabelle 4 gefundenen Innovationsschätzungen und zugehörigen p-Werte. Durchschnittliche monatliche Ströme (m 3 s minus1) für den Fraser River in Hope, British Columbia, deuten auf ein saisonales Muster. Tabelle 3. Beispiel-Mittelwert, Standardabweichung und Autokorrelation bei Lag 1 und 2 der durchschnittlichen monatlichen Flussreihen für den Fraser River Near Hope, British Columbia 14 Da die i-Gewichte in der Regel nicht mit einer bestimmten Verzögerung auf (statistisch) Wählen wir ein sparsames Mischmodell, das sowohl das periodische Verhalten als auch den in der Autokorrelationsfunktion nachgewiesenen exponentiellen Abfall erfasst. Wir finden, dass ein PARMA 12 (1,1) Modell ausreichend ist, um die Serienautokorrelationsstruktur adäquat zu erfassen. Die physikalische Basis des Fluss-Flow-Prozesses könnte auch bei der Auswahl des geeigneten Modells hilfreich sein. Salas et al. . 1981 Salas und Obeysekera. 1992. Die Parameterschätzungen für dieses Modell, die unter Verwendung der Gleichungen (16) erhalten wurden. Sind in Tabelle 5 zusammengefaßt. Modellresiduen wurden unter Verwendung von Gleichung (17) geschätzt. Obwohl das Modell periodisch stationär ist, sollten die Residuen stationär sein, so dass die Standard-95-Konfidenzgrenzen (dh 1.96 /) noch gelten. 2 zeigt die ACF und PACF der Modellresiduen. Obwohl einige Werte etwas außerhalb der 95 Vertrauensbänder liegen, gibt es kein offensichtliches Muster, was einige Anzeichen dafür liefert, dass das PARMA 12 (1,1) - Modell ausreichend ist. (A) ACF für Modellresiduen, die die Grenzen plusmn1.96 / anzeigen, zeigen keine serielle Abhängigkeit an. (B) PACF für Modellresiduen, die die Grenzen plusmn1.96 / anzeigen, zeigen keine serielle Abhängigkeit an. Tabelle 5. Parameterschätzungen für das PARMA-Modell (18) der durchschnittlichen monatlichen Flussreihen für den Fraser River in der Nähe von Hope, British Columbia 15 Ein Grund für die sorgfältige Modellierung der Flussfluss-Zeitreihen besteht darin, die Fähigkeit zur Erzeugung synthetischer Flussströme für eine weitere Analyse zu entwickeln. Dies erfordert ein realistisches Verteilungsmodell für die Residuen, die verwendet werden können, um die Rauschsequenz zu simulieren. Nachdem wir eine Reihe von möglichen Verteilungen untersucht haben, haben wir festgestellt, dass ein Dreiparameter lognormal die Residuen ziemlich gut passt. Ein Histogramm der Reste, die die am besten passende logarithmische Dichtekurve (Skala 0.217, Ort 1.656 und Schwelle minus 5.363) sowie die entsprechende Wahrscheinlichkeitsdarstellung zeigen, sind in den Fig. 3a und 3b gezeigt. beziehungsweise. Auf der Wahrscheinlichkeitsrechnung zeigen Punkte entlang der diagonalen Linie (Modellperzentile gleich Datenperzentile) eine gute Passform an. Nach diesem logarithmischen Modell folgen Residuen der Verteilung einer Zufallsvariablen R minus5.363 e (1.6560.217 Z), wobei Z sim amp55349amp56489 (0,1) liegt. (A) Logarithmisches Wahrscheinlichkeitsdiagramm für Modellresiduen, Fraser River bei Hope, British Columbia. (B) Histogramm für Modellresiduen, Fraser River bei Hope, British Columbia. 16 Das Histogramm in Fig. 3b zeigt, daß die drei Parameter lognormal eine annehmbare Gesamtanpassung ergeben, aber die Wahrscheinlichkeitsdarstellung in Fig. 3a zeigt einen Mangel an Passung an beiden Schwänzen. Dies ist für praktische Anwendungen wichtig, da das Schwanzverhalten der Residuen (bzw. der Rauschabfolge) die Extremwerte der Zeitreihen bestimmt, die sowohl Dürren als auch Überschwemmungen bestimmen. Keiner der standardmäßigen Wahrscheinlichkeitsdiagramme, die wir ausprobiert haben (normal, lognormal, Weibull, gamma usw.), ergab eine ausreichende Passung an den Schwänzen. Zur Überprüfung eines Potenzwahrscheinlichkeitsschwanzes haben wir ein Mandelbrotplot jedes Schwanzes aufgebaut (Abbildungen 4 und 5), wie von Mandelbrot 1963 und Anderson und Meerschaert 1998 beschrieben. Es sei X 1. Hellip, X n sind iid Pareto mit Verteilungsfunktion F (x) Cx minusalpha. Dann ist F (x) P X gt x Cx minusalpha und so ln F (x) ln C minus alpha ln x. Wenn wir die Daten in absteigender Reihenfolge sortieren, so daß X (1) ge X (2) ge x22f ge X (n) (Ordnungsstatistik) ungefähr x X (r) sein sollte, wenn F (x) r / n ist. Dann sollte eine Kurve von ln X (r) gegenüber ln (r / n) annähernd linear mit der Steigung minusalpha sein. In den Figuren 4 und 5 ist die Abwärtskurve, die anzeigt, daß ein einfaches Potenzgesetzmodell für den Schwanz (Pareto, GEV Frechet, alpha-stabil) nicht geeignet ist. Die Form der Diagramme ist jedoch konsistent mit vielen Beispielen für abgeschnittene Pareto-Verteilungen, die in der geophysikalischen Literatur gefunden wurden, siehe z. B. Aban et al. . 2006 Burroughs und Tebbens. 2001a. 2001b. 2002. Diese Verteilung ist geeignet, wenn ein Potenzgesetzmodell durch eine obere Grenze der Beobachtungen beeinflusst wird. Log-Protokoll-Diagramm der oberen Rest-Schwanz und ausgestattet trunkiert Pareto Verteilung, Fraser River in Hope, British Columbia. Log-Protokoll der unteren Rest-Schwanz und ausgestattet trunkiert Pareto Verteilung, Fraser River in Hope, British Columbia. 17 In der Hydrologie wird allgemein angenommen, dass es eine obere Grenze für die Fällung gibt und daher Flussflüsse, z. B. Maidment 1993. Eine verkürzte Pareto-Zufallsvariable X hat eine Verteilungsfunktion mit 0 lt gamma le x le beta lt infin und gamma lt beta. Aban et al. 2006 die Maximal-Likelihood-Schätzer (MLE) für die Parameter der abgeschnittenen Pareto-Verteilung. Wenn ein abgeschnittenes Pareto an den Schwanz der Daten angepasst ist, werden die Parameter geschätzt, indem die bedingte maximale Wahrscheinlichkeitsschätzung auf der Grundlage der Statistiken höchster Ordnung, die nur den Teil des Schwanzes darstellt, wo das abgeschnittene Pareto-Modell gilt, erhalten wird. Wenn X (r) gt X (r 1). Der bedingte Maximum-Likelihood-Schätzer für die Parameter des oberen abgeschnittenen Pareto in (19) auf der Grundlage der r 1 - Menge der grßten Ordnung ist gegeben durch und löst die Gleichung 18 Die Wahrscheinlichkeitsdarstellung in Fig. 3a zeigt, daß eine logarithmische Verteilung gut passt Obere und untere 5 der Residuen. Daher wurde ein abgeschnittener Pareto auf die oberen 5 der Residuen aufgezogen, und ein weiterer abgeschnittener Pareto wurde nach einem Zeichenwechsel an die unteren 5 der Residuen angepasst. Unter Verwendung der berechneten Werte von minus 1,697 passen das fünfte Perzentil und 2.122 das 95. Perzentil der drei Parameter lognormalen Verteilung an den Körper der Residuen an, wir haben die Cutoff für jede passende Verteilung bestimmt. Als nächstes haben wir festgestellt, dass r 39 Residuen das 95. Perzentil überschreiten und r 34 Residuen unter das 5. Perzentil fallen. Dann wurde das MLE verwendet, um die Parameter (5,336, 0,072, 0,722) der am besten passenden abgeschnittenen Pareto-Verteilung zu schätzen, und das theoretische Verteilungsende P (R gt r) wurde über den 39 größten positiven Resten in 4 aufgetragen Wir haben die gleiche Methode verwendet, um einen verkürzten Pareto (2.961, 0.291, 1.560) an die 34 größten negativen Residuen nach einem Zeichenwechsel anzupassen. Beide der Diagramme in den 4 und 5 zeigen eine adäquate Passform an. 19 Eine Gemischverteilung mit lognormalem Körper und abgeschnittenen Pareto-Schwänzen wurde verwendet, um die Rauschsequenz zu simulieren. Die Mischung hat eine kumulative Verteilungsfunktion (cdf), wobei F 0 die cdf der lognormalen ist und F. F minus sind abgeschnittene Pareto cdfs der positiven bzw. negativen Schwänze. Es sei daran erinnert, dass die Grenzwerte in (24) die 5 und 95 Quantile der lognormalen Verteilung sind, die als der Bereich bestimmt wurden, in dem der lognormal eine adäquate Passform liefert. Die trunkierten Pareto-Verteilungen in (24) wurden verschoben (um s 0,172 auf dem positiven Schwanz und s 0,174 auf dem negativen Schwanz), um die Mischung cdf kontinuierlich zu machen. Nun kann die Rauschsequenz durch die inverse kumulative Verteilungsfunktion delta F minus1 (U) simuliert werden, wobei U eine Pseudorandomzahl ist, die gleichmäßig auf dem Einheitsintervall (0,1) verteilt ist. Dies ist jedoch im vorliegenden Fall nicht praktikabel, da das lognormale cdf nicht analytisch invertierbar ist. Stattdessen verwendeten wir die Box-Muumlller-Methode, um normale normale Zufallsvariablen zu erzeugen. Z siehe Gentle. 2003. Dann wurden logarithmische Zufallsvariationen unter Verwendung von delta minus 5,363 exp (1,656 0,217 Z) berechnet. Wenn R gt 2.122, das 95. Perzentil des lognormalen, erzeugten wir eine weitere einheitliche (0,1) Zufallsvariable U und substituierte Delta F minus1 (0,95 0,05 U). Wenn R lt minus 1,697, das fünfte Perzentil des lognormalen, substituierten wir delta F minus minus1 (0,05 U). Dies ergibt eine simulierte Rauschabfolge delta mit der Gemischverteilung (24). 20 Figure 6 shows a probability plot for N N y S simulated noise sequence (for S 12 months and N y 100 years) from the mixture distribution (24). Comparison with Figure 3a shows that the simulated noise sequence is statistically identical to the computed model residuals in terms of distribution. Substituting the simulated noise sequence into the model (18) generates N y years of simulated river flow. Figure 7 compares a typical synthetic flow, obtained by this simulation procedure, to the original data (Figure 7a ). It is apparent that the two time series are statistically similar. In performing this type of autoregressive simulation, it is advantageous to simulate several extra years of river flows and throw out the initial years (100 years in this case), since we did not simulate X t for t lt 0. This ensures that the simulated series is periodically stationary. For an alternative approach, one could adapt exercise 8.17 of Brockwell and Davis 1991 to the PARMA model. Figure 8 shows the main statistical characteristics (mean, standard deviation and autocorrelations) of a typical synthetic river flow time series obtained by this method, as well as the same statistical measures for the observed time series. It is apparent that this procedure closely reproduces the main statistical characteristics, indicating that the modeling procedure is trustworthy for generating synthetic river flows. Such synthetic river flows are useful for design of hydraulic structures, for optimal operation of reservoir systems, for calculating the risk of failure of water supply systems, etc. Another calibration test (not performed during this analysis) would be to construct a PARMA model for a subset of the data, and compare the resulting simulated flow to the remainder of the time series. This can be useful to illustrate the effects of parameter/model uncertainty. Probability plot of simulated noise sequence using the mixed three parameter lognormal and truncated Pareto distributions. Compare to Figure 3a . (a) Plot of observed monthly river flows for the Fraser River at Hope, British Columbia. (b) Plot of simulated monthly river flows for the Fraser River at Hope, British Columbia. Compare to Figure 7a. (a) Comparison of mean for simulated versus observed monthly river flow data for the Fraser River at Hope, British Columbia. (b) Comparison of standard deviation for simulated versus observed monthly river flow data for the Fraser River at Hope, British Columbia. (c) Comparison of autocorrelation at lag 1 for simulated versus observed monthly river flow data for the Fraser River at Hope, British Columbia. (d) Comparison of autocorrelation at lag 2 for simulated versus observed monthly river flow data for the Fraser River at Hope, British Columbia. 6. Conclusions 21 Generation of synthetic river flow data is important in planning, design and operation of water resources systems. PARMA models provides a powerful tool for the modeling of periodic hydrologic series in general and river flow series in particular. In this article, the innovations algorithm estimation procedure, as well as model identification using simulated data from different Gaussian PARMA S ( p . q ) models, is discussed in detail. A simulation study demonstrates that the innovations algorithm is an efficient and reliable technique for parameter estimation and model identification of PARMA models. In the case of a mixed PARMA process, this model identification technique can be supplemented by modeler experience. Our sample application illustrates that the innovations algorithm is useful for modeling river flow time series. For monthly average river flow data for the Fraser River at Hope, British Columbia, a first-order periodic autoregressive moving average model is adequate to capture the essential features. A mixture of three parameter lognormal body and truncated Pareto tails fits the model residuals nicely. This mixture model is then applied with satisfactory results to generate synthetic monthly river flow records. The methodology presented in this article provides a useful tool for river flow modeling and synthetic river flow data generation. The results allow practitioners and planners to explore realistic decision-making scenarios for a given water resource system. Acknowledgments 22 We wish to thank the Associate Editor and two anonymous reviewers for comments and suggestions that led to improvements in the final manuscript. This research is partially supported by the National Science Foundation grant DMS-0139927. Article Information Please note: Wiley-Blackwell is not responsible for the content or functionality of any supporting information supplied by the authors. Any queries (other than missing content) should be directed to the corresponding author for the article. References Aban, I. B. M. M. Meerschaert. and A. K. Panorska ( 2006 ), Parameter estimation for the truncated Pareto distribution. J. Am. Stat. Assoc. in press. CrossRef Web of Sciencereg Times Cited: 75 Adams, G. J. and G. C. Goodwin ( 1995 ), Parameter estimation for periodically ARMA models. J. Time Ser. Anal. 16. 127 ndash 145. Wiley Online Library Anderson, P. L. and M. M. Meerschaert ( 1997 ), Periodic moving averages of random variables with regularly varying tails. Ann. Stat. 25. 771 ndash 785. CrossRef Web of Sciencereg Times Cited: 17 Anderson, P. L. and M. M. Meerschaert ( 1998 ), Modeling river flows with heavy tails. Water Resour. Res. 34 ( 9 ), 2271 ndash 2280. Wiley Online Library Web of Sciencereg Times Cited: 42 Anderson, P. L. and M. M. Meerschaert ( 2005 ), Parameter estimates for periodically stationary time series. J. Time Ser. Anal. 26. 489 ndash 518. Wiley Online Library Web of Sciencereg Times Cited: 14 Anderson, P. L. and A. V. Vecchia ( 1993 ), Asymptotic results for periodic autoregressive moving-average processes. J. Time Ser. Anal. 14. 1 ndash 18. Wiley Online Library Anderson, P. L. M. M. Meerschaert. and A. V. Veccia ( 1999 ), Innovations algorithm for periodically stationary time series. Stochastic Processes Their Appl. 83. 149 ndash 169. CrossRef Web of Sciencereg Times Cited: 14 Box, G. E. and G. M. Jenkins ( 1976 ), Time Series Analysis: Forcasting and Control. 2. Aufl. Holden-Day, Boca-Raton, Fla. Brockwell, P. J. and R. A. Davis ( 1991 ), Time Series: Theory and Methods. 2. Aufl. Springer, New York . Burroughs, S. M. and S. F. Tebbens ( 2001 a), Upper-truncated power law distributions. Fractals. 9. 209 ndash 222. CrossRef Web of Sciencereg Times Cited: 13 Burroughs, S. M. and S. F. Tebbens ( 2001 b), Upper-truncated power laws in natural systems. J. Pure Appl. Geophys. 158. 741 ndash 757. CrossRef Web of Sciencereg Times Cited: 39 ADS Burroughs, S. M. and S. F. Tebbens ( 2002 ), The upper-truncated power law applied to earthquake cumulative frequency-magnitude distributions. Stier. Seismol. Soc. Am. 92. 2983 ndash 2993. CrossRef Web of Sciencereg Times Cited: 19 ADS Chen, H.-L. and A. R. Rao ( 2002 ), Testing hydrologic time series for stationarity. J. Hydrol. Eng. 7 ( 2 ), 129 ndash 136. CrossRef Web of Sciencereg Times Cited: 31 Gentle, J. E. ( 2003 ), Random Number Generation and Monte Carlo Methods. 2. Aufl. Springer, New York . Jones, R. H. and W. M. Brelsford ( 1967 ), Times series with periodic structure. Biometrika. 54. 403 ndash 408. CrossRef PubMed CAS Web of Sciencereg Times Cited: 88 Lund, R. B. and I. V. Basawa ( 1999 ), Modeling and inference for periodically correlated time series. in Asymptotics, Nonparameterics, and Time Series. edited by S. Ghosh. 37 ndash 62. Marcel Dekker, New York . Lund, R. B. and I. V. Basawa ( 2000 ), Recursive prediction and likelihood evaluation for periodic ARMA models. J. Time Ser. Anal. 20 ( 1 ), 75 ndash 93. Wiley Online Library Web of Sciencereg Times Cited: 39 Maidment, D. R. ( 1993 ), Handbook of Hydrology. McGraw-Hill, New York . Mandelbrot, B. ( 1963 ), The variation of certain speculative prices. J. Bus. 36. 394 ndash 419. CrossRef Web of Sciencereg Times Cited: 1774 Pagano, M. ( 1978 ), On periodic and multiple autoregressions. Ann. Stat. 6 ( 6 ), 1310 ndash 1317. CrossRef Web of Sciencereg Times Cited: 141 Salas, J. D. ( 1993 ), Analysis and modeling of hydrologic time series. in Handbook of Hydrology. edited by D. R. Maidment. pp. 19.5 ndash 19.9. McGraw-Hill, New York . Salas, J. D. and J. T. B. Obeysekera ( 1992 ), Conceptual basis of seasonal streamflow time series models. J. Hydraul. Eng. 118 ( 8 ), 1186 ndash 1194. CrossRef Web of Sciencereg Times Cited: 18 Salas, J. D. J. W. Delleur. V. Yevjevich. and W. L. Lane ( 1980 ), Applied Modeling of Hydrologic Time Series. Water Resour. Publ. Highlands Ranch, Colo. Salas, J. D. J. T. B. Obeysekera. and R. A. Smith ( 1981 ), Identification of streamflow stochastic models. J. Hydraul. Div. Am. Soc. Civ. Eng. 107 ( 7 ), 853 ndash 866. Web of Sciencereg Times Cited: 9 Salas, J. D. D. C. Boes. and R. A. Smith ( 1982 ), Estimation of ARMA models with seasonal parameters. Water Resour. Res. 18. 1006 ndash 1010. Wiley Online Library Web of Sciencereg Times Cited: 53 Salas, J. D. G. Q. Tabios III and P. Bartolini ( 1985 ), Approaches to multivariate modeling of water resources time series. Water Resour. Stier. 21. 683 ndash 708. Wiley Online Library Shao, Q. and R. B. Lund ( 2004 ), Computation and characterization of autocorrelations and partial autocorrelations in periodic ARMA models. J. Time Ser. Anal. 25 ( 3 ), 359 ndash 372. Wiley Online Library Web of Sciencereg Times Cited: 20 Thompstone, R. M. K. W. Hipel. and A. I. McLeod ( 1985 ), Forecasting quarter-monthly riverflow. Water Resour. Stier. 25 ( 5 ), 731 ndash 741. Wiley Online Library Tiao, G. C. and M. R. Grupe ( 1980 ), Hidden periodic autoregressive moving average models in time series data. Biometrika. 67. 365 ndash 373. Web of Sciencereg Times Cited: 106 Tjoslashstheim, D. and J. Paulsen ( 1982 ), Empirical identification of multiple time series. J. Time Ser. Anal. 3. 265 ndash 282. Wiley Online Library Troutman, B. M. ( 1979 ), Some results in periodic autoregression. Biometrika. 6. 219 ndash 228. CrossRef Ula, T. A. ( 1990 ), Periodic covariance stationarity of multivariate periodic autoregressive moving average processes. Water Resour. Res. 26 ( 5 ), 855 ndash 861. Web of Sciencereg Times Cited: 14 Ula, T. A. ( 1993 ), Forcasting of multivariate periodic autoregressive moving average processes. J. Time Ser. Anal. 14. 645 ndash 657. Wiley Online Library Ula, T. A. and A. A. Smadi ( 1997 ), Periodic stationarity conditions for periodic autoregressive moving average processes as eigenvalue problems. Water Resour. Res. 33 ( 8 ), 1929 ndash 1934. Wiley Online Library Web of Sciencereg Times Cited: 18 Ula, T. A. and A. A. Smadi ( 2003 ), Identification of periodic moving average models. Commun. Stat. Theory Methods. 32 ( 12 ), 2465 ndash 2475. CrossRef Web of Sciencereg Times Cited: 6 Vecchia, A. V. ( 1985 a), Periodic autoregressive-moving average (PARMA) modelling with applications to water resources. Water Resour. Stier. 21. 721 ndash 730. Wiley Online Library Vecchia, A. V. ( 1985 b), Maximum likelihood estimation for periodic moving average models. Technometrics. 27 ( 4 ), 375 ndash 384. CrossRef Web of Sciencereg Times Cited: 59 Vecchia, A. V. and R. Ballerini ( 1991 ), Testing for periodic autocorrelations in seasonal time series data. Biometrika. 78 ( 1 ), 53 ndash 63. CrossRef Web of Sciencereg Times Cited: 40 Related content Articles related to the one you are viewing Please enable Javascript to view the related content of this article. Citing Literature Number of times cited. 20 1 Tucker McElroy. On the measurement and treatment of extremes in time series, Extremes. 2016 CrossRef 2 Youcun Liu. Jing Wu. Yan Liu. Bill X. Hu. Yonghong Hao. Xueli Huo. Yonghui Fan. Tianchyi J. Yeh. Zhong-Liang Wang. Analyzing effects of climate change on streamflow in a glacier mountain catchment using an ARMA model, Quaternary International. 2015. 358. 137 CrossRef 3 Eugen Ursu. Jean-Christophe Pereau. Application of periodic autoregressive process to the modeling of the Garonne river flows, Stochastic Environmental Research and Risk Assessment. 2015 CrossRef 4 Bertrand Saulquin. Ronan Fablet. Pierre Ailliot. Gregoire Mercier. David Doxaran. Antoine Mangin. Odile Hembise Fanton dAndon. Characterization of Time-Varying Regimes in Remote Sensing Time Series: Application to the Forecasting of Satellite-Derived Suspended Matter Concentrations, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 2015. 8. 1, 406 CrossRef 5 Francisco J. Alcalaacute. Emilio Custodio. Natural uncertainty of spatial average aquifer recharge through atmospheric chloride mass balance in continental Spain, Journal of Hydrology. 2015. 524. 642 CrossRef 6 Reza Hosseini. Akimichi Takemura. Alireza Hosseini. Non-linear time-varying stochastic models for agroclimate risk assessment, Environmental and Ecological Statistics. 2015. 22. 2, 227 CrossRef 7 A Nonlinear Semantic-Preserving Projection Approach to Visualize Multivariate Periodical Time Series, IEEE Transactions on Neural Networks and Learning Systems. 2014. 25. 6, 1053 CrossRef 8 K Li. J Qi. C Brown. J Ryan. Effect of scenario assumptions on climate change risk estimates in a water resource system, Climate Research. 2014. 59. 2, 149 CrossRef 9 L. Tang. Q. Shao. EFFICIENT ESTIMATION FOR PERIODIC AUTOREGRESSIVE COEFFICIENTS VIA RESIDUALS, Journal of Time Series Analysis. 2014. 35. 4, 378 Wiley Online Library 10 John H. Cushman. Daniel OrsquoMalley. Moongyu Park. Anomalous dispersion, renormalization groups, scaling laws and classification: A reflection on recent efforts, Advances in Water Resources. 2013. 62. 207 CrossRef 11 Paul L. Anderson. Mark M. Meerschaert. Kai Zhang. Forecasting with prediction intervals for periodic autoregressive moving average models, Journal of Time Series Analysis. 2013. 34. 2, 187 Wiley Online Library 12 Fayccedilal Hamdi. Computing the Exact Fisher Information Matrix of Periodic State-Space Models, Communications in Statistics - Theory and Methods. 2012. 41. 22, 4182 CrossRef 13 M. C. Bowers. W. W. Tung. J. B. Gao. On the distributions of seasonal river flows: Lognormal or power law. Water Resources Research. 2012. 48. 5, n/a Wiley Online Library 14 Eugen Ursu. Kamil Feridun Turkman. Periodic autoregressive model identification using genetic algorithms, Journal of Time Series Analysis. 2012. 33. 3, 398 Wiley Online Library 15 Christian Francq. Roch Roy. Abdessamad Saidi. Asymptotic Properties of Weighted Least Squares Estimation in Weak PARMA Models, Journal of Time Series Analysis. 2011. 32. 6, 699 Wiley Online Library 16 Yonas Gebeyehu Tesfaye. Paul L. Anderson. Mark M. Meerschaert. Asymptotic results for Fourier-PARMA time series, Journal of Time Series Analysis. 2011. 32. 2, 157 Wiley Online Library 17 Magda Monteiro. Manuel G. Scotto. Isabel Pereira. Integer-valued autoregressive processes with periodic structure, Journal of Statistical Planning and Inference. 2010. 140. 6, 1529 CrossRef 18 Paul L. Anderson. Laimonis Kavalieris. Mark M. Meerschaert. Innovations algorithm asymptotics for periodically stationary time series with heavy tails, Journal of Multivariate Analysis. 2008. 99. 1, 94 CrossRef 19 Paul L. Anderson. Yonas Gebeyehu Tesfaye. Mark M. Meerschaert. Fourier-PARMA Models and Their Application to River Flows, Journal of Hydrologic Engineering. 2007. 12. 5, 462 CrossRef 20 Jozef Komorniacutek. Magda Komorniacutekovaacute. Radko Mesiar. Danux161a Szoumlkeovaacute. Jaacuten Szolgay. Comparison of forecasting performance of nonlinear models of hydrological time series, Physics and Chemistry of the Earth, Parts A/B/C. 2006. 31. 18, 1127 CrossRef


No comments:

Post a Comment