Analyse von Auf- / Ab-Mustern in kurzen Zeitreihendaten

8

Ich habe nicht sehr häufig mit Zeitreihendaten gearbeitet, daher suche ich nach Hinweisen, wie ich mit dieser speziellen Frage am besten umgehen kann.

Angenommen, ich habe die folgenden Daten - unten grafisch dargestellt:

Geben Sie hier die Bildbeschreibung ein

Hier gibt es ein Jahr auf der x-Achse. Die y-Achse ist ein Maß für die „Ungleichheit“, z. B. könnte es sich um eine Einkommensungleichheit in einem Land handeln.

Bei dieser Frage möchte ich fragen, ob die Daten Jahr für Jahr einen Auf- / Ab-Charakter haben (mangels einer besseren Beschreibung). Im Wesentlichen möchte ich fragen, ob die Ungleichheit, wenn sie im letzten Jahr gegenüber dem Vorjahr gestiegen ist, jetzt wahrscheinlich wieder abnimmt. Die Größe der Höhen / Tiefen kann ebenfalls wichtig sein.

Ich denke, dass so etwas wie wavelet analysisoder Fourier analysishelfen könnte, obwohl ich diese noch nicht verwendet habe und ich glaube, dass eine Stichprobengröße wie diese zu klein ist.

Würde mich für Ideen / Vorschläge interessieren, die ich weiterverfolgen kann.

BEARBEITEN:

Dies sind die Daten für dieses Diagramm:

#   year     value
#1  1956 0.9570912
#2  1957 1.0303563
#3  1958 0.9568302
#4  1959 1.1449074
#5  1960 0.8962963
#6  1961 1.0431552
#7  1962 0.8050077
#8  1963 0.8533181
#9  1964 0.9971713
#10 1965 1.0453083
#11 1966 0.8221328
#12 1967 1.0594876
#13 1968 1.1244195
#14 1969 1.0705498
#15 1970 0.8669457
#16 1971 0.8757319
#17 1972 1.0815189
#18 1973 1.1458959
#19 1974 1.2782848
#20 1975 1.0729718
#21 1976 1.1569416
#22 1977 1.2063673
#23 1978 1.1509700
#24 1979 1.1172020
#25 1980 1.0691429
#26 1981 1.0907407
#27 1982 1.1753854
#28 1983 0.9440187
#29 1984 1.1214175
#30 1985 1.2777778
#31 1986 1.2141739
#32 1987 0.9481722
#33 1988 1.1484652
#34 1989 0.7968458
#35 1990 1.1721074
#36 1991 1.1569523
#37 1992 0.8160300
#38 1993 0.9483291
#39 1994 1.0898612
#40 1995 0.8196819
#41 1996 1.0297017
#42 1997 1.0207769
#43 1998 0.9720285
#44 1999 0.8685848
#45 2000 0.9228595
#46 2001 0.9171540
#47 2002 1.0470085
#48 2003 0.9313437
#49 2004 1.0943982
#50 2005 1.0248419
#51 2006 0.9392917
#52 2007 0.9666248
#53 2008 1.1243693
#54 2009 0.8829184
#55 2010 0.9619517
#56 2011 1.0030864
#57 2012 1.1576998
#58 2013 0.9944945

Hier sind sie im RFormat:

structure(list(year = structure(1:58, .Label = c("1956", "1957", 
"1958", "1959", "1960", "1961", "1962", "1963", "1964", "1965", 
"1966", "1967", "1968", "1969", "1970", "1971", "1972", "1973", 
"1974", "1975", "1976", "1977", "1978", "1979", "1980", "1981", 
"1982", "1983", "1984", "1985", "1986", "1987", "1988", "1989", 
"1990", "1991", "1992", "1993", "1994", "1995", "1996", "1997", 
"1998", "1999", "2000", "2001", "2002", "2003", "2004", "2005", 
"2006", "2007", "2008", "2009", "2010", "2011", "2012", "2013"
), class = "factor"), value = c(0.957091237579043, 1.03035630567276, 
0.956830206830207, 1.14490740740741, 0.896296296296296, 1.04315524964493, 
0.805007684426229, 0.853318117977528, 0.997171336206897, 1.04530832219251, 
0.822132760780104, 1.05948756976154, 1.1244195265602, 1.07054981337927, 
0.866945712836124, 0.875731948296804, 1.081518931763, 1.1458958958959, 
1.27828479729065, 1.07297178130511, 1.15694159981794, 1.20636732623034, 
1.15097001763668, 1.11720201026986, 1.06914289768696, 1.09074074074074, 
1.17538544689082, 0.944018731375053, 1.12141754850088, 1.27777777777778, 
1.21417390277039, 0.948172198172198, 1.14846524606799, 0.796845829569407, 
1.17210737869653, 1.15695226716732, 0.816029959161985, 0.94832907620264, 
1.08986124767836, 0.819681861348528, 1.02970169141241, 1.02077687443541, 
0.972028455959697, 0.868584838281808, 0.922859547859548, 0.917153996101365, 
1.04700854700855, 0.931343718539713, 1.09439821062628, 1.02484191508582, 
0.939291692822766, 0.966624816907303, 1.12436929683306, 0.882918437563246, 
0.961951667980037, 1.00308641975309, 1.15769980506823, 0.994494494494494
)), row.names = c(NA, -58L), class = "data.frame", .Names = c("year", 
"value"))
Jalapic
quelle
Eine sehr einfache Idee: Wie wäre es, die Zeitreihen der Unterschiede zu nehmen und die Autokorrelationskoeffizienten zu betrachten?
Psarka
Die Daten werden nun als Ungleichung angezeigt, die unter Verwendung der Lorenz-Asymmetrie gemessen wurde. Siehe den Kommentar von OP unter der Antwort von @IrishStat. Aber wie sieht die glattere Kurve aus? Wenn Sie bei dem, was Sie zeigen, zurückhaltend sind, wird die Frage normalerweise nur kryptischer und nicht allgemeiner.
Nick Cox
@jalapic Fourier-Analyse an einer kurzen Beobachtungsstichprobe ist fast immer sinnlos. Sie können einen Zyklus mit einer Wellenlänge von 25 Jahren auswählen, aber er wird sehr schwach sein. Sie haben bestenfalls kaum einen vollen Zyklus. Fourier wurde für physikalische Daten entwickelt, bei denen Sie wiederholbare oder zumindest lange Serien haben.
Aksakal
Sie erkennen, dass die von Ihnen beschriebene Auf-Ab-Natur gut zur Idee der Regression zum Mittelwert passt. Dh Sie werden dieses Auf-Ab-Verhalten haben, auch wenn Ihre Serie kein Gedächtnis im Arima-Sinne hat.
Korone

Antworten:

6

Wenn die Reihe nicht korreliert ist, führt die unnötige Aufnahme von Differenzen zu einer Autokorrelation. Selbst wenn die Serie autokorreliert ist, ist eine ungerechtfertigte Differenzierung unangemessen. Einfache Ideen und einfache Ansätze haben oft unerwünschte Nebenwirkungen. Der Modellidentifizierungsprozess (ARIMA) beginnt mit der Originalserie und kann zu einer Differenzierung führen, sollte jedoch niemals mit einer ungerechtfertigten Differenzierung beginnen, es sei denn, es liegt eine theoretische Begründung vor. Wenn Sie möchten, können Sie Ihre kurzen Zeitreihen veröffentlichen, und ich werde sie verwenden, um Ihnen zu erklären, wie Sie ein Modell für diese Reihe identifizieren können.

Nach Erhalt der Daten:

Der ACF Ihrer Daten zeigt anfangs (oder schließlich) keinen ARIMA-Prozess an, sowohl bei ACF als auch bei PACF
Bild
und hier nur bei ACF:
BildEs scheint jedoch zwei Ebenenverschiebungen in Ihren Daten zu geben ... eine bei 1972 und die andere bei 1992 .. Sie scheinen Pegelverschiebungen fast aufzuheben. Ein nützliches Modell könnte auch die Einbeziehung von drei ungewöhnlichen Werten in den Zeiträumen 1989, 1959 und 1983 umfassen. Die Gleichung lautet dann Bild
und hier
Bild
mit Modellstatistiken hier:
Bild
Die tatsächliche / Anpassung und Prognose ist hier, Bildwobei das Restdiagramm hier auf eine ausreichende Modellierung hinweist Bild. Dies wird durch die ACF der Residuen bestätigt Bild. Schließlich fassen die Passform und die Prognose die Ergebnisse zusammen Bild.
Zusammenfassend ist die Reihe (wahrscheinlich ein Verhältnis) ohne signifikantes auto-regressives Gedächtnis, weist jedoch eine offensichtliche deterministische Struktur auf (statistisch signifikant). Alle Modelle sind falsch, aber einige sind nützlich (GEP Box).

Nach einiger Diskussion ... Wenn man Unterschiede modellieren würde, würde man das folgende Modell erhalten ... Geben Sie hier die Bildbeschreibung einmit ACTUAL / FIT und FORECAST Geben Sie hier die Bildbeschreibung ein. Prognosen sehen unheimlich ähnlich aus ... der MA-Koeffizient hebt den Differenzierungsoperator effektiv auf.

IrishStat
quelle
Vielen Dank für die Vorschläge. Ich wäre sehr daran interessiert, mehr zu hören - ich habe der Frage die Rohdaten hinzugefügt.
Jalapic
2
@IrishStat schlug ein Modell mit 6 Parametern vor. Der gesamte Datensatz umfasst 58 Beobachtungen. Dies macht es 10 Beobachtungen pro Parameter. Selbst wenn dies keine Wirtschaftsdaten wären, würde ich sagen, dass eine Stichprobe zu klein ist, um ein 6-Parameter-Modell zu unterstützen. Da dies ein Wirtschaftsmodell ist, werde ich sagen, dass ein reines Zeitreihenmodell nicht funktionieren wird. Sie benötigen exogene Variablen (BIP?) Oder ein Strukturmodell.
Aksakal
2
Das Modell könnte leicht vereinfacht werden, um die drei aberranten Punkte (Impulse) zu ignorieren. Dies würde sich auf 3 Koeffizienten reduzieren. Eine Konstante und zwei Pegelverschiebungsindikatoren könnten nicht einfacher sein! und würde immer noch eine vernünftige Darstellung liefern ... zwei Ebenenverschiebungen. Ich bin damit einverstanden, dass ein reines Zeitreihenmodell nicht funktionieren wird. Das Modell, das ich vorgestellt habe, ist einfach ein gewöhnliches Regressionsmodell mit zwei Pegelverschiebungsindikatoren ... es gibt keinen Speicher, daher handelt es sich klassisch nicht um ein Zeitreihenmodell, da das Modell keine ARIMA-Struktur enthält, da es nicht gerechtfertigt ist.
IrishStat
Man kann nicht weinen "Ich brauche mehr Variablen", obwohl meine Erfahrung mir sagt, dass dies so ist. Dieses Problem ist was es ist! Löse es !
IrishStat
@aksakal, was das irishstat-Modell zeigt, ist, dass es 5 Variablen hat. Wenn es um Sparsamkeit geht, können Sie einfach die Impulse ausschalten und einfach die Pegelverschiebungen beibehalten, die die Operationsfrage beantworten würden. Ich kenne keine andere Methode als die Autobox, die diese Art der Pegelverschiebungserkennung effizient durchführt, bevor ein Zeitreihenmodell ausgewählt wird
Prognostiker
3

Sie können das Auf und Ab als zufällige Sequenz betrachten, die durch einen zufälligen Prozess generiert wird. Nehmen wir zum Beispiel an, Sie haben es mit einer stationären Reihe tun , wobei eine Wahrscheinlichkeitsverteilung wie Gauß, Poisson oder irgendetwas anderes ist. Dies ist eine stationäre Serie. Jetzt können Sie neue Variable erstellen so dass und , das sind Ihre Höhen und Tiefen. Diese neue Sequenz wird eine eigene Zufallssequenz mit interessanten Eigenschaften bilden, siehe z. B. V Khil, Elena. "Markov-Eigenschaften von Lücken zwischen lokalen Maxima in einer Folge unabhängiger Zufallsvariablen." (2013).x1,x2,x3,...,xnf(x)f(x)ytyt=1:xt<xt+1yt=0:xtxt+1

Schauen Sie sich zum Beispiel ACF und PACF Ihrer Serie an. Hier ist nichts. Dies scheint kein ARIMA-Modell zu sein. Es sieht aus wie eine unkorrelierte Folge von . xtGeben Sie hier die Bildbeschreibung ein

Dies bedeutet, dass wir versuchen könnten, bekannte Ergebnisse für , z. B. ist bekannt, dass der durchschnittliche Abstand zwischen zwei (Auf-Ab-) Paaren (oder , wie manche sie nennen) 3 beträgt. In Ihrem Datensatz ist der erste Peak (Auf-) down) ist 1957 und der letzte ist 2012 mit insgesamt 16 Peaks. Der durchschnittliche Abstand zwischen den Peaks beträgt also 15/55 = 3,67. Wir wissen, dass und mit 15 Beobachtungen . Der mittlere Abstand zwischen den Peaks liegt also innerhalb von vom theoretischen Mittelwert.ytσ=1.1081,2σnσ15=σ/15=0.291.2σn

UPDATE: in Zyklen

Die Grafik in der Frage von OP scheint darauf hinzudeuten, dass es einen langen Zyklus gibt. Hierbei gibt es mehrere Probleme.

  1. Wenn Sie eine zufällige Sequenz generieren, erscheint manchmal so etwas wie ein Zyklus nur zufällig. Mit 58 Datenpunkten, die reine Beobachtungsdaten sind, ist es unmöglich, einen Zyklus ohne eine ökonomische Theorie dahinter zu deklarieren. Niemand wird es ohne die wirtschaftliche Begründung ernst nehmen. Dafür braucht man definitiv exogene Variablen, fürchte ich.
  2. Schauen Sie sich dieses wundervolle Papier an: Die Zusammenfassung zufälliger Ursachen als Quelle zyklischer Prozesse , Eugen Slutzky, Econometrica, Vol. 3, No. 5, Nr. 2 (April 1937), S. 105-146. Grundsätzlich werden Zyklen manchmal durch eine Art MA-Prozess verursacht.
  3. Dies könnte eine Illusion sein. Ich benutze diesen Trick ziemlich oft in Präsentationen. Ich zeige die tatsächlichen Daten und zeichne dann Linien, Kreise oder Pfeile, um das Gehirn meines Publikums zu verwirren :) Die zusätzlichen Linien bringen das Gehirn dazu, Trends zu erkennen, die möglicherweise überhaupt nicht vorhanden sind, oder sie viel stärker aussehen zu lassen, als sie tatsächlich sind.
Aksakal
quelle
In 45 Monaten in diesem Forum habe ich selten eine Antwort kommentiert, ABER in diesem Fall lässt mich Ihre Antwort mit gerunzelter Stirn und sprachlos zurück. Können Sie bitte Ihr Modell, Ihre Signifikanztests, Tests bezüglich Ihrer Annahmen, eine Prognose mit Konfidenzintervallen und eine logische Schlussfolgerung erläutern?
IrishStat
1
Dies ist nicht mein Modell. Die Idee ist einfach: Wenn Sie eine unkorrelierte Folge von , können Sie daraus eine andere Folge erstellen, z. B. , die 1 hat, wenn im Vergleich zum vorherigen Wert ist , und 0, wenn sie ist. In diesem Fall gibt das [1,0] in ein lokales Maximum (Peak) in , wie in den Jahren 1957 und 1959. Der Rest ist einfach, Sie können alle möglichen Statistiken für die Sequenz . Ich habe darüber nachgedacht, weil OP im Titel der Frage "hoch / runter" hat. Die Sequenz hat viele interessante markovsche Merkmale. y t x t y t x t y t y txtytxtytxtytyt
Aksakal
Meiner Meinung nach war sein Auf und Ab nicht von Zeit zu Zeit, sondern über einen längeren Zeitraum. Danke für Ihre Erklärung. Seine Daten enthalten nichts, was auf eine vorhersehbare Auf- / Ab-Sequenz hindeutet.
IrishStat
Sie sind in diesem Modell nicht vorhersehbar. Sie sind zufällig, aber korreliert
Aksakal
Ich bin der festen Überzeugung, dass sie nicht korreliert sind ... innerhalb jedes der drei Regime: 1956-1972 .... 1973-1991 ... 1992-2013 ... vorausgesetzt, Sie passen / modifizieren die drei ungewöhnlichen Punkte / Messwerte.
IrishStat
2

Neben 1: Eine Sache, die wir sehen, ist das Auftreten eines langen zyklischen Trends in den Daten. Dies sollte die Analyse von Jahr zu Jahr nicht allzu sehr beeinflussen *. Bei dieser sehr grundlegenden Analyse werde ich dies ignorieren und die Daten so behandeln, als wären sie homogen, abgesehen von dem Effekt, an dem Sie interessiert sind.

* (Es wird dazu neigen, die Anzahl der Bewegungen in entgegengesetzter Richtung von dem zu verringern, was Sie mit Homogenität erwarten würden. Daher wird es dazu neigen, die Leistung dieses Tests etwas zu verringern. Wir könnten versuchen, diesen Einfluss zu quantifizieren, aber ich denke nicht Es besteht ein starker Bedarf, es sei denn, er scheint groß genug zu sein, um einen Unterschied zu bewirken. Wenn er bereits signifikant ist, wäre es eine Verschwendung von Aufwand, sich auf etwas einzustellen, das den p-Wert etwas kleiner macht.)

Neben 2: Wie bereits erwähnt, scheint Ihre Frage eine einseitige Alternative zu beinhalten. Ich werde auf der Grundlage arbeiten, dass dies das ist, was Sie wollen.

Beginnen wir mit einer einfachen Analyse, die sich direkt mit Ihrer Grundfrage befasst. Diese scheint im Sinne von "Ist es wahrscheinlicher, dass auf eine Zunahme eine Abnahme folgt?"

Es ist jedoch nicht so einfach, wie es zuerst erscheinen mag. In einer stabilen Serie, mit rein zufälligen Daten, ein Anstieg ist eher durch eine Abnahme folgen. Beachten Sie, dass die Hypothese, die wir betrachten, drei Beobachtungen umfasst, die auf sechs mögliche Arten geordnet werden können:

Geben Sie hier die Bildbeschreibung ein

Von diesen sechs Möglichkeiten beinhalten 4 eine Richtungsänderung. Eine rein zufällige Reihe (unabhängig von der Verteilung) sollte also 2/3 der Zeit einen Flip in Richtung sehen.

[Dies hängt eng mit einem Run-Up-and-Down-Test zusammen, bei dem Sie daran interessiert sind, ob es zu viele Runs gibt, um zufällig zu sein. Sie könnten stattdessen diesen Test verwenden.]

Ich gehe davon aus, dass Ihr tatsächliches Interesse darin besteht, ob es höher als das zufällige 2/3 ist und nicht, ob es mehr als 1/2 ist, wie Sie zu fragen schienen.

H0: Die Serie ist "zufällig"

H1: eine Verschiebung nach oben oder unten folgt eher eine Verschiebung in die entgegengesetzte Richtung als bei einer zufälligen Reihe

Teststatistik: Anteil der Verschiebungen, gefolgt von Verschiebungen in die entgegengesetzte Richtung.

Da sich unsere Tripel überschneiden, glaube ich, dass wir eine gewisse Abhängigkeit zwischen Tripeln haben, sodass wir dies nicht als Binomial behandeln können (wir könnten es, wenn wir die Daten in nicht überlappende Tripel aufteilen; das würde gut funktionieren).

Unter Berücksichtigung dieser Abhängigkeit könnten wir die Verteilung der Teststatistik noch berechnen, müssen dies aber in diesem Fall nicht, da der beobachtete Anteil der dreifachen Richtungsumkehr knapp unter der erwarteten Anzahl von 2/3 für eine Zufallsreihe liegt und wir sind nur an mehr Umkehrungen interessiert.

Wir müssen also nicht weiter rechnen - es gibt überhaupt keine Hinweise darauf, dass die Tendenz besteht, mehr umzukehren (auf-ab oder ab-auf) als bei einer zufälligen Serie.

[Ich bezweifle wirklich, dass der vernachlässigte milde Zyklus genug Einfluss haben wird, um den erwarteten Anteil annähernd so weit nach unten zu bewegen, dass dies einen wesentlichen Unterschied macht.]

Glen_b -Reinstate Monica
quelle
danke - sehr interessant. Eine kurze Frage zum Lauftest. Beziehen Sie sich auf den typischen Lauftest, um die Zufälligkeit zu testen? Aus den obigen Daten kann ich den folgenden Lauf erzeugen: 1 0 1 0 1 0 1 1 1 0 1 1 0 0 1 1 1 1 0 1 1 0 0 0 1 1 0 1 1 0 0 1 0 1 0 0 1 1 0 1 0 0 0 1 0 1 0 1 0 0 1 1 0 1 1 1 0Eine 1 zeigt an, dass die Serie steigt, und eine 0, die sinkt. Unter Verwendung runs.testdes tseriesR-Pakets ergibt dies eine Teststatistik von 1,81 und einen ap von 0,07. Obwohl ich mir über diese Beispieldaten keine allzu großen Sorgen mache, frage ich mich, ob dies die Art von Analyse ist, auf die Sie sich bezogen haben.
Jalapic
Nein, ich glaube, das ist einzigartig (z. B. zum Verklumpen von Schildern), nicht hoch und runter. Es wäre für eine etwas andere Art von Hypothese geeignet.
Glen_b -State Monica
@Glen_b, die sechs möglichen Arten von Auf und Ab und ähnliches werden in der Literatur behandelt, die sich aus dem Artikel ergibt, den ich in meiner Antwort gepostet habe. Insbesondere auf Ihrem Bild können Sie leicht erkennen, dass es zwei Möglichkeiten gibt, aus sechs Kombinationen eine Auf-Ab-Sequenz zu erstellen. Dies bedeutet, dass P =
1/3
@Aksakal Dass sie verbunden sind, ist keine Überraschung, da sie eng verwandte Dinge in Betracht ziehen (ich kann Ihre Antwort nur einmal positiv bewerten, sorry). Ich habe mich nur entschlossen, die wörtlichste Interpretation der Frage so elementar wie möglich zu beantworten, weil ich dachte, es könnte sich als aufschlussreich erweisen, zu zeigen, dass eine ziemlich grundlegende Analyse, die über das Zählen hinaus wenig Mathematik erfordert, einige nützliche Ergebnisse liefern könnte.
Glen_b -State Monica
jalapic - siehe diese Seite, auf der Run -up-and-down und eine bestimmte Version von Run -of-One-Type behandelt werden. Es gibt eine praktische normale Annäherung für Auf- und Abfahrten und sollte auch zur Verdeutlichung der Unterscheidung beitragen.
Glen_b -State Monica
1

Sie können ein Paket namens Strukturänderung verwenden, das nach Brüchen oder Ebenenverschiebungen in den Daten sucht. Es ist mir gelungen, Pegelverschiebungen für nicht saisonale Zeitreihen automatisch zu erkennen.

Ich habe Ihren "Wert" in Zeitreihendaten umgewandelt. und verwendete den folgenden Code, um nach Pegelverschiebungen oder Änderungspunkten oder Haltepunkten zu suchen. Das Paket hat auch nette Funktionen wie Chow-Test, um Chow-Test zu machen, um auf Strukturbrüche zu testen:

require(strucchange)
value.ts <- ts(data[,2],frequency = 1, start = (1956))
bp.value <- breakpoints(value.ts ~ 1)
summary(bp.value)

Es folgt die Zusammenfassung der Breakpont-Funktion:

Breakpoints at observation number:

m = 1           36      
m = 2     16    31      
m = 3     16    36    46
m = 4     16 24 36    46
m = 5   8 16 24 36    46
m = 6   8 16 24 33 41 49

Corresponding to breakdates:

m = 1                  1991          
m = 2        1971      1986          
m = 3        1971      1991      2001
m = 4        1971 1979 1991      2001
m = 5   1963 1971 1979 1991      2001
m = 6   1963 1971 1979 1988 1996 2004

Fit:

m   0           1           2           3           4           5           6          
RSS   0.8599316   0.7865981   0.5843395   0.5742085   0.5578739   0.5559645   0.5772778
BIC -71.5402819 -68.5892480 -77.7080112 -70.6015129 -64.1544916 -56.2324540 -45.9296608

Wie Sie sehen können, hat die Funktion mögliche Brüche in Ihren Daten identifiziert und 1971 und 1986 zwei Strukturbrüche ausgewählt, wie in der folgenden Darstellung basierend auf dem BIC-Kriterium gezeigt. Die Funktion stellte auch andere alternative Haltepunkte bereit, wie in der obigen Ausgabe aufgeführt.

Geben Sie hier die Bildbeschreibung ein

Hoffe das ist hilfreich

Prognostiker
quelle
Das Problem mit dem von Ihnen verwendeten Ansatz besteht darin, dass stillschweigend keine Impulse und (wahrscheinlich) keine ARIMA-Struktur angenommen werden. Meine Pausen sind "auf oder um die Basis" 1972 und 1992 ... Ihre sind 1971 und 1986, ohne die Anomalie von 1989 zu beachten. Zusammenfassend sind die Analysen nicht so unterschiedlich, da meine gegenüber einmaligen Anomalien robust sind.
IrishStat
@IrishStat du hast recht. Autobox identifiziert tatsächlich Korrekturen für Impulse und identifiziert dann korrekt für Pegelverschiebung. Ein Problem, das ich mit dem Strukturänderungspaket in R hatte, ist, dass es für nicht saisonale Zeitreihen recht gut funktioniert, in saisonalen Zeitreihen nur sehr begrenzt oder gar nicht verwendet wird, was Autobox sicher sehr gut handhabt.
Prognostiker