• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Berechnung bedingter Erwartungswert ohne Kenntnis der Verteilung

Mitglied seit
21.02.2009
Beiträge
2.110
Reaktionen
0
Zunächst der Hintergrund, für das eigentliche Problem irrelevant:

Sei A(L)y_t = e_t ein VAR-Prozess, A(L) also ein Lag Polynomial und e_t ein kx1 Vektor an Zufallsvariablen. Dann ist die Kovarianz Matrix E(e_te_t´) im Allgemeinen keine Diagonalmatrix: um Aussagen über die Wirkung eines Schocks in der iten Variable auf den Vektor y_t treffen zu können, muss also modelliert werden, wie sich e_t in Begleitung eines Schocks zu e_it verhält. Klassische Vorgehen dazu: Cholesky, SVAR. Alternative: Generalized Impulses, dazu benötigt: E(e_t unter der Bedingung e_it = x), x aus R.

Ok, soviel zum VAR Hintergrund, nun das statistische Problem:

Ich habe etwa 160 Realisierungen einer kx1 Zufallsvariable, eben die 160 Werte für den Vektor der Residuen e_t. Ich kenne nicht die Verteilung, insbesondere kann ich die Annahme einer Normalverteilung verwerfen. Ziel ist es jetzt, den bedingten Erwartungswert für den Vektor e_t zu berechnen unter der Information, dass die ite Komponente einen bestimmten Wert x annimmt, e_it = x. Also gesucht: E(e_t unter der Bedingung e_it = x), x aus R.

Verbal: Gesucht der Erwartungswert des Vektors e_t unter der Bedingung, dass eine der Komponenten festgelegt ist.


Ich habe fast die Befürchtung, dass das nicht geht. Aber vielleicht hat ja jemand eine gute Idee, in welche Richtung ich mal nach Literatur suchen könnte bzw. was ich machen könnte.
 
Mitglied seit
04.10.2006
Beiträge
643
Reaktionen
0
Ort
München
Hallo Childerich,

ich verstehe schon worauf Du hinauswillst, aber:

müsstest Du nicht einfach nur "über alle Beobachtungen mitteln, bei denen die Komponente K_1=k_1 ist?"

Zumindest wäre das der korrekte Weg für die Betrachtung eines Samples, oder?

Beste Grüße,
X

Edith sagt:
Eventuell schaust Du dir ansonsten parameter-,d.h. verteilungsannahmenfreie Größen wie etwa den Median an? Oder ist das nicht zielführend?
 
Mitglied seit
21.02.2009
Beiträge
2.110
Reaktionen
0
Hallo xornado,
erstmal vielen Dank für deine Antwort.

Ich habe ingesamt 160 Vektoren an Beobachtungen, die werden in der iten Komponente irgendwelche Zahlen wie -0,31213123, 0,23565237, 2,01123124 usw haben. Ich interessiere mich für den Erwartungswert des vektors e_t unter der Bedingung das die ite Komponente 1 ist oder der Standardabweichung entspricht. Worauf ich hinauswill: Die Wahrscheinlichkeit, dass auch nur einer der Vektoren an der iten Stelle die passende Zahl hat, ist Null.

Ok, verteilungsfreie Verfahren wären natürlich super. Den Median einer Komponente könnte ich auch entsprechend aus dem Sample schätzen, entweder direkt oder per Bootstrap oder whatever. Aber hier will ich ja sagen: die eine Komponente des Vektors nimmt einen Wert an, der im Sample nicht aufgetreten ist. Trotzdem will ich gerne den bedingten Erwartungswert des Vektors haben.

Also: Für "unconditional" Werte kein Problem, aber hier sollen "conditional" Werte betrachtet werden.


Ich hoffe natürlich, dass ich deine Bemerkungen richtig verstanden habe, ansonsten bitte ich um Korrektur.
 
Mitglied seit
21.08.2010
Beiträge
8.008
Reaktionen
1.107
Hab ich dich falsch verstanden, oder hast du nicht-kointegrierte Zeitreihen? Spontan würde ich sagen dass der bedingte Erwartungswert ohne Kointegration ohnehin gleich der unbedingten ist.
Durch die Modellierung soll doch gerade erreicht werden dass der resultierende Fehlerterm uninformativ ist. D.h. wenn noch Systematik drin ist, ist irgendetwas fehlspezifiziert. Falls du kointegrierte Zeitreihen hast --> VECM.
Oder (s.o.) hab ich dich falsch verstanden?
 
Mitglied seit
21.02.2009
Beiträge
2.110
Reaktionen
0
Hallo Bootdiskette,
lieben Dank für deine Antwort. Aus Gründen der Einfachheit gehe ich von stationären Zeitreihen aus. Das ist mir schon deshalb ganz recht, weil ich von Kointegration nur die Grundbegriffe verstehe ;)

Ok, kurz dazu wie die Korrelation im Störterm zustande kommt:

Sei A_0y_t = A_1y_t-1 + ... A_Ky_t-k+u das strukturelle Modell der Volkswirtschaft und u, wie von dir angesprochen, "uninformativ" in dem Sinne, dass E(uu´) diagonal ist.

Aber: Schätzen lässt sich nur die reduced form, setze B = A_0^-1. Dann schätzt du
y_t = BA_1y_t-1 + ... BA_Ky_t-k+Bu

Mit e = Bu ist klar, dass E(ee´) = BE(uu´)B´, eben im allgemeinen nicht diagonal ist. Im Falle einer contemporaneous Beziehung zwischen den Variablen kriegt man das auch nicht aus der reduced form, fürs schätzen ist es egal: equation by equation OLSE = ML Schätzer.

Ziel ist es nun, vernünftige Impulse Responses zu berechnen. Dazu können wir nicht einfach eine Komponente in e schocken, weil wir dann die gegenwärtigen Beziehungen in A_0 ignorieren würden. Das Berechnen von E(e_t unter der Bedingung e_it = x) wäre eben eine Möglichkeit, diese zu modellieren, man würde auf diesem Wege vernünftige Schätzer für die Impulse Responses bekommen.

Hmm, ich denke nicht, dass der bedingte Erwartungswert gleich dem unbedingten ist. In diesem Fall sind die Kovarianzen zwischen den Variablen i.d.R. ungleich Null, sprich es kann keine Unabhängigkeit vorliegen, die deine These stützen würde.
 
Mitglied seit
21.08.2010
Beiträge
8.008
Reaktionen
1.107
bin dummerweise grad knapp mit der zeit: 20:00 sport UND feuerzangenbowlenparty :ugly:
daher antwort später (d.h. morgen), wie oben (nicht) geschrieben, hab ich länger nichts mit VARs gemacht und muss da ein paar minuten investieren damit ich wieder reinkomme.
ich nehme an du machst irgendeinen makro-kram?
 
Mitglied seit
21.08.2010
Beiträge
8.008
Reaktionen
1.107
und bitte sei nicht so freundlich, das kann man hier nur als harte ironie auffassen :ugly:
 
Mitglied seit
21.02.2009
Beiträge
2.110
Reaktionen
0
Bitte? Warum sollte ich in diesem Abschnitt des Forums nicht freundlich sein?

Zumal ich ja dankbar bin, wenn sich jemand mit mir gemeinsam Gedanken macht.

Und ja, ich mache Makro Kram!
 
Mitglied seit
21.08.2010
Beiträge
8.008
Reaktionen
1.107
okay, fangen wir mal mit dem strukturierten nachdenken an.
warum kannst du dein VAR nicht direkt schätzen? einfache VARs kenne ich als Y=AZ+E --> schätzer für A = A_hat = YZ'(ZZ')^(-1) und alle gelaggten Y sind elemente von Z
das problem stellt sich dort nicht, weil du direkt schätzen kannst. würde es dich evtl. weiter bringen wenn du annahmen über A_0 aufstellst? z.b. dass es ein einservektor ist...
Das könnte man dann iterativ annähern, nicht elegant, aber womöglich effizient.

so wie du es oben beschrieben hast, ist es ja auch kein richtiges VAR was du hast, sondern ein stochastisches differenzengleichungssystem, oder nicht? ein hilfreiches buch dazu: gandolfo - economic dynamics *hust* PN für PDF *hust*
 
Mitglied seit
21.02.2009
Beiträge
2.110
Reaktionen
0
Du hast recht: VARs werden in der Form Y = AZ+e geschätzt, mit equation-by-equation OLS im Standardfall. In der Tat ist dies auch die Ausgangsgleichung in jeder VAR Analyse. Wozu werden die so gewonnenen Schätzer denn nun benutzt?

1) Forecast
2) Impulse Response/strukturelle Analyse

Im Bezug auf 2) zitiere ich mich zunächst selber

Sei A_0y_t = A_1y_t-1 + ... A_Ky_t-k+u das strukturelle Modell der Volkswirtschaft und u, wie von dir angesprochen, "uninformativ" in dem Sinne, dass E(uu´) diagonal ist.

Aber: Schätzen lässt sich nur die reduced form, setze B = A_0^-1. Dann schätzt du
y_t = BA_1y_t-1 + ... BA_Ky_t-k+Bu

Mit e = Bu ist klar, dass E(ee´) = BE(uu´)B´, eben im allgemeinen nicht diagonal ist. Im Falle einer contemporaneous Beziehung zwischen den Variablen kriegt man das auch nicht aus der reduced form, fürs schätzen ist es egal: equation by equation OLSE = ML Schätzer.

Ziel ist es nun, vernünftige Impulse Responses zu berechnen. Dazu können wir nicht einfach eine Komponente in e schocken, weil wir dann die gegenwärtigen Beziehungen in A_0 ignorieren würden. Das Berechnen von E(e_t unter der Bedingung e_it = x) wäre eben eine Möglichkeit, diese zu modellieren, man würde auf diesem Wege vernünftige Schätzer für die Impulse Responses bekommen.

Also, wir haben die reduced form Y = AZ + e geschätzt. Nun wollen wir strukturelle Aussagen treffen ala "eine diskretionäre Erhöhung der Staatsausgaben hat diese und jene Effekte". Die Komponenten in e sind aber wie oben argumentiert nicht orthogonal, insbesondere könnte der modellierte VAR-Prozess Staatsausgaben und das BIP enthalten: im Vektor e enthalten sind dann nicht nur ortogonale fiskalpolitische Innovationen, sondern eben auch endogene Reaktionen auf Innovationen im BIP. Eine Impulse Respone beruhend auf e beantwortet also nicht die zugrundeliegende Frage, weil orthogonale/diskretionäre Innovationen in den Staatsausgaben nicht identifiziert sind.
Annahmen über A_0 aufstellen ist im Grunde das, was bei Cholesky und SVAR passiert.

Bei SVAR überlegt man sich explizit, welche Beziehung denn zwischen reduced-form residuals und strukturellen Innovationen besteht. Z.B. Blanchard und Perotti identifizieren die strukturellen Innovationen in einer fiskalpolitischen VAR mit Hilfe von Steuerelastizitäten. Ich habe den höchsten Respekt vor dem SVAR Ansatz, aber:

1) Durch die Spezifikation struktureller Zusammenhänge fließen die theoretischen Priors in das Modellergebnis ein: Ich nehme an, der Zusammenhang zwischen den Variablen sei so und so und daraus leite ich dann ab, dass Fiskalpolitik diese und jene Effekte hat. Es gibt z.B. auch long-run restrictions: Ich nehme zur Identifikation an, dass ein Schock zu den Staatsausgaben keine langfristen Effekte auf das BIP hat. Naja, eine theoretische Überlegung bestimmt dann, welche Effekte empirisch gezeigt werden. Insgesamt nicht zwangsläufig problematisch, aber doch etwas unbefriedigend.

2) SVARs erlauben Data Mining da eine Vielzahl möglicher Spezifikationen ausprobiert werden kann.

Naja, eigentlich geht es nur um das hier:

Ich habe etwa 160 Realisierungen einer kx1 Zufallsvariable, eben die 160 Werte für den Vektor der Residuen e_t. Ich kenne nicht die Verteilung, insbesondere kann ich die Annahme einer Normalverteilung verwerfen. Ziel ist es jetzt, den bedingten Erwartungswert für den Vektor e_t zu berechnen unter der Information, dass die ite Komponente einen bestimmten Wert x annimmt, e_it = x. Also gesucht: E(e_t unter der Bedingung e_it = x), x aus R.

In der Anwendung erlaubte es eben eine rein Daten getrieben Berechnung verlässlicher Impulse Response Funktionen. In der Quelle zu Generalized Impulse Response Functions (Pesaran Shin 1998 Generalized impulse response analysis in linear multivariate models) werden diese definiert, und zur Berechnung braucht man eben den Erwartungswert oben. Allerdings lösen die das für den Fall normalverteilter Residuen explizit und schreiben in die Fußnote "Jo, in allen anderen Fällen muss man das eben per Simulation lösen".

Tja, da bin ich nun :top2:


Das könnte man dann iterativ annähern, nicht elegant, aber womöglich effizient.

Was meinst du damit?
 
Mitglied seit
21.08.2010
Beiträge
8.008
Reaktionen
1.107
Okay, ich befürchte ich stecke in der VAR-Geschichte einfach zu wenig drin um dir da substanziell weiterhelfen zu können.
Die Idee mit dem iterativ annähern könnte trotzdem ganz nützlich sein, auch wenn sie höllisch rechenintensiv wird. Ich habe gerade nicht im Kopf welche Dimension die A_0 bzw. B-Matrix hat, KxT? Egal. Du wählst B so, dass e orthogonal wird. Einsen, Diagonale whatever. Dann wählst du ein zufälliges Element aus und änderst es um einen zufälligen Betrag nach oben oder unten und schätzt nochmal, ist der Fit/RMSE/whatever besser als zuvor, übernimmst du die Veränderung und veränderst an dieser wieder zufällig. Rinse & repeat --> genetischer Algorithmus. Könnte sein dass man da einfach via Zufall zu was kommt.
Ansonsten könntest du natürlich noch versuchen diese exogenen Effekte über eine Hilfsregression aus den Residuen rauszufiltern.
 
Oben