• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

un-/abhängige Stichproben

Mitglied seit
11.12.2002
Beiträge
2.789
Reaktionen
0
Ort
Berlin
Ave,
vielleicht kann mir hier jemand weiterhelfen:

Erkären Sie, warum es nachteilig sein könnte, beim Vorliegen von zwei abhängigen Stichproben einen Test für unabhängige Stichproben durchzuführen.

Ich dachte mir, dass bei verbundenen Tests evtl. die Korrelation der Variablen mit in die Teststatistik einbezogen wird, während bei Unabhängigkeit dieser Zusammenhang ignoriert wird, was zu einem ungenauerem Ergebnis führt.

Geht das in die richtige Richtung?
 
Mitglied seit
06.12.2000
Beiträge
5.486
Reaktionen
0
Es kommt ein bisschen darauf an, von welchem Test wir sprechen. Wenn es ein einfacher t-Test ist, macht das relativ wenig aus. Die Teststatistiken sind fast identisch - die einzige Ausnahme ist, dass die Streuung (im Nenner) einmal die gepoolte Streuung ist (unabhängig) und einmal (jedenfalls meist) die Prä-Streuung.

Grundsätzlich kann man aber sagen, dass die meisten Tests für unabhängige Stichproben, mit denen man statistische Inferenzen ziehen will, eben - wie du schon richtig sagst - die Korrelationen oder Abhängigkeiten der Werte (meist: der Residuen) voneinander nicht modellieren. Die Grundannahme dieser statistischen Inferenz ist, dass man zufällig und unabhängig aus einer Population samplet (jedes Element der Grundgesamtheit blabla), ist aber damit verletzt.

Ein dritter Grund - und wahrscheinlich das, was als Antwort erwartet wird: hat man abhängige Stichproben, kann man interindividuelle Unterschiede kontrollieren und "herausrechnen". Diese würden normalerweise zur Fehlervarianz gezählt werden, womit man im Endeffekt viel an Power verliert. Durch "Verbindung" der Stichproben (gerade bei Zeitreihen, auch wenn es nur wenige Messzeitpunkte sind) kann man also die Unterschiede, die schon vorher zwischen den Merkmalsträgern bestanden, kontrollieren und wirklich nur die Veränderungen untersuchen.
 
Mitglied seit
11.12.2002
Beiträge
2.789
Reaktionen
0
Ort
Berlin
Danke für die ausfühlriche Antwort. :)
Ja es ging explizit um 2Stichproben-ttest,Welch und Wilcoxon und auf der anderen Seite t-Differenzen Test und Vorzeichen Test für Differenzen.


Leider hat sich in der Zwischenzeit schon das nächste Problem aufgetan.

Aka: "Erklären Sie unter Zuhilfenahme einer einfachen Zeichnung, warum beim Testen von einseitigen
Hypothesen mit dem t-Test (1-Stichproben-Fall) der ausgegebene p-Wert
halbiert werden muss, wenn der Wert der Teststatistik auf der Seite der Alternative liegt."

Also erstmal halbieren, weil Prog nur 2-seitig ausgibt und wir einseitig testen. Das ist klar.
Ich versteh aber nicht ganz, warum der p-Wert nur halbiert werden soll, wenn die Teststatistik auf der Seite der Alternative liegt. Das gleiche gilt doch für die Hypotheseseite auch, oder irre ich? Dazu unsere VL Folie:


Dort steht doch auch genau das!?
 

Amad3us

Guest
Du halbierst ja nicht den p-Wert sondern du rechnest: 1-pwert/2;
das ist ein großer Unterschied.

Du musst nämlich immer die Verteilungsmasse bestimmen, die in Richtung der
Alternativhypothese geht.

Anders gesagt: Stell dir vor du würdest den p-Wert immer halbieren. Dann würde ein zweiseitig signifikantes Resultat stets! die signifikant des einseitigen Tests implizieren. Das ist aber Nonsense, denn es kommt ja darauf an, ob die Richtung der Abweichung zur einseitigen Hypothese "passt".
 
Oben