Original geschrieben von Schokohaeschen
Die Note tut doch nichts zur Sache ! Würde hier das Feuer eh nur weiter anfachen und darauf hab ich keine Lust mehr und ist auch total unnötig!
Und das ich in Statistik nicht die Leute bin kann ich acuh so unterschreiben aber das ich keine Ahnung von dem habe was ich da gemacht hab, will ich so nicht stehen lassen. Das man 1/4 antsatt 1/3 schreibt...meine Güte ist wie nen Rechtschreibfehler, den man schneller macht und auch leicht übersehen kann, deswegen bin ich aber noch lange kein Legastheniker oder habe in Deutsch nicht aufgepasst. Ich habe auf jeden Fall das Wissen in Mathe und Statistik, um meine Arbeit gescheit auszuwerten und interpretieren zu können!
Du bist ja ein lustiges Editierhäschen. Gestern stand da noch „War eine 1!“
Und @Smarty, danke für die Blumen, aber da dieser Sinneswandel angesichts der Arbeit so gar nicht unerwartet kommt und ich ja so gern provoziere, habe ich die Diplomarbeit und auch den Ergebnisbericht mal überflogen. Und hab mir dabei mal ein paar Sachen rauskopiert (nicht chronologisch), die auf den ersten Blick schwach, falsch, unverständlich sind. Ganz ohne Sarkasmus (oder Provokation) kann die Darstellung dieser Punkte aber nicht auskommen. Ich hoffe, der Post ist den Herren trotzdem konstruktiv genug. Immerhin wird man ja wohl noch darlegen dürfen, warum man es vollkommen unverständlich findet, wie so etwas (und viele andere mittelprächtige (Fleiß-)Arbeiten) so gut bewertet werden kann, gerade in Psychologie – einem der schwierigsten Studiengänge, die es gibt – , gerade in Klinischer Psychologie.
Und wie kann das ganze bitteschön schon bewertet sein, obwohl der Gutachter und der Zweitkorrektur nur mal so eben drübergelesen zu haben scheinen. Naja – evtl kannst du ja auch, zumindest was die nicht konzeptionellen, der Studie inhärenten, Probleme angeht, noch einige Verbesserungen vornehmen (auch wenn die Benotung schon feststeht
)
3.6. Fragestellung und Zielsetzung der Studie
Ziel dieser Arbeit ist es, zu überprüfen, ob die gegenwärtige Berichterstattung zu dem Thema der exzessiven Nutzung von MMORPGs das tatsächliche Ausmaß und die Häufigkeit des Problems widerspiegelt. Ebenso soll der Frage nachgegangen werden, welche Eigenschaften der »Droge Internet« ein hohes »Suchtpotential« haben. Zudem soll überprüft werden, ob sich hinsichtlich »Klinik und Symptomatik« verschiedene Subtypen der so genannten Internetsucht unterscheiden. Abschließend werden die Hypothesen überprüft, ob die Beteiligung an MMORPGs mit der exzessiven Nutzung anderer Onlinedienste einhergeht und wie viele Personen tatsächlich von negativen Konsequenzen aufgrund der exzessiven Nutzung von MMORPGs berichten.
Von diesen Fragestellungen werden in der Studie nicht die Hälfte beantwortet. Außer „in den Medien wird immer behauptet, dass...“ Aussagen konnte ich nirgendwo einen konkreten (!) Bezug zur Berichterstattung finden geschweigedenn einen Vergleich der Ergebnisse mit den dort angesprochenen Problemen. Es fehlen jegliche Vergleichsmaßstäbe zur Medienberichterstattung, die Ergebnisse der Studie schweben im luftleeren Raum (wäre wohl auch eher eine kommunikationswissenschaftliche Fragestellung). Auch konnte ich nicht finden, wo der Frage nachgegangen wird, welche „Eigenschaften“ von Internet denn nun Suchtpotential haben. Das wurde meiner Meinung nach auch nicht untersucht, vielleicht wurde daher der Gedanke auch nicht nochmal aufgegriffen? Wo „Subtypen“ der Internetsucht unterschieden werden, habe ich auch nicht finden können. Einzig und allein die letzten beiden Fragestellungen (die erste relativ uninteressant, die zweite in Selbstauskunft...) kann mit den hier vorliegenden Daten angegangen werden – nicht repräsentativ, aber immerhin.
4.1. Pilotstudie
Zu Beginn der Untersuchung wurde eine quantitative Studie durchgeführt, um detaillierte Informationen über MMORPGs und ihre Spieler zu erlangen. Als Erhebungsinstrument wurde ein Online-Fragebogen verwendet, der hauptsächlich aus offenen Fragen bestand.
Sehr quantitative Untersuchung. Mein Name ist nicht Hans, aber in meiner Diplomarbeit würde ich doch schon versuchen, sowohl die Rechtschreibung etwas besser durchzuziehen (bei 3 oder 4 Korrekturlesern frage ich mich, wie dort so viele Fehler drin sein können) als auch „Fachvokabular“ (erstes Semester) richtig zu verwenden.
Was mich sehr schockierte und traurig stimmte, war, dass das bw.de-Forum auf S. 58 (Aufstellung der Verlinkungen der Studie) gar nicht aufgeführt wird, dafür aber das Eine himmlische Familie- und das Gilmore Girls Forum t_t
Ausgeschlossen von weiteren Berechnungen wurden diejenigen, die nicht alle Fragen vollständig beantwortet haben, unglaubwürdige Antworten (»Sapßvögel«) oder »unmotivierte« Antworten, d.h. einseitiges Antwortverhalten, abgegeben haben.
Gerade bei den hier im Forum von Smarty gemachten, vollmundigen Versprechungen, man könne heutzutage ja mit Leichtigkeit alle rausfiltern, die das ganze nicht ernst angehen, nur Mist ankreuzen etc., finde ich das schon etwas dürftig. (O-Ton Smarty: „Claw: Wie gesagt, deine Bedenken kann ich komplett ausräumen. Imo zeugt dein Posting aber auch davon, dass du noch keine wissenschaftliche Online-Befragung selber durchgeführt hast, denn dann wüsstest du, was für umfangreiche und differenzierte Möglichkeiten zur Erkennung von nicht ernsthaft ausgefüllten Datensätzen und der sonstigen Filterung es gibt. Bitte urteile also nicht über etwas, das du selbst nicht kennst.“) Keine Quellen, keine Angaben zum Vorgehen, welche Personen ausgeschlossen wurden (auf Basis welcher (Kenn-)Werte etc). Ein Ausschluss von Personen muss IMMER gut begründet sein. Das ist er hier nichtmal ansatzweise. Wenn ich die Graphik richtig verstanden habe, wurden da 60 von 4700 Leuten gefiltert – glaubt ihr wirklich, dass nur so wenige da nicht einfach nur durchgeklickt haben? Dazu kommt, dass nirgendwo (!) irgendwelche Skaleneigenschaften berichtet werden. Das hätte mich bei einer Online-Umfrage wirklich interessiert! Reliabilität (die gerade unter random Durchklicken leidet) oder Dimensionalität der genutzten FB überhaupt nochmal geprüft? Fehlanzeige. Auch und v.a. im Bezug auf den Depressions-Screening-FB. Letztens hat bei uns eine Diplomandin auch einen Depressions-Screener im Internet genutzt (war evtl der gleiche, kein Plan). Ergebnis: 20% Major Depressions – holy shit, das ist sehr wahrscheinlich.
Der FB war – wie bereits damals geschrieben – schlecht konzipiert. Relevante Literatur zur Fragebogenerstellung würde schon beim Aufbau ansetzen (Dillman, 2008 o.ä.) - man beginnt nicht mit soziodemographischen Angaben, nie! Kein Wunder, dass so viele Leute abgebrochen haben. Da fällt mir übrigens ein – es ist schon lustig, dass diese Bücher sich extrem gut verkaufen. Es geht doch gar nicht, dass man einen Fragebogen verbessert, ohne die Fragestellung zu kennen, oder wie war das nochmal?
Die statistische Datenauswertung des Fragebogens erfolgte mit dem Programmpaket SPSS 14.0. Neben einer deskriptiven Analyse der Daten wurden auch Gruppenvergleiche mit Hilfe des T-Tests oder Chi-Quadrats dargestellt.
Na, da ist jetzt aber eine Entschuldigung fällig. Ich schreibe „Das einzige, was ich mir in dem Fall überhaupt noch vorstellen kann, sind korrelationsstatistische Analysen und v.a. Regressionsanalysen. Aber was soll dabei rauskommen? Du kannst ja wohl schlecht die Werte, die in deiner "Stichprobe" rauskommen, mit irgendwelchen beliebigen Populationswerten vergleichen, schon statistisch ist das absolut unsinnig.“ und Smarty hackt rum „Dass dir jetzt nichts weiter einfällt als Korrelationen oder Regressionen bestärkt diesen Eindruck [Anm: das ich keine Ahnung habe] übrigens gehörig.“ Und was sehe ich jetzt? Korrelationen und – nein, nicht mal Regressionen – nur t-Tests, z.T. mit Median-Splits
Zusätzlich wurde noch ein Mediansplit durchgeführt, um die Low-AISSler mit den High-AISSlern im Hinblick auf die Internetnutzung und Beteiligung an MMORPGs zu vergleichen. Hier zeigten sich im Bereich der Häufigkeit der Nutzung pro Monat signifikante Ergebnisse
Offensichtlich waren meine Erwartungen sogar noch zu hoch gesteckt – anscheinend ist Münsteraner Psychologen eine simple, lineare Regression doch unbekannt. Dazu noch:
Da die Unterschiede augenscheinlich eher gering ausfallen wurden auch noch T-Tests mit den beiden Gruppen berechnet. Dabei wird deutlich, dass sich die Gruppen signifikant in der täglichen Internetnutzung (t (4087) = -4,29; p < .05) und Beteiligung an MMORPGs (t (4087) = -12,29; p < .05) unterscheiden. Auch in den berichteten Konsequenzen aufgrund der Beteiligung an MMORPGs unterscheiden sich die Gamer ohne Mindestanforderungen von den Gamern, deren Gilde eine Mindestspieldauer vorgibt (t (4087) = -14,30; p < .05).
Zitat von mir: „Bitte bei dem N auch Effektstärken nicht vergessen...“ => was ist? Nichts zu finden (wären wahrscheinlich auch nicht über d=.20 hinausgegangen). Hmmm....
In der Tabelle S.87 – Stunden im Internet, AISS Intensität sind beide t-Werte deutlich kleiner als -2, aber dennoch nicht als signifikant gemarkt
5.1.7. Sensation Seeking
Für die Berechnungen wurde eine Vergleichsstichprobe aus der Originalarbeit von Arnett (1994) herangezogen. Diese setze sich aus 38 Personen im Alter von 41-59 Jahren zusammen. Es wurden für die Dimensionen Neuigkeit und Intensität, sowie Sensation Seeking insgesamt t-Tests gerechnet. Auf der Skala Intensität zeigten sich signifikant höhere Werte (t (4716) = 4,196; p < .05) im Vergleich zur Normstichprobe. Auf der Skala Neuigkeit zeigte sich ebenfalls ein signifikanter Unterschied (t (4716) = 1,493; p > .05). Somit fiel der Gesamtmittelwert der Stichprobe (M = 51,56; SD = 6,73) im Vergleich zur Normstichprobe (M = 45,98) auch signifikant (t (4716) = 3,683; p > .05) größer aus.
Du schreibst zwar in deiner Diskussion nochmal: „Im Vergleich der vorliegenden Stichprobe mit der Vergleichstichprobe aus der Originalarbeit von Arnett (1994) sind der Gruppengrößenunterschied und das höhere Alter der Vergleichstichprobe zu beachten. Folglich sind die nachfolgenden Ergebnisse zurückhaltend interpretiert werden.“ (guten Deutsch btw), machst aber – außer der Floskel „die nachfolgenden Ergebnisse sind zurückhaltend zu interpretieren“, die bei fast _jedem_ (kein Witz) Ergebnisbericht dabeisteht (das macht Sinn!) –überhaupt keine Aussagen darüber, warum (!) die Unterschiede zustande gekommen sein könnten. Dass es irgendwie logisch ist, dass Ältere geringere Sensation Seeking-Werte aufweisen, wird nicht in einem Nebensatz erwähnt. Ist natürlich klasse, dann trotzdem Vergleiche durchzuführen.
Außerdem ist es schon schwierig, die Ergebnisse eines t-Tests korrekt darzustellen. Kein Wunder, wenn man sich da nicht an andere Verfahren wagt. Sind die Ergebnisse nun signifikant? Oder nicht? Text, t-Angaben und p-Angaben widersprechen sich alle. Oder hat die Tabelle auf S.83 überhaupt irgendwas mit dem Text zu tun? Denn die Werte stimmen überhaupt nicht überein (neben der grauenhaften Formatierung und der Tatsache, dass zwar druntersteht, dass signifikante Ergebnisse mit * gemarkt werden, es aber nicht getan wird – kann aber auch sein, dass die Ergebnisse ja doch nicht signifikant sind, ich hab’s wahrscheinlich falsch verstanden...im Text steht ja sowohl das eine als auch das andere drin)!?
Fakt ist: der gesamte Vergleich ist eine einzige Farce, inhaltlich wie methodisch.
In der Diskussion findet sich dann noch
So gibt es einen hoch signifikante positive Beziehung zwischen Alter und Neuigkeit und einen hoch signifikanten negativen Zusammenhang zwischen dem Alter und Intensität. Somit bevorzugen jüngere Gamer dieser Stichprobe intensivere Reize (Beispiel-Item: „Wenn ich Musik höre, sollte sie laut sein“). Wohingegen ältere Gamer eher weniger intensive Reize vorziehen. Und Umso älter die Gamer sind, desto unbekanntere und neuere Reize werden aufgesucht und umgekehrt (Beispiel-Item: „Wenn es möglich wäre, umsonst auf den Mond oder einen anderen Planeten zu fliegen, wäre ich unter den ersten, die sich dafür melden.“).
Also die „hohe Signifikanz“ hat’s dir schon angetan, oder? Eine Korrelation von .05 zwischen Alter und AISS Neuigkeit ist schon _enorm_.
Ebenso das mindestens drei mal erwähnte Ergebnis:
Zum Schluss wurden noch einige Korrelationen gerechnet, um mögliche Zusammenhängen sichtbar zu machen. Dabei lässt sich zeigen, dass es einen hoch signifikanten Zusammenhang zwischen dem Alter und der monatlichen Internetnutzung gibt (r = 0,038).
Bei dem Ergebnis dann auch noch folgendes in der Zusammenfassung zu schreiben: „Das Alter spielt eine
zentrale Rolle bei der Nutzungshäufigkeit von Internet und MMORPGs. Denn umso älter der Teilnehmer ist, desto höher ist die Nutzungshäufigkeit.“ Wohlgemerkt bei Korrelationen von .038 mit Internet: Tage und .015 mit Internet: Stunden.
Achja – und im Ergebnisbericht stand dazu folgendes
ein hoch signifikant positiver Zusammenhang zeigt sich zwischen dem Alter der Teilnehmer und der Internetnutzung pro Monat. Je jünger die Teilnehmer, desto mehr Tage pro Monat nutzen sie das Internet.
Hmpf, was denn nun.
In diesem Vergleich wird die Stichprobe von 4.717 Personen, die mit dem Onlinefragebogen erhoben wurde, mit der Stichprobe von 12.000 Personen verglichen, die vom Statistischen Bundesamt mit einem Fragebogen über die private Nutzung von Informations- und Kommunikationstechnologien in privaten Haushalten erhoben wurde.
[...]
verglichen wurden die Ergebnisse dieser Studie mit denen vom Statistischen Bundesamt (2005). Dabei zeigt sich ein großer Unterschied der Computer- und Internetnutzung zwischen der befragten Spielerpopulation in dieser Studie und der in der Allgemeinbevölkerung erhobenen Daten des Statistischen Bundesamtes. Lediglich 50% der Allgemeinbevölkerung nutzt das Internet (fast) täglich und weitere 32% nutzen dieses mindestens einmal in der Woche.
Erklärung: Bevölkerungsgruppe (Schüler und Studenten) verbringt viel Zeit am Computer und im Internet, da sie aufgrund ihres Bildungsgangs mit diesen Technologien häufig arbeiten müssen.
Diese Vergleiche sind TOTALER Humbug. Die Schlussfolgerung ebenso. Du kontrollierst gar nix (hast ja auch keine Daten dafür), kannst „den Computerspieler“ aufgrund eines Fallstudiendesigns überhaupt nicht charakterisieren und der einzige Spruch, den man allerorten lesen kann ist „die Daten sollten mit Vorsicht interpretiert werden“.
Ich könnte noch einen Haufen weiteren Unsinn aus dieser „Studie“ hier aufführen. Das mit dem Alter ist mir z.B. auch völlig unklar. Es durften nur Leute über 18 mitmachen, aber nur 16,1% sind älter als 18 Jahre; 7,6% älter als 23 Jahre? Du hast zwar irgendwie versucht, das hier richtig zu stellen, aber sowas darf in so einer Arbeit nicht vorkommen. Dass sich das mittlere Alter dann nur auf die 18+ Population bezieht (kA, hab ich mir jetzt mal aus den Fingern gesogen), steht auch nirgendwo. Und so weiter und so fort.
Im Großen und Ganzen kann ich über diese Diplomarbeit nur den Kopf schütteln. Ich weiß nicht so recht (in Bezug auf die am Anfang der Arbeit in den Raum gestellten Fragestellungen), was du – v.a. im Licht zahlreicher Diplomarbeiten zu diesem Thema – überhaupt damit erreicht hast (was dich evtl von anderen abhebt). OK, du hast eine vollkommen selektive Stichprobe primär statistisch beschrieben (Deskription) und noch einige lustige low-level-Inferenzstatistiken berechnet. Der Arbeitsaufwand (in weit über einem Jahr!) war also a) der Pretest, b) die „Erstellung“ des FB, wobei 90% der Skalen übernommen wurden (und Unipark ist jetzt nicht so schwer zu bedienen, dass man das nicht in einem Tag zusammenschustern kann), c) die Auswertung (wow, Mittelwerte) und d) das Zusammenschreiben. Theoretische Einbettung außer die obligatorische Beschreibung, was überhaupt erhoben wird, findet sich nur nebenbei. Erklärungen der Ergebnisse bleiben auf der Stichproben-Ebene. Ein theoretisches Modell ist überhaupt gar nicht zu finden. Es sind massenhaft Ungenauigkeiten, Fehler u.ä. zu finden. Möglicherweise war es nicht wenig Arbeit (hat ja auch über ein Jahr gedauert -.-), aber eine Diplomarbeitsbewertung sollte keine Prozess-, sondern eine Ergebnisevaluation darstellen.
Ob letztere bei dieser Arbeit noch zu einem Befriedigend führen kann, halte ich für fragwürdig. Ein „sehr gut“ zu vergeben, ist einfach nur fernab von Gut und Böse.