Donnerstag, 27. September 2007

Prüfung auf Varianzgleichheit – wie und warum?

Viele statistische Prozeduren, bei denen mehrere Fallgruppen untersucht und miteinander verglichen werden, setzen voraus, dass die betrachteten Variablen innerhalb der einzelnen Gruppen in der Grundgesamtheit gleich große Varianzen aufweisen. In SPSS und anderen Statistikprogrammen lässt sich mit einem Levene-Test untersuchen, ob diese Voraussetzungen erfüllt sind. Ist dies nicht der Fall, lässt sich anhand grafischer Darstellungen feststellen, ob vorliegende Abweichungen zwischen den Varianzen vielleicht auf unterschiedliche Niveaus der Werte beziehungsweise des Medians zurückzuführen sind. Sollten sich unterschiedliche Varianzen so erklären lassen, kann man mit Hilfe von Transformationen noch versuchen, gleiche Varianzen für die Gruppen herbeizuführen.

Beim Levene-Test handelt es sich um einen Signifikanztest, der für verschiedene Gruppen von Werten die Nullhypothese prüft, dass die (Gruppen-)Varianzen der untersuchten Variablen in der Grundgesamtheit in allen Gruppen identisch sind. Der Test berechnet den F-Wert als statistisches Prüfmaß, dessen Verteilung bekannt ist. Damit wird überprüft, mit welcher Wahrscheinlichkeit die beobachteten Unterschiede auftreten können, wenn in der Grundgesamtheit tatsächlich keine Unterschiede bestehen. Eine geringe Wahrscheinlichkeit deutet demnach auf einen Unterschied zwischen den Varianzen hin. Diese Wahrscheinlichkeit ist gleichzeitig die Irrtumswahrscheinlichkeit, mit der sich die Nullhypothese (gleiche Varianzen in der Grundgesamtheit) noch verwerfen lässt.

Auch aus Streudiagrammen und Boxplots lassen sich Informationen über die Varianzgleichheit herauslesen, hierbei ist darauf zu achten, wie sehr die Werte optisch um den Median herum streuen. Ein statistisches Testverfahren wie der Levene-Test ist aber in jedem Fall vorzuziehen, da in jeder echten Zufallsstichprobe natürlich auch zufällige Streuungsmuster auftauchen können, weshalb die Durchführung eines den Rückschluss auf die Grundgesamtheit ermöglichenden Testverfahrens nur empfohlen werden kann.

Liegt keine Varianzgleichheit vor, sollte von der Durchführung etlicher Analyseverfahren, wie beispielsweise der multiplen Regressionsanalyse, Abstand genommen werden, da sonst mit teils stark verzerrten und fehlerhaften Ergebnissen zu rechnen ist.

Donnerstag, 20. September 2007

Mittelwerte richtig interpretieren

Die korrekte Interpretation von Mittelwerten ist das aktuelle Thema in Wolfgang Peters Arbeitszimmer-Blog, ein Thema zu dem ich in diesem Blog sowie bei lernmodule.net auch schon einiges geschrieben habe. Wenn ich mir das gut formulierte Arbeitszimmer-Rechenbeispiel so ansehe, fällt mir wieder eine Geschichte zum Thema Mittelwertinterpretation ein, die ich schon in einigen Vorlesungen zum Besten gegeben habe: Der wahre Grund für die niedrige Lebenserwartung im Mittelalter.

Wie vermutlich jeder von uns sich schon im Geschichtsunterricht auf der Schule anhören durfte, lag die durchschnittliche Lebenserwartung im Mittelalter deutlich unter der moderner Epochen. Der durchschnittliche Landarbeiter konnte sich freuen, wenn er 30 Jahre zählen durfte, mit 40 war er schon ziemlich alt und mit 50 ein wahrer Methusalem – ein biblisches Alter welches bei einer durchschnittlichen Lebenserwartung um die 40 Jahre natürlich kaum ein Mensch erreichte...


Sieht man sich die Altersverteilung einmal genauer an, so stellt man fest, dass es auch zu Kolumbus Zeiten 70-, 80- und sogar 90jährige Menschen gegeben hat – natürlich nicht in dem Maß, wie wir dies heute erleben (dafür sorgte schon die schlechtere Ernährung und die primitive Medizin), aber dennoch gab es sie – und die wenigsten sahen mit 30 schon ihrem Ableben ins Auge. Der Grund für die äußerst niedrige Lebenserwartung liegt vielmehr in der hohen Kindersterblichkeit – von sieben oder acht Kindern einer Durchschnittsfamilie erreichte kaum die Hälfte das vierte Lebensjahr, viele Kinder starben sogar direkt bei der Geburt. Lässt man diese Werte in die Berechnung des durchschnittlichen Sterbealters einfließen, so korrigiert sich dieses natürlich nach unten – und schon entsteht ein völlig falscher Eindruck hinsichtlich des Lebens im Mittelalter, zumindest wenn man darauf verzichtet, das Zustandekommen einer solchen Zahl näher zu beleuchten.


Das zeigt mal wieder, was man in der Schule alles nicht lernt – aber für die Berechnung des Klassendurchschnitts aus den ordinalskalierten Notenwerten hat meine Geschichtslehrerin auch immer auf das arithmetische Mittel zurückgegriffen...
Ein zweites Beispiel für die falsche Interpretation von Mittelwerten findet sich in meinem Erstlingswerk „Multivariate Analyseverfahren in der Marktforschung“, erschienen beim Internet-Verlag lulu:

Bei der Interpretation des arithmetischen Mittels sollte der Marktforscher außerdem stets im Hinterkopf haben, wie sich dieses berechnet. So lässt sich anhand der oben dargestellten Formel leicht nachweisen, dass die Mehrheit der Deutschen überdurchschnittlich viele Augen im Kopf hat: Da nämlich unter 80.000.000 Bundesbürgern auch etwa 20.000 Einäugige leben, ergibt sich bei der Berechnung der durchschnittlichen Augenzahl folgendes:



Da die meisten Deutschen aber immer noch zwei Augen haben...die Schlussfolgerungen seien jedem selbst überlassen. Festzustellen bleibt aber, dass das arithmetische Mittel nur dann sinnvoll und richtig interpretiert werden kann, wenn man es nicht einfach als „Durchschnitt“ hinnimmt, sondern während der Interpretation nie vergisst, wie der Wert berechnet wird bzw. welche Effekte auftreten können. Wer die „Stolperfallen“ bei der Interpretation von Mittelwerten dagegen im Hinterkopf behält, wird in den meisten Fällen keine Probleme bekommen. Allen Tutoren oder Lehrenden, die hierfür noch ein brauchbares (wirtschaftswissenschaftliches) Beispiel suchen und sich nicht mit mittelalterlichen Bauern und durchschnittlichen Augenzahlen in den Hörsaal stellen wollen, sei das praixsnahe und leicht verständliche Beispiel aus dem Arbeitszimmer noch einmal mit Nachdruck empfohlen.

Interessantes Praktikum in der Computerspiele-Marktforschung

Inzwischen haben sich ja schon einige Leser gefunden, die regelmäßig in diesem Blog vorbeischauen - vielen Dank für das Interesse. Da ich mir vorstellen könnte, dass vielleicht auch einige Studenten unter den Stammlesern sind, anbei ein interessantes Stellenangebot von praktika.de: Die Bigpoint GmbH, ein Hersteller von Browserspielen, sucht zur Zeit einen Praktikanten bzw. eine Praktikantin für den Bereich Produktanalyse. Die Hauptaufgaben liegen in der Durchführung von Usability-Tests, gefordert werden Know-How in der Marktforschung, der Mediennutzungsforschung und in der Arbeit mit gängigen Internetmetriken wie Page Impressions etc.

Interessenten finden alle weiteren Informationen zur Stellenausschreibung unter diesem Link. Wer sich also für Computerspiele-Marktforschung begeistern kann und ohnehin noch nach einer Praktikumsstelle sucht, sollte sich diese Chance nicht entgehen lassen...

Montag, 10. September 2007

Statistik zum Ladungsverlust – Weihnachtsbäume auf der Autobahn

Unter http://www.ladungsverlust.de veröffentlicht Robert Heret täglich aktualisierte Statistiken zu auf Autobahnen auftretenden Verkehrshindernissen – die Art, über die es im Verkehrsfunk immer heisst: „Auf der AX zwischen Y und Z befinden sich Gegenstände auf der Fahrbahn“. Und interessant ist es schon, was sich auf der Fahrbahn so alles anfindet – verletzte Kraniche, Feuerlöscher, Bierkisten, Koffer, Kleidersäcke, Schirmständer, Gartenrechen, Tischplatten und und und.... So lässt sich der Statistik beispielsweise entnehmen, dass seit 2003 insgesamt 27 Weihnachtsbäume als Verkehrshindernis erfasst wurden, wobei sich die Meldungen statistisch auffällig um den Dezember verteilen. Den letzten eingetragenen Weihnachtsbaum gab es am 17. Dezember des letzten Jahres gegen 8 Uhr Morgens zwischen Offenbach und dem Offenbacher Kreuz zu bestaunen – da soll noch mal einer behaupten, dass Statistiken generell trocken und langweilig sind...

Montag, 3. September 2007

Trennunscharfe Kategorien – ein typischer Fehler bei Online-Befragungen

Ein paar Gedanken hinsichtlich ein kleinen Fundstücks aus einer Online-Befragung, an der ich mich heute beteiligt habe – ich vermute übrigens dass ungefähr ein Drittel aller Teilnehmer ungerichtet beworbener Befragungen im Internet selbst Marktforscher sind – bis auf die Befragungen, bei denen es was zu gewinnen gibt, da dürften 90% der Stichprobe aus Incentive-Jägern bestehen und nur 10% aus Marktforschern...

Aber zurück zum Fundstück:


Frage: Welches ist der höchste Schulabschluss den Sie besitzen oder zurzeit anstreben?


1. Studium

2. Abitur

3. Realschulabschluss

4. Hauptschulabschluss

5. Ich gehe noch zur Schule

6. Ich verfüge über keinen Abschluss


Eine solche Auswahl von Antwortkategorien bezeichnet man als trennunscharf. Mal angenommen, ein Proband hat bereits den Realschulabschluss in der Tasche und bereitet sich gerade auf sein Abitur vor. In diesem Fall könnte er den Realschulabschluss als höchsten Schulabschluss angeben, den er zurzeit besitzt, das Abitur als höchsten Schulabschluss, den er zurzeit anstrebt, oder aber die Antwort „Ich gehe noch zur Schule“ wählen, die ja auch irgendwie passt.


Fazit: Wird die Frage unsauber formuliert (wie in diesem Fall zwei Fragen in einer) oder aber sind die Antwortkategorien trennunscharf (wie in diesem Fall durch „Ich gehe noch zur Schule“, welche sich mit anderen Kategorien überschneidet), lassen sich die Ergebnisse nicht vernünftig auswerten. Dazu kommt in der vorliegenden Frage noch die Antwort „Studium“, mit der wohl der Studienabschluss gemeint ist – da ein Studienabschluss aber kein Schulabschluss ist, wird hier die mangelnde Eignung der Kategrien noch verstärkt.


Insbesondere bei Online-Befragungen fällt mir immer wieder auf, dass Fragen unklar formuliert oder Kategorien unsauber eingeteilt werden – vielleicht liegt es ja daran, dass man den Fragebogen schnell mit ein paar Klicks erstellen kann und eine oder zwei Fragen oder Antwortoptionen schnell eingearbeitet werden können. Darüber kann man manchmal leicht vergessen, dass in einen Online-Fragebogen trotzdem eben so viel Sorgfalt und Vorbereitung fließen sollte wie in einen traditionellen „Papier-Fragebogen“.


Oft hilft es, den Fragebogen vor der eigentlichen Erhebung einem Pre-Test zu unterziehen – dieser muss weder repräsentativ sein noch sonstwelche Voraussetzungen erfüllen, benötigt werden lediglich einige Freiwillige mit Befragungserfahrung die den Fragebogen durchspielen und hinterher Feedback zu möglichen Schwachstellen im Design liefern. Ein hervorragender Ausgangspunkt für einen solchen Pre-Test ist beispielsweise eine google group wie de.alt.umfragen, in der man viele nette MaFo-Enthusiasten und Befragungs-Interessierte finden und für schnelle Pre-Tests rekrutieren kann.

Samstag, 1. September 2007

Was sind eigentlich Freiheitsgrade?

Im Gespräch mit einem Kollegen kam kürzlich die Frage auf, wie das Konzept der Freiheitsgrade in der statistischen Datenanalyse am besten vermittelt werden könnte, da gerade diesbezüglich das eine oder andere Verständnisproblem zu existieren scheint. Da ich kaum über theoretische Kenntnisse in Pädagogik verfüge, kann ich kaum einschätzen, ob meine „Standarderklärung“ einen hohen didaktischen Nährwert hat – bei meinen Studenten ist die folgende Erklärung aber immer auf offene Ohren gestoßen:

Die Freiheitsgrade geben die Anzahl von Größen eines Systems an, die bei einem feststehenden arithmetischen Mittel unabhängig voneinander variiert werden können. Ihre Bedeutung erklärt sich daraus, dass die Schätzung von Parametern in der Statistik stets eng mit den zur Verfügung stehenden Informationen verbunden ist. Die Anzahl an Informationen für die Schätzung entspricht der Anzahl der Freiheitsgrade. Da diese Definition recht trocken ist, verdeutlicht man sich das Konzept idealerweise an einem einfachen Beispiel:

Eine kleine Beispielverteilung bestehe aus den fünf Werten 1, 1, 2, 3 und 3. Das arithmetische Mittel dieser Verteilung liegt natürlich bei 2. Wenn nun die erste Zahl von 1 auf 2 geändert würde und die zweite Zahl von 1 auf 0, so läge das arithmetische Mittel immer noch bei 2 – daraus lässt sich schlussfolgern, dass die erste Zahl der geordneten Verteilung völlig frei verändert werden kann, ohne dass sich auch das arithmetische Mittel verändern, solange auch die anderen Zahlen frei verändert werden können. Dieses Beispiel lässt sich nun bis zum letzten Wert der Verteilung fortsetzen – und diesen allerletzten Wert kann man dann nicht mehr frei festlegen, wenn ein bestimmtes arithmetisches Mittel noch erreicht werden soll. Die Beispielverteilung hätte also fünf Werte und vier Freiheitsgrade – vier Werte die unter der Beibehaltung eines bestehenden arithmetischen Mittels noch frei festgelegt werden können.

In meinem SPSS-Foliensatz habe ich dieses Beispiel wie folgt dargestellt:


Merksatz: Die Freiheitsgrade geben die maximale Anzahl an Werten in einer Verteilung an, die beliebig geändert werden können, ohne dass sich das arithmetische Mittel der Verteilung ändert.