Montag, 31. Dezember 2007

Jahresrückblick und Jahresvorschau

Nun da sich 2007 immer schneller dem Ende zuneigt wird es Zeit, das alte Jahr noch einmal Revue passieren zu lassen und sich Gedanken darüber zu machen, welche Ziele im kommenden Jahr verwirklicht werden sollen – dies ist im Geschäftsleben nicht anders als im privaten Bereich und gilt daher auch im Falle der Statistikberatung.

Mit 2007 endet das erste „volle“ Jahr der im November 2006 gegründeten Statistikberatung Reinboth und auch dieser Blog existiert nun schon ein halbes Jahr. Vieles von dem, was ich in diesem ersten Geschäftsjahr über das Business gelernt habe, findet sich in meinem Post zum einjährigen Bestehen des Consulting-Services und soll an dieser Stelle nicht noch einmal ausgebreitet werden. Ich kann aber mit Freuden feststellen, dass sich im ablaufenden Jahr sowohl eine kleine Gruppe regelmäßiger Auftraggeber für die Statistikberatung als auch eine Handvoll wiederkehrender Leser für den Statistik-Weblog gefunden hat – ein Ergebnis, das mich sowohl mit Freude als auch mit Zuversicht für das kommende Jahr erfüllt.

Besonders spannend finde ich auch die ab und an eintrudelnden Anfragen von Studentinnen und Studenten aus dem gesamten Bundesgebiet, die bei einer empirischen Untersuchung festhängen oder eine gezielte Frage zur multivariaten Datenanalyse loswerden wollen. Auch für 2008 wird weiterhin gelten: Alle Anfragen von Studierenden, die sich in unter zwei Studen abhandeln lassen, werden gerne kostenlos bearbeitet – und für aufwändigere Anfragen lassen sich immer auch Sondertarife finden.

Für das Jahr 2008 steht eine Verbreiterung meiner Servicebasis an: Ab sofort werde ich auch die saubere Codierung von Fragebögen sowie (in begrenztem Umfang) die Durchführung und Auswertung qualitativer Untersuchungen anbieten (wie beispielsweise das Laddering). Die bisherigen Angebote bleiben natürlich in vollem Umfang erhalten: Planung und Begleitung von Online- und Offline-Erhebungen, Fragebogen-Design, Repräsentativitätsdiagnostik, Kreuztabellierungen sowie die mathematisch saubere Durchführung und Interpretation multivariater Datenanalysen.

Soweit es die Web-Projekte betrifft habe ich mir vorgenommen, mein Engagement in 2008 noch zu steigern: Mit Sicherheit wird es viele weitere Beiträge auf diesem Blog geben, darunter mindestens ein Dutzend weiterer Folgen des im letzten Monat gestarteten NSDStat-Tutorials – und auch im Marktforschungs-Wiki werde ich nach längerer Zeit wieder einmal ein paar neue Items einpflegen. Darüber hinaus ist für das kommende Jahr eine umfangreiche SEO-Kampagne für die verschiedenen Statistik-Webseiten geplant – ich bin schon gespannt inwiefern es mir gelingen wird, die Wiki-Pages oder Blogbeiträge bei Suchbegriffen wie Fakorenanalyse oder Interquartilsabstand auf vordere google-Plazierungen zu bringen. Auch meine beiden Bücher zur multivariaten Datenanalyse sowie zur Online-Marktforschung will ich noch stärker vermarkten – ein drittes Buch über das ich an dieser Stelle noch nicht viel verraten kann, befindet sich übrigens bereits in Arbeit und wird mit etwas Glück vielleicht noch 2008 erscheinen.

Gelegentlich werde ich gefragt, ob ich im kommenden Jahr nicht vielleicht die freiberufliche Tätigkeit an den Nagel hängen und Vollzeit in die Marktforschung wechseln möchte. Dazu kann ich nur sagen, dass es mich zwar prinzipiell sehr reizen würde, mich voll und ganz der Statistik zu widmen, dass ich aber arge Probleme mit der teils unwissenschaftlichen Art und Weise habe, mit der in vielen Instituten und Agenturen Datenanalyse betrieben wird und die ja erst kürzlich wieder durch den hervorragenden Beitrag von Frau Jaksch kritisch beleuchtet wurde. Dazu kommt noch, dass die von mir Ende 2006 (mit-) gegründete und inzwischen zum An-Institut der HS Harz avancierte HarzOptics GmbH von Monat zu Monat mehr Aufträge zu verzeichnen hat, und ich inzwischen viel Gefallen an der für einen Analytiker zwar fachfremden aber dennoch unglaublich spannenden Welt der Photonik-Forschung gefunden habe (mehr Infos zur Arbeit bei HarzOptics gibt es übrigens in meinem Photonik-Blog).

Die freiberufliche Tätigkeit im Marktforschungs-Bereich ist zudem mit sehr vielen Abwechslungen und damit Herausforderungen verbunden, da sich die Aufträge teils stark voneinander unterscheiden und jede Aufgabe mich zwingt, mit anderen Methoden an die Daten heranzugehen – dies hält mich methodisch fit und sorgt dafür, dass ich – wenn ich doch einmal den Sprung in eines der Institute antreten sollte – einem potenziellen Arbeitgeber auch viel zu bieten habe. Als letzter wichtiger Grund kommt für mich dazu, dass ich nun schon das fünfte Semester in Folge diverse Kurse (mit und ohne Bezug zur Statistik) an der HS Harz unterrichte und inzwischen an der Vermittlung von Wissen an aufgeweckte junge Menschen so viel Freude gefunden habe, dass es mir sicher schwer fallen würde, diese Tätigkeit ganz einzustellen.

Meine geschäftliche Prognose für 2008 lautet daher, dass die Türen der Statistikberatung Reinboth auch noch ein weiteres Jahr allen interessierten Kunden offen stehen werden. Ich für meinen Teil freue mich in jedem Fall auf die kommenden Herausforderungen und hoffe auch im neuen Jahr wieder auf viele interessante und abwechslungsreiche Aufträge aus allen Teilbereichen der Marktforschung.

NSDstat-Kurs: Erstellung univariater Statistiken

Im zweiten Teil des Blog-Tutorials zur Analysesoftware NSDstat Pro soll wie angekündigt gezeigt werden, wie man zu univariaten Statistiken gelangt, und zwar einschließlich der Lage- und Streuungsmaße sowie der Konfidenzintervalle. Als Beispiel wird erneut der NSDstat Demo-Datensatz zum politischen Interesse von Schülern verwendet.

Im ersten Schritt ist – wie schon im ersten Teil dieses Tutorials demonstriert – in der Variablenliste diejenige Variable zu wählen, die nachfolgend näher untersucht werden soll, in unserem Fall die v8 – Politisches Interesse.

Durch einen Klick auf „Univariate Statistiken“ (das zweite Symbol aus der obersten Symbolleiste) gelangt man in die Auswahl der univariaten Analyseoptionen, wobei wir uns für die zweite Option „Univariate Statistiken“ entscheiden, hinter der sich die Berechnung einer ganzen Reihe interessanter Kennwerte aus der Statistik I & II verbirgt. Mit einem weiteren Klick auf den nach Rechts zeigenden Pfeil übernehmen wir die selektierte Variable v8 in die Auswahlliste der zu analysierenden Variablen.

Ein Klick auf OK bringt uns in den Ergebnisbildschirm. Wie der Screenshot zeigt, hat NSDstat hier zunächst einmal sechs Werte ausgegeben: Das arithmetische Mittel (in dieser Übersicht einfach als „Mittelwert“ bezeichnet), die Summe aller Ergebniswerte (aufgrund der Fragestellung von v8 eher von untergeordnetem Interesse), den minimalen und den maximalen Wert (aus denen man ja auch leicht die Spannweite berechnen könnte, wenn dies erforderlich wäre – was hier ebenfalls aufgrund der Fragestellung von v8 nicht der Fall ist) sowie die Gesamtzahl der verarbeiteten Fälle (N) und die Standardabweichung.

Zu beachten ist, dass NSDStat in diesem Ausgabebildschirm erst einmal für jede Variable das arithmetische Mittel sowie die Standardabweichung ausgibt, auch wenn dies aufgrund des Skalenniveaus der Variablen mathematisch nicht angebracht ist. Wenn man sich über die „Volltext-Dokumentation“ in der Variablenauswahl die Originalfrage zur Variablen v8 noch einmal anzeigen lässt, stößt man dabei nämlich auf folgendes Konstrukt:

Würdest du sagen, du bist im allgemeinen an Politik sehr stark interessiert, stark interessiert, weniger interessiert oder garnicht interessiert?

1 [ ] Sehr stark
2 [ ] Stark
3 [ ] Wenig
4 [ ] Gar nicht
9 [ ] Weiß nicht

Es liegt also eindeutig ein ordinal skaliertes Merkmal vor, so dass die Berechnung des arithmetischen Mittels (ebenso wie die der Standardabweichung) im Grunde gar nicht zulässig war. Wer sich noch einmal vergegenwärtigen möchte, wie man zwischen den einzelnen Skalenniveaus unterscheidet, dem sei an dieser Stelle mein Online-Lernmodul zu den Lagemaßen bei lernmodule.net ans Herz gelegt. Festzuhalten ist auf jeden Fall, dass der Anwender entscheiden muss, ob eine bestimmte Rechnung aufgrund des Skalenniveaus überhaupt durchgeführt werden kann oder nicht – NSDStat nimmt einem diese Entscheidung nicht ab und berechnet – überspitzt formuliert – auch aus einer Liste mit Telefonnummern erst einmal die „Durchschnittsnummer“ sowie die Standardabweichung. Aus diesem Grund sind Methodenkenntnisse des Anwenders auch dann gefragt, wenn die eigentlichen Berechnungen nur noch mit Software durchgeführt werden.

Aber zurück zur Beispielaufgabe: Ein Rechtsklick und die Selektion von „Optionen“ eröffnet ein weiteres Menü, in dem nun zusätzliche Einstellungen getätigt werden können. So lassen sich neben dem arithmetisches Mittel auch noch der Median und die Quartile einblenden, die übrigens in diesem Fall aufgrund des Skalenniveaus die bessere Wahl sind. Weiterhin möglich ist die Anzeige von Schiefe und Kurtosis sowie der Konfidenzintervalle zu 95% und 99%, womit ein Großteil der aus der Statistik I & II bekannten Kennzahlen abgedeckt wäre. Hinter dem zweiten Reiter in dieser Übersicht mit der Bezeichnung „Häufigkeitspolygon“ verbirgt sich übrigens die Möglichkeit zur Erstellung von Box-Plots und weiteren Grafiken, die im dritten Teil dieses Tutorials näher betrachtet werden sollen.

Wie man sieht, haben wir die ursprüngliche Liste mit Kennzahlen durch die Selektion der weiteren angebotenen Werte deutlich ausbauen können – ein gutes Beispiel dafür, wie schnell und einfach sich mit NSDStat eine Vielzahl statistischer Größen berechnen lässt. Mit den beiden Grafik-Buttons im seitlichen Menü gelangt man von dieser Kennzahlen-Übersicht anschließend zur Darstellung des sogenannten Häufigkeitspolygons sowie des Box-Plots, die, wie schon erwähnt, Gegenstand des dritten NSDStat-Tutorials werden sollen, welches voraussichtlich in etwa zwei Wochen in diesem Blog erscheinen wird.

Dienstag, 4. Dezember 2007

Den Finger direkt in die Wunde gelegt...

Edith Jaksch, ihres Zeichens studierte Statistikerin und (Mit-) Gründerin der österreichischen Marktforschungsagentur Jaksch & Partner, hat in einem Interview mit dem Online-Magazin CHiLLi.cc auf ebenso drastische wie vernichtende Art und Weise auf einige Probleme in der modernen Marktforschung hingewiesen, über die ich in diesem Blog (wenn auch in deutlich zahmerer Sprache) auch schon gelegentlich berichtet habe.

Als "Leidensgenosse", der sich in der Welt der Marktforschung auch schon über viele geschönte Statistiken und unsaubere Praktiken ärgern musste, war die Lektüre des Interviews, insbesondere
dieses Abschnitts, für mich ein wahres Vergnügen. Wer sich schon immer gefragt hat, warum einem bei den "Marktforschungs-Profis" in der Regel auffallend wenige Mathematiker oder Statistiker begegnen, findet die Antwort in diesem Interview, aus dem ich nachfolgend einen kurzen Abschnitt zitieren möchte:

"Es klingt vielleicht komisch, aber die großen Meinungsforschungsinstitute haben fast gar keine Statistiker. Meistens arbeiten dort Betriebswirtschaftler mit Marketingausbildung, teilweise auch Psychologen, die sich zumindest ein wenig mit Statistik auskennen. [...] Ein Bekannter von mir ist Statistiker und hat kurz bei einem Marktforschungsinstitut gearbeitet. Er hat aber nach zwei Wochen wieder aufgehört, mit der Begründung: 'Dafür habe ich nicht studiert.' Jedes Mal wenn er versucht hat, auf Fehler aufmerksam zu machen, war die Antwort, dass alles aus Vergleichsgründen so bleiben muss. Das heißt, um ihre eigenen Daten untereinander vergleichen zu können, machen sie einfach immer dieselben Fehler. Das kann’s ja auch nicht sein."
[
Link zur Originalquelle]

Dieser Fundamentalkritik kann ich mich nur anschließen. Zum Glück sind meine Kunden in der absoluten Mehrzahl stets an wissenschaftlich sauberen Ergebnissen interessiert, so dass mir das Problem der "Vergleichbarmachung" durch absichtlichen Fehlereinbau erst selten begegnet ist - aber selbst in dem einen Jahr, in dem ich bislang als freier Berater in Sachen Statistik unterwegs bin, habe ich schon mehrere solcher Anfragen auf den Tisch bekommen. Von meinen Kollegen und Bekannten in den großen Agenturen im Konsumgüter-Bereich musste ich mir inzwischen erklären lassen, dass solche Praktiken in der "professionellen Marktforschung" leider nicht die Ausnahme, sondern ganz klar die Regel darstellen. Auch wenn es mich freut, mit meinen Dienstleistungen und für meine Kunden ein wenig gegen diesen Strom schwimmen zu können, ist es doch enttäuschend, an wie vielen anderen Stellen genau so gearbeitet wird - hier legt Frau Jaksch den Finger direkt in die schmerzende Wunde...


Allen Leidensgenossen aus der Markt- und Meinungsforschung kann ich nur empfehlen, diesen
lesenswerten Artikel in Gänze zu konsumieren. Es ist selten, dass die Probleme der Branche so deutlich benannt werden - mein Dank gilt daher an dieser Stelle Frau Jaksch für den Mut, die Dinge beim Namen zu nennen und sich gegen solche verfälschenden Praktiken auszusprechen.

Montag, 3. Dezember 2007

NSDstat-Kurs: Erstellung einer Häufigkeitsverteilung

Im ersten Teil dieses exklusiven Blog-Tutorials zur statistischen Analysesoftware NSDstat Prostatistische Lagemaße soll demonstriert werden, wie einfach sich eine univariate Häufigkeitsverteilung, eine einfache Verteilungsgrafik sowie einige grundlegende erstellen lassen. Als Beispiel wird einer der NSDstat Demo-Datensätze verwendet, in diesem Fall eine Befragung unter Schülern zum Themenbereich „Politik und politisches Interesse.“

Im ersten Schritt ist in der Variablenliste diejenige Variable zu wählen, die nachfolgend näher untersucht werden soll, also beispielsweise v8 – Politisches Interesse. Die originale Frage hinter dieser Variablen kann in der Variablenliste jederzeit durch einen Rechtsklick auf die Variable und die Auswahl der Option „Volltext-Dokumentation“ eingesehen werden.

(für eine vergrößerte Darstellung einfach auf die Screenshots klicken)

Durch einen Klick auf „Univariate Statistiken“ (das zweite Symbol in der obersten Symbolleiste) gelangt man in die Auswahl der univariaten Analyseoptionen, wobei wir uns für die erste Option „Häufigkeiten“ entscheiden – die Häufigkeitsverteilung. Mit einem weiteren Klick auf den nach Rechts zeigenden Pfeil übernehmen wir die bereits selektierte Variable v8 in die Auswahlliste der zu analysierenden Variablen. NDSstat ermöglicht die parallele Analyse von unbegrenzt vielen Variablen, wobei die Arbeit im Ergebnisbildschirm ab etwa 20 Variablen recht unübersichtlich werden kann.

Ein Klick auf OK bringt uns in den Ergebnisbildschirm. Wie der Screenshot zeigt, hat NSDstat hier eine Häufigkeitstabelle erstellt, die absolute Häufigkeiten, relative Häufigkeiten und relative gültige Häufigkeiten (relative Häufigkeiten in Bezug auf die tatsächlich eingegangenen Fälle, d.h. ohne fehlende Werte) zeigt, außerdem wird angegeben, wie viele Fälle in die Berechnung mit eingeflossen sind und wie viele fehlende Werte zu verzeichnen waren.

Ein Rechtsklick und die Selektion von „Optionen“ eröffnet ein weiteres Menü, in dem nun zusätzliche Einstellungen getätigt werden können. So lassen sich die drei gängigsten Lagemaße – arithmetisches Mittel, Median und Modus einblenden, außerdem kann eine Kumulierung der tabellierten Werte vorgenommen werden. Weitere Optionsmenüs eröffnen Möglichkeiten zum „Feintuning“ der NSDstat-Grafiken.

Eine der standardmäßig in der Ausgabe erzeugten Grafiken ist dieses seitlich gekippte Balkendiagramm. Wie man sieht, erzeugt NSDstat recht ansehnliche und vor allem übersichtliche Grafiken ohne 3D-Spielereien und ähnliche Ablenkungen. Wer aufwändigere Diagramme benötigt, kann die Tabellen mit den Ergebniswerten aus NSDstat in alle üblichen Textverarbeitungs- und Präsentationsprogramme exportieren, so dass die Analyseergebnisse dort zur Grafikerstellung verwendet werden können.

Soweit ein erster Einblick in eine der Grundfunktionen von NSDstat. Wie man sieht, ist die Bedienung der deutschsprachigen Benutzeroberfläche relativ einfach, so dass auch Einsteiger sich im Programm zurechtfinden können. Die Ausgabe der Analyseergebnisse sowie die Grafiken sind nicht spektakulär, sondern betont nüchtern-sachlich gehalten, womit sich das Programm angenehm von einigen der auf grafische Spielereien setzenden Konkurrenten abhebt. Häufigkeitsverteilungen lassen sich mit weniger als fünf Mausklicks erstellen, tabellarisch und grafisch ausgeben sowie um zusätzliche Elemente wie Lagemaße und eine Spalte der kumulierten Werte erweitern, womit der Grundinformationsbedarf abgedeckt sein sollte.

Im zweiten Teil dieses Tutorials – welches vermutlich in ein bis zwei Wochen in diesem Blog erscheinen wird – werde ich mich der Erstellung wichtiger univariater Statistiken widmen – einschließlich der Lage- und Streuungsmaße sowie der Konfidenzintervalle.

Donnerstag, 22. November 2007

Werden Destatis-Statistiken immer ungenauer?

Ulrike Müller weist in einem aktuellen Artikel der Financial Times Deutschland auf ein Problem mit den Wirtschaftsstatistiken des Statistischen Bundesamtes hin: Da die Menge an Daten, die von den Unternehmen an die Einrichtung geliefert werden ständig abnimmt, müssen immer häufiger Korrekturrechnungen zur Vervollständigung von Statistiken durchgeführt werden, wodurch deren Genauigkeit in Frage gestellt wird.

Grund für den nachlassenden Datenfluss sind vor allem von der Bundesregierung beschlossene Erleichterungen für den Mittelstand im Rahmen des Bürokratieabbaus. So sind Unternehmen aus dem verarbeitenden Gewerbe mit weniger als 50 Mitarbeitern seit Anfang 2007 nicht mehr verpflichtet, monatlich Daten für die amtliche Statistik zu liefern, statt dessen werden nun Umsätze, Mitarbeiterzahlen etc. nur noch einmal jährlich erhoben. Als Mit-Inhaber eines solchen Kleinunternehmens – der HarzOptics GmbH mit aktuell 5 Mitarbeitern – ist mir diese Änderung auch selbst schon aufgefallen – im ganzen Jahr 2007 musste ich lediglich einen Fragebogen für die amtliche Statistik ausfüllen, bei dem es sich auch noch um einen „Nachzügler“ mit Bezug zu unserer Gründungsphase im vorangegangenen Jahr handelte.

Für die Geschwindigkeit, mit der dynamische Entwicklungen am Markt wahrgenommen werden können, stellt dieser Informationsverzicht natürlich ein Problem dar. Als Beispiel führt Müller für ihren Bericht die Baubranche an: Während die größeren Bauunternehmen, bei denen die Auftragslage aktuell ungünstig aussieht, monatlich Daten zur Verfügung stellen, melden die kleineren Unternehmen mit zumeist günstiger Auftragslage nur noch jährlich. Als Folge davon, so Müller, scheint es möglich, dass der Schrumpfungsprozess in der Baubranche in der Statistik dramatischer ausfällt als in der Realität.

Obwohl das Statistische Bundesamt laut eigenen Angaben den Informationsverlust für unkritisch hält, wird unter anderem auf Seiten des Deutschen Instituts für Wirtschaftsforschung über mögliche Alternativen zum kompletten Datenverzicht nachgedacht, beispielsweise die Erhebung der Monatsdaten innerhalb einer repräsentativen Stichprobe kleinerer Unternehmen. Noch existiert meines Wissens nach hierzu keine Veröffentlichung von Destatis oder dem DIW, mal sehen ob irgendwann noch eine erscheint - gerade unter dem Aspekt der Repräsentativität von Großerhebungen ist die Problematik ja durchaus interessant...

Dienstag, 20. November 2007

NSDstat-Kurs im Statistikberatungs-Weblog

Nachdem ich nun bereits vor etlichen Monaten auf die statistische Analysesoftware NSDstat Pro „umgestiegen“ bin, kann ich ein uneingeschränkt positives Fazit ziehen: NSDstat Pro beherrscht nicht nur alle wesentlichen Funktionen für die multivariate Datenanalyse (Erstellung von Grafiken, Berechnung von Lage-, Streu- und Verteilungsmaßen, Berechnung von Testverfahren und Korrelationskoeffizienten, Durchführung linearer Regressionsanalysen etc.), sondern lässt sich dank komplett eingedeutschter Oberfläche auch noch leicht bedienen und ist (vor allem im Vergleich zum Branchenführer SPSS) geradezu konkurrenzlos günstig: Die Software ist für den kommerziellen Einsatz für gerade einmal 150 EUR zu bekommen, Hochschulen und andere wissenschaftliche Einrichtungen zahlen 120 EUR, Studenten sogar nur 40 EUR für eine voll funktionsfähige Version.

Natürlich kann NSDstat nicht alles – es lassen sich beispielsweise keine Cluster- und Korrespondenzanalysen durchführen – die braucht man in der Praxis aber auch deutlich seltener und in der Basisversion von SPSS sind solche Verfahren ja ebenfalls nicht enthalten. Wie der Einsatz in der Statistikberatung beweist, lässt sich die Software im professionellen Bereich problemlos verwenden, abgesehen davon eignet sie sich aufgrund des Preises, der deutschsprachigen Menüführung und des Leistungsumfangs aber gerade auch für Studierende die sich in überfüllten SPSS-Übungsräumen nicht konzentrieren können, und davor zurückschrecken, die teure Software für die Heimarbeit zu kopieren, wovon man angesichts der möglichen Strafen wirklich nur abraten kann.

Gerade weil NSDstat in diesen Fällen eine gute Alternative darstellt ist es bedauerlich, dass die Software im akademischen und studentischen Umfeld bislang nur recht sporadisch eingesetzt wird – ich kenne kaum Studenten, die das Programm einsetzen, und im Lehrbereich arbeiten alle mir bekannten Kollegen momentan noch ausschließlich mit SPSS. Da ich aus vielen E-Mails und Gesprächen weiss, dass es hauptsächlich Studierende und Lehrende sind, die diesen Blog frequentieren, habe ich mich dazu entschlossen, stufenweise ein kleines NSDstat-Tutorial aufzubauen: Während es natürlich nach wie vor wöchentlich reguläre Blogposts geben wird, werde ich versuchen, regelmäßig einmal jede Woche oder zumindest alle zwei Wochen ein Tutorial-Post zum Umgang mit NSDstat zu erstellen. Diese Tutorial-Posts werden sich zunächst vermutlich hauptsächlich um die Ausführung einfacherer Aufgaben drehen, wie beispielsweise die Berechnung des arithmetischen Mittels, des Medians oder die Durchführung des T-Tests, eventuell werde ich später auch auf die Durchführung von Komplexverfahren eingehen, sollte ein entsprechendes Interesse vorhanden sein.

Von der GESISder Gesellschaft sozialwissenschaftlicher Infrastruktureinrichtungen – die das Softwarepaket im deutschsprachigen Raum vertreibt, habe ich freundlicherweise die Genehmigung erhalten, auch Screenshots für meine Tutorial-Posts einsetzen zu dürfen, so dass sich der Umgang mit NSDstat auch visuell zeigen lassen wird. Kritik, Anregungen oder spezielle Themenwünsche werden natürlich gerne entgegengenommen – das Tutorial richtet sich ja in erster Linie an alle neuen oder potenziellen NSDstat-User unter meinen Lesern und soll sich daher auf jeden Fall auch an deren Interessen orientieren. Wer also ein bestimmtes Verfahren erklärt sehen möchte, oder sich selbst mit einem Tutorial-Post in den Aufbau der Artikelreihe einbringen will, ist herzlich dazu eingeladen, sich mit mir in Verbindung zu setzen.


Donnerstag, 8. November 2007

Ein Jahr „Statistikberatung Reinboth“ - Fazit und Ausblick

Vor nunmehr gut einem Jahr – genauer gesagt am 01.11.2006 – startete das Experiment „Statistikberatung“. Ziel war es, den Marktbedarf für statistisch fundierte Beratungsdienstleistungen auszuloten und zu nutzen. Angesichts der vielen „schnell schnell“-Marktforschung, bei der die Ergebnisse schon nach Tagen (oder im Extremfall sogar nach Stunden) erwartet werden, und bei der die statistische Genauigkeit angesichts der wirtschaftlichen Zwänge oft in den Hintergrund tritt, trat ich mit dem Anspruch an, meine Aufträge nicht noch schneller abzuarbeiten oder mit noch mehr Style präsentieren zu wollen, sondern statt dessen mathematisch saubere und exakte Markt- und Meinungsforschung zu betreiben. Den Kunden sollte mehr geboten werden als eine schnelle deskriptive Auswertung, ein paar schicke Grafiken und ein paar Koeffizienten oder Testverfahren – statt dessen bestand (und besteht) mein Angebot darin, mit Hilfe von komplexen, multivariaten Verfahren wie der Varianzanalyse, der Clusteranalyse oder der Faktorenanalyse den Zusammenhängen in den Daten auf den Grund zu gehen und die verborgenen Datenschätze zu heben und gründlich auszuwerten.

Nach einem Jahr kann man dieses Experiment rückblickend nur als gelungen bezeichnen. Für eine Dienstleistung, die aus Kostengründen nur online beworben und zudem nur nebenberuflich – und dadurch mit zeitlichen Einschränkungen – durchgeführt wird, fanden sich erstaunlich viele Interessenten und auch Kunden, wobei die meisten genau der Gedanke bewegte, der mich ebenfalls zur Gründung motiviert hatte: Wir wollen weg von der schnellen, sterilen und auf Style und Schein getrimmten Marktforschung und hin zu echter Datenanalyse, statistisch sauber und mathematisch fundiert. Die meisten Kunden zeigten sich mit dieser Erfahrung zufrieden und gemeinsam mit ihnen gelang mir eine interessante Feststellung: Ohne meinen Kollegen von einigen der größeren Marktforschungs-Unternehmen zu nahe treten zu wollen (denn natürlich gibt es da einige, die geradezu exzellente Arbeit leisten) – eine andere Art von Marktforschung ist möglich, eine, die über oberflächliche „schnell schnell“-Analysen hinausgeht und bei der statt auf die modisch gegeelte Haarpracht des Präsentierenden oder den perfekt eingeübten Smalltalk mit dem Kunden wieder mehr Wert auf Ergebnisse gelegt wird, die das Label „repräsentativ“ auch wirklich verdienen – oder darauf, wirklich alles aus den Daten herauszuholen, was darin verborgen ist, auch wenn es vielleicht zwei Tage länger in Anspruch nimmt...

Mir ist bewusst, dass die momentanen wirtschaftlichen Zwänge im Marktforschungs-Business diese Form der Marktforschung nicht immer zulassen – was schade ist, denn dem Kunden entgeht durch die Konzentration auf Oberflächliches und Look viel mehr, als ihm vermutlich bewusst ist. Dennoch besteht ganz klar ein Bedarf an solchen Dienstleistungen – und damit eine Marktlücke, die ich nur zu gern zu füllen bereit bin, auch wenn die Lücke – und dies ist wohl die wichtigste Erkenntnis des vergangenen Jahres – sehr viel größer ist, als dass mein kleines Angebot sie jemals schließen könnte. Darum wendet sich mein Fazit vor allem an all die Markt- und Meinungsforscher da draußen, die sich in den letzten Jahren auch darüber geärgert haben, dass mehr und mehr Zeit und Aufwand auf die Präsentation der Ergebnisse verwendet werden, als auf die Datenanalyse selbst, an all diejenigen die wissen, dass aus den Daten oft noch viel mehr herauszuholen wäre, wenn man analytisch nur etwas weiter gehen würde, und an all diejenigen, denen der inflationäre Gebrauch von Begriffen wie „repräsentativ“ und „signifikant“ auch in gänzlich unpassenden Situationen gehörig an den Nerven zehrt: Wer sich in einer Position befindet, in der er oder sich etwas an diesen Mißständen ändern kann, möge es ruhig versuchen – es lohnt sich....

Welche Empfehlungen für die Personalverantwortlichen ergeben sich aus diesen Erkenntnissen? Vielleicht sollten die statistischen Methodenkenntnisse und die analytischen Fähigkeiten eines Bewerbers wieder eine größere Rolle spielen als das perfekte Styling, der ansprechende Smalltalk oder die nervliche Belastbarkeit in fachfremden und völlig überspitzten „Assessment Centern“. Möglicherweise ist es auch unwirtschaftlich, Absolventen jahrelang als Praktikanten und Trainees an der kurzen Leine zu halten (wie ich dies bei einigen meiner ehemaligen Studienkollegen erleben durfte) – nur um sie dann durch neue Praktikanten und Trainees zu ersetzen. Gute Leute wachsen mit der Zeit in ihre Aufgaben und zehn Jahre Berufserfahrung sind dem Kunden gegenüber sehr leicht als Gewinn zu vermitteln. Apropros Berufserfahrung: Vielleicht sollte man auch dem Jugendwahn gegenüber einmal eine kritische Haltung einnehmen und Mitarbeiter über 40 nicht verstecken oder downsizen. Welcher Umstand könnte bloss zu der irrigen Annahme verleiten, jüngere Menschen könnten automatisch besser rechnen? Eine bessere Figur bei der Präsentation geben sie ja vielleicht ab – aber ist das wirklich die Kernkompetenz, auf die es ankommt?

Vielleicht sollten man auch mal aus eigenem Antrieb überprüfen, ob weiterführende Analysen wie Korrespondenz- oder Faktorenanalyse für einen vorliegenden Datensatz sinnvoll erscheinen – und sie dem Kunden vorschlagen, nachdem man zu einem positiven Ergebnis gelangt ist. Mir ist durchaus bewusst, dass dies in vielen Fällen dazu führen wird, dass man 30 kostbare Minuten damit verbringt, die Voraussetzungen für ein Analyseverfahren zu überprüfen, nur um festzustellen, dass es eben nicht durchführbar ist – und man demzufolge dem Kunden auch nichts anbieten kann, wofür dieser etwas zahlen würde. Aber was ist mit all den Datensätzen, aus denen sich mehr herausholen lässt als bloss ein paar Kreisdiagramme und ein dutzend Prozentwerte? Hat nicht der Auftraggeber dieser Befragung irgendwo ein Recht darauf, dass aus seinen Daten alles herausgeholt wird, was sich darin finden lässt? Vielleicht, ja vielleicht sollte man sogar so weit gehen, mit Begriffen wie „repräsentativ“ oder „statistisch signifikant“ wieder etwas vorsichtiger umzugehen und sie nur dort zu verwenden, wo sie wirklich inhaltlich angebracht sind. Mit Kunden, die einem daraufhin vielleicht abzuspringen drohen, weil sie bei der Konkurrenz ein „repräsentativeres“ oder „signifikanteres“ Ergebnis für ihr Geld bekommen, kann man durchaus auch reden und ihnen die mathematischen Sachverhalte darlegen....

Dies bringt mich zur letzten Erkenntnis dieses Jahresrückblicks, in der sich eine Empfehlung verbirgt, die bei näherem Hinsehen natürlich nur als frommer Wunsch zu werten ist: Vielleicht sollte man die Statistik hinter der Marktforschung auch ein wenig „de-mystifizieren“ und mit dem Kunden offener umgehen, sowohl was eventuelle Probleme in der Analyse, als auch was die saubere und ehrliche Interpretation der Ergebnisse betrifft. Manch einer denkt möglicherweise, der durchschnittliche Kunde sei gar nicht in der Lage und/oder nicht daran interessiert, etwas über die Statistik zu lernen, so dass beiden Seiten mit einer schicken Präsentation viel besser gedient ist – aus meiner Erfahrung eine Fehleinschätzung, denn viele Kunden interessieren sich sehr wohl für Details – gerade wenn es um ihr Unternehmen, ihre Produkte und ihre Marktposition geht. Manch einer mag sogar denken, dass es der Branche hilft, wenn man um die mathematischen Hintergründe ein großes Mysterienspiel veranstaltet, bei dem Worte wie „repräsentativ“ und „signifikant“ vom forschenden Experten der staunenden Zuhörerschaft zugeraunt werden, gerade so, als spräche man vom Heiligen Gral. Am Ende könnte ja so ein Kunde noch auf die Idee kommen, seine Marktforschung künftig selbst zu betreiben – eine gräuliche Vorstellung, die aber volkswirtschaftlicher Unsinn ist. Die meisten Menschen könnten ihr Brot vermutlich auch selbst backen, und gehen trotzdem noch zum Bäcker....

Solange sich bezüglich dieser Punkte in der Branche nichts ändert – und damit rechne ich persönlich eher wenig – freue ich mich über jeden Kunden, dem eine gründliche Analyse wichtiger ist als schnelle und bunte Ergebnisse. Nach einem Jahr konsequent wissenschaftlich gehaltener Analysen, kann ich im Grunde nur drei Dinge mit Bestimmtheit feststellen: Dass (1) das Experiment „Statistikberatung“ geglückt ist, ich mich (2) auf das nächste und übernächste und alle noch folgenden Jahre als freiberuflicher Statistik-Consultant mehr denn je freue und ich (3) auch weiterhin in diesem Blog über alle Erkenntnisse und Kuriositäten berichten werde, die sich mir auf diesem Weg noch offenbaren.

Donnerstag, 1. November 2007

Der Traum-Arbeitsplatz für jeden Statistiker...

...ist nicht das Bundesamt für Statistik (wenngleich sehr reizvoll), sondern – eine Versicherung! Dass die Durchführung von Risikoanalysen für die Branche eine gewisse Bedeutung hat, ist ja hinreichend bekannt – die immer verrückter werdenden Gewinn- und Glücksspiele in Radio und TV haben jedoch zu einer völlig neuen Form von Versicherungen geführt, die kürzlich von Reinhold Rühl in der Süddeutschen beleuchtet wurde.

Ein gutes Beispiel für diese Form der Versicherungen sind die im Radio häufig durchgeführten Gewinnspiele der Marke “Wer einen 5-Euro-Schein mit einer bestimmten Seriennummer besitzt, kann 200.000 Euro gewinnen”. Die meisten Veranstalter solcher Gewinnspiele, so scheint es, verfügen gar nicht über das zum Gewinn ausgeschriebene Kapital, sondern versichern das “Gewinnrisiko” bei speziellen Gewinnspielversicherern wie der Agentur Sales Promotions and Services (SPS), deren US-amerikanische Muttergesellschaft weltweit mehr als 500 Gewinnspiele jeden Monat versichert. Die Kosten für eine solche Versicherung berechnen sich logischerweise aus der Höhe der Gewinnsumme und der Wahrscheinlichkeit für einen Haupttreffer.

Also wie groß ist die Wahrscheinlichkeit für einen Gewinn beim “Geldscheinspiel”? Wie stehen die Chancen auf eine Trefferserie beim Torwandschießen? Oder auf den Hauptgewinn bei so skurrilen Wetten wie dem österreichischen “Kuhbingo”, bei dem derjenige siegreich hervorgeht, der die exakte Position auf einem Feld am besten bestimmen kann, an dem eine Kuh sich...nun ja, erleichtert...

Was für ein faszinierender Job muss es sein, all diese Wahrscheinlichkeiten zu berechnen – vor allem angesichts der Tatsache, dass die Medien mit immer skurrileren und abstruseren Gewinnspielen locken. Für einen begeisterten Statistiker und Glücksspiel-Theoretiker in jedem Falle der Traum-Arbeitsplatz schlechthin. Falls also jemand bei Sales Promotions and Services mitlesen sollte – ich könnte sofort anfangen.

Der deutsche Markt, dies lässt sich der Süddeutschen noch entnehmen, hängt allerdings bei der Absicherung von Glücksspielrisiken noch etwas hinterher – viele Veranstalter setzen hierzulande noch auf klassische Verlosungen, bei denen immer jemand gewinnt – und dieses Risiko kann und muss nun wirklich niemand versichern....

Neues Buch zur Online-Marktforschung

Nach dem erfolgreichen Buch “Multivariate Analyseverfahren in der Marktforschung”, welches 2006 im Internetverlag LuLu erschienen ist, konnte ich dieser Tage mein zweites Werk zum Thema Online-Marktforschung beim GRIN-Verlag für wissenschaftliche Texte veröffentlichen. Das Buch trägt den langen Titel “Möglichkeiten und Grenzen von Online-Befragungen unter besonderer Berücksichtigung der Daten- und Stichprobenqualität” und basiert auf meiner Diplomarbeit an der Hochschule Harz.

Noch zum Jahrtausendwechsel gingen viele Marktforscher davon aus, dass Online-Befragungen, Befragungen, die per E-Mail oder über einen HTML-Fragebogen durchgeführt werden, in naher Zukunft konventionelle Befragungen ersetzen könnten – hohe Erwartungen, die sich nicht erfüllt haben. Dennoch nimmt die Anzahl der Online-Befragungen mit der steigenden Bedeutung des Internet ständig zu, und es ist zu erwarten, dass Online-Befragungen in der Zukunft der Marktforschung eine wichtige, wenn auch keine dominierende Rolle spielen werden. Die Herausforderung bei der Durchführung einer Online-Befragung besteht in der Erreichung eines Gleichgewichts zwischen den neuen technischen Möglichkeiten und den Regeln und Standards der konventionellen Marktforschung, die auch in der virtuellen Welt beachtet werden müssen.

Nur eine gut geplante und nach wissenschaftlichen Prinzipien durchgeführte Online-Befragung führt zu qualitativ hochwertigen und, im Rahmen von quantitativen Untersuchungen, auch zu repräsentativen Ergebnissen. Die Neuerscheinung beschäftigt sich mit der Frage, wie sich solche Befragungen optimal planen, sauber durchführen und wissenschaftlich Auswerten lassen. Insbesondere werden Fragen beantwortet wie z.B.:

  • Was ist aktive, was passive Rekrutierung?
  • Wie lässt sich eine Zufallsauswahl online realisieren?
  • Wie lassen sich “Incentive-Jäger” erkennen und ausschließen?
  • Wie vermeidet man die Aussortierung von Befragungs-E-Mails?
  • Wie lassen sich Probanden während der Teilnahme kontrollieren?
  • Wie lässt sich die Repräsentativität von Online-Befragungen sichern?
  • Wie lassen sich mit HTML und JavaScript gute Fragebögen erstellen?

Neben amazon und weiteren Online-Händlern lässt sich das Buch mit der ISBN 978-3638827423 auch über den normalen Buchhandel beziehen, eine PDF-Version ist außerdem zum reduzierten Preis direkt beim GRIN-Verlag erhältlich. Ich hoffe, das Buch findet den einen oder anderen interessierten Leser, wobei ich allen Käufern (sowie allen anderen Marktforschungs-Interessierten) natürlich jederzeit als Diskussionspartner für Nachfragen zur Verfügung stehe.

Um es für die Erstkäufer etwas interessanter zu machen, gilt außerdem folgendes Sonderangebot: Wer innerhalb der nächsten 30 Tage zuschlägt und das Buch erwirbt, kann 3 kostenlose Beratungsstunden bei der Statistikberatung Reinboth in Anspruch nehmen – Interessenten schreiben mir einfach bis Mitte Dezember eine E-Mail und beantworten eine Frage zum Buch, und schon können die kostenlosen Beratungsstunden in Anspruch genommen werden.

Dienstag, 23. Oktober 2007

Marktforschung ist viel zu kompliziert!!!

Oder zumindest ist sie das in Österreich.... Eine interessante Meldung aus unserem Nachbarland: An der Kepler-Uni fallen die Studenten massenhaft durch die Prüfungen – so hat es in der Marktforschungs-Klausur für Sozialwissenschaftler glatte 93 Prozent aller Teilnehmer erwischt (von 47 Kandidaten haben nur drei die Klausur bestanden) – und das bei einer Nachprüfung, für die (erfahrungsgemäß) meist schon etwas mehr gelernt wird. Als jemand der selbst Marktforschung und Statistik unterrichtet, kann ich mich hier der Auffassung des Artikelschreibers nur anschließen: Die Quote ist schon erstaunlich hoch....

Soweit ich mich erinnere, lag die Durchfallquote in den beiden bisher von mir gestellten Klausuren in der Vertiefungsrichtung Marktforschung bei etwas über 5 Prozent (wohlgemerkt, beim ersten Versuch), durch meinen letzten Einführungskurs in die Datenanalyse mit SPSS ist sogar kein einziger Student gefallen... Ist nun Marktforschung in Österreich zu schwierig, oder machen meine Kollegen und ich es den Studenten hier zu leicht....? Angesichts der im Artikel beschriebenen allgemeinen Situation an der Kepler-Uni – die Durchfallwelle beschränkt sich dort ja nicht nur auf die Marktforschung – vermute ich das Problem eher in Österreich als bei uns, auch wenn einen die Zahlen direkt dazu animieren, in die nächste Klausur nochmal eine extra-schwierige Aufgabe zu integrieren....

Ganz so einfach sollte eine Marktforschungs-Klausur dann ja auch wieder nicht zu bestehen sein – wäre das interessanteste Fach gleichzeitig auch noch das einfachste, könnten wir uns ja vor Studenten kaum retten.... Alle Klausurenschreiber, ob hier oder in Österreich, sind übrigens herzlich dazu eingeladen, den RSS-Feed für das Statistikberatungs-Blog zu abonnieren, das Marktforschungs-Wiki zu besuchen (und mit neuen Artikeln zu füllen) oder von den Vorlesungsunterlagen auf der Statistikberatungs-Webseite Gebrauch zu machen.

Freitag, 12. Oktober 2007

Wofür steht das Gütemaß R² in der Regressionsanalyse?

Jede Analysesoftware, mit der sich Regressionsanalysen berechnen lassen – sei es nun SPSS oder NSDStat – gibt neben anderen Kennzahlen stets auch das sogenannte Gütemaß R² aus – doch was bedeutet es?

Das Ziel der Regressionsanalyse ist bekanntlich die Errechnung der linearen Regressionsgleichung – einer Gleichung vom Typ Y = f(x), mit der sich Werte der abhängigen Variablen anhand der unabhängigen Variablen prognostizieren lassen. Nun sagt der Begriff „lineare Regressionsgleichung“ schon aus, dass das Modell nur dann eine gute Prognose liefern kann, wenn ein linearer Zusammenhang zwischen der abhängigen und der unabhängigen Variablen besteht – existiert zwischen diesen kein Zusammenhang oder ist dieser nicht linearer Natur (also beispielsweise exponentiell oder monoton fallend), ist das Modell dagegen relativ nutzlos.

An dieser Stelle kommt das Gütemaß R² ins Spiel – da sich in jedem Fall eine Gleichung aufstellen lässt, deren Nutzen aber von der Stärke des linearen Zusammenhangs abhängt, muss es für den Marktforscher eine Möglichkeit geben, die Güte der Gleichung zu prüfen und damit festzustellen, ob das gefundene Modell etwas taugt. Im Idealfall – einem perfekten linearen Zusammenhang – reihen sich sämtliche Meßwerte aus der Stichprobe wie an einer Perlenschnur aneinander auf und können vollständig über eine lineare Gleichung abgebildet werden. Realistischerweise ist ein solcher Zusammenhang bei einer praktischen Untersuchung kaum zu erwarten – auch bei einem linearen Zusammenhang in der Grundgesamtheit wird es in der Stichprobe rein zufallsbedingt irgendwelche Abweichungen geben.

Dies bedeutet, dass sich die Meßpunkte bzw. deren Streuung mehr oder weniger gut durch die gefundene Gleichung erklären lassen – je nach Güte des Modells. Das Gütemaß R² wird aus dem Verhältnis von durch die Gleichung erklärter Streuung zur Gesamtstreuung errechnet und gibt damit prozentual an, wieviel Streuung durch das gefundene lineare Gleichungssystem aufgeklärt werden. Ein Wert von 0,92 bedeutet beispielsweise, dass 92% der Streuung durch die Gleichung erklärt werden – ein sehr gutes Modell also, verglichen beispielsweise mit einem R² von 0,23.

Ein Problem ergibt sich in der multiplen Regressionsanalyse, also bei der Aufstellung von Regressionsgleichungen mit mehr als einer unabhängigen Variablen. Die Streuungsaufklärung in einem linearen Regressionsmodell sinkt nämlich nicht durch die Hinzufügung von unnützen Variablen – hat ein Modell mit zwei Variablen beispielsweise eine Streuungsaufklärung von 80%, so wird es durch die Hinzufügung von fünf zusätzlichen Variablen keine geringere Streuungsaufklärung erhalten. Ganz im Gegenteil, die fünf Extra-Variablen erhöhen die Aufklärung vielleicht noch um zwei Prozent auf 82. Dies führt in der Praxis leider oft dazu, dass Marktforscher versucht sind, Modelle mit einem hervorragenden Gütemaß zu „kreieren“, indem sie zustätzliche Variablen mit minimalem Beitrag zur Streuungsaufklärung einfließen lassen. Erkennbar sind solche Variablen am „korrigierten R²“, welches von den meisten Statistikprogrammen zusätzlich zum R² ebenfalls standardmäßig ausgegeben wird – doch dessen Interpretation ist Stoff für einen anderen Blogbeitrag.

Dienstag, 9. Oktober 2007

Empirix kündigt Handbuch der deutschen Marktforschung und Jobbörse an

Unter der Adresse www.empirix.net finden potenzielle Kunden auf der Suche nach Marktforschern und Interviewern schon seit etlichen Jahren eine Vielzahl eingetragener Dienstleister. Als wissenschaftlicher Marktforschungs-Service ist natürlich auch die Statistikberatung Reinboth dort mit einem kleinen Eintrag vertreten – da ich ansonsten aber eher selten nach anderen Dienstleistern suche, habe ich die Empirix-Webseite schon eine ganze Weile nicht mehr aufgesucht.

Gestern bin ich beim Surfen auf einer Institutsseite wieder über den Link gestolpert – und siehe da: abgesehen von einer verbesserten Optik und Navigation findet sich auf der Empirix-Webseite neuerdings auch die Ankündigung, demnächst ein druckbares Verzeichnis aller eingetragenen 1500 Marktforscher und Marktforschungsinstitute sowie eine Marktforschungs-Jobbörse anbieten zu wollen – sicherlich zwei interessante Angebote, so sie denn tatsächlich umgesetzt werden sollten. Ich werde auf jeden Fall in den nächsten Monaten öfter mal vorbeisurfen und mich auf dem Laufenden halten – wer weiss, für welches Projekt ich doch mal einen Interviewer brauche...

Donnerstag, 4. Oktober 2007

Einfaktorielle Varianzanalyse mit SPSS – oder mit SPASS?

Der Softwarehersteller Softnik bietet unter www.goodkeywords.com eine hauptsächlich für SEOs interessante kostenlose Software zur Keyword Analysis an. Mit diesem Programm lässt sich beispielsweise leicht feststellen, wie viele Suchanfragen es im Schnitt pro Monat nach einem Begriff wie „Varianzanalyse“ gibt und in Kombination mit welchen anderen Wörtern nach der Varianzanalyse gesucht wird, also beispielsweise „Varianzanalyse“ und „einfaktoriell“.

Bei der Analyse der Suchanfragen nach einigen wichtigen statistischen Methoden stößt man dann auch schnell auf Interessantes: Während monatlich mehr als 61.000 mal nach „Britney Spears“ und immerhin noch mehr als 1.000 mal nach „Angela Merkel“ gesucht wird, gibt es lediglich 47 Anfragen nach „Varianzanalyse“, 15 nach „Korrespondenzanalyse“ und 84 nach „Regressionsanalyse“. Über die Bedeutung dieses Ungleichgewichts könnte man jetzt sicher viel spekulieren – sicher wäre es schön, die Suchmuster würden sich eines Tages umkehren, andererseits ist die Statistik eben immer noch ein Spezialthema.... Wäre dies nicht so, hätten Statistik-Consultants wie ich auch wenig zu tun....

Viel interessanter ist allerdings dieses Ergebnis:

(Für eine Großbildansicht bitte einfach auf die Grafik klicken)

Im Schnitt kombinieren also 6 Informationssucher im Monat die „Varianzanalyse“ mit „SPSS“ - während doppelt so viele Suchanfragen auf die Kombination von „Varianzanalyse“ und „SPASS“ formuliert werden.

Dies könnte man für einen seltsamen Zufall halten, wäre da nicht:



Man beachte die vierte Suchanfrage von oben - "lineare Regressionsanalyse" und "SPASS". Eine angesichts dieses Ergebnisses spontan durchgeführte (und daher kaum repräsentative) Überprüfung von zwei Dutzend Keywords aus der Marktforschung ergab, dass in den meisten Fällen wesentlich mehr Statistik-Interessierte nach „SPASS“ anstelle von „SPSS“ suchen.

Stellt sich nur noch die Frage, wer das erste SPASS-Analyseprogramm auf dem Markt anbietet und damit all die potenziellen Käufer abgreift.... Bis dahin hoffe ich einige dieser Suchenden mit diesem Blog-Artikel einzufangen, daher sei mir ein wenig Eigenwerbung erlaubt: Wenn Sie nach Regressionsanalyse, Varianzanalyse oder Faktorenanalyse mit SPASS suchen, dann sind Sie bei der Statistikberatung Reinboth an der richtigen Adresse...

Donnerstag, 27. September 2007

Prüfung auf Varianzgleichheit – wie und warum?

Viele statistische Prozeduren, bei denen mehrere Fallgruppen untersucht und miteinander verglichen werden, setzen voraus, dass die betrachteten Variablen innerhalb der einzelnen Gruppen in der Grundgesamtheit gleich große Varianzen aufweisen. In SPSS und anderen Statistikprogrammen lässt sich mit einem Levene-Test untersuchen, ob diese Voraussetzungen erfüllt sind. Ist dies nicht der Fall, lässt sich anhand grafischer Darstellungen feststellen, ob vorliegende Abweichungen zwischen den Varianzen vielleicht auf unterschiedliche Niveaus der Werte beziehungsweise des Medians zurückzuführen sind. Sollten sich unterschiedliche Varianzen so erklären lassen, kann man mit Hilfe von Transformationen noch versuchen, gleiche Varianzen für die Gruppen herbeizuführen.

Beim Levene-Test handelt es sich um einen Signifikanztest, der für verschiedene Gruppen von Werten die Nullhypothese prüft, dass die (Gruppen-)Varianzen der untersuchten Variablen in der Grundgesamtheit in allen Gruppen identisch sind. Der Test berechnet den F-Wert als statistisches Prüfmaß, dessen Verteilung bekannt ist. Damit wird überprüft, mit welcher Wahrscheinlichkeit die beobachteten Unterschiede auftreten können, wenn in der Grundgesamtheit tatsächlich keine Unterschiede bestehen. Eine geringe Wahrscheinlichkeit deutet demnach auf einen Unterschied zwischen den Varianzen hin. Diese Wahrscheinlichkeit ist gleichzeitig die Irrtumswahrscheinlichkeit, mit der sich die Nullhypothese (gleiche Varianzen in der Grundgesamtheit) noch verwerfen lässt.

Auch aus Streudiagrammen und Boxplots lassen sich Informationen über die Varianzgleichheit herauslesen, hierbei ist darauf zu achten, wie sehr die Werte optisch um den Median herum streuen. Ein statistisches Testverfahren wie der Levene-Test ist aber in jedem Fall vorzuziehen, da in jeder echten Zufallsstichprobe natürlich auch zufällige Streuungsmuster auftauchen können, weshalb die Durchführung eines den Rückschluss auf die Grundgesamtheit ermöglichenden Testverfahrens nur empfohlen werden kann.

Liegt keine Varianzgleichheit vor, sollte von der Durchführung etlicher Analyseverfahren, wie beispielsweise der multiplen Regressionsanalyse, Abstand genommen werden, da sonst mit teils stark verzerrten und fehlerhaften Ergebnissen zu rechnen ist.

Donnerstag, 20. September 2007

Mittelwerte richtig interpretieren

Die korrekte Interpretation von Mittelwerten ist das aktuelle Thema in Wolfgang Peters Arbeitszimmer-Blog, ein Thema zu dem ich in diesem Blog sowie bei lernmodule.net auch schon einiges geschrieben habe. Wenn ich mir das gut formulierte Arbeitszimmer-Rechenbeispiel so ansehe, fällt mir wieder eine Geschichte zum Thema Mittelwertinterpretation ein, die ich schon in einigen Vorlesungen zum Besten gegeben habe: Der wahre Grund für die niedrige Lebenserwartung im Mittelalter.

Wie vermutlich jeder von uns sich schon im Geschichtsunterricht auf der Schule anhören durfte, lag die durchschnittliche Lebenserwartung im Mittelalter deutlich unter der moderner Epochen. Der durchschnittliche Landarbeiter konnte sich freuen, wenn er 30 Jahre zählen durfte, mit 40 war er schon ziemlich alt und mit 50 ein wahrer Methusalem – ein biblisches Alter welches bei einer durchschnittlichen Lebenserwartung um die 40 Jahre natürlich kaum ein Mensch erreichte...


Sieht man sich die Altersverteilung einmal genauer an, so stellt man fest, dass es auch zu Kolumbus Zeiten 70-, 80- und sogar 90jährige Menschen gegeben hat – natürlich nicht in dem Maß, wie wir dies heute erleben (dafür sorgte schon die schlechtere Ernährung und die primitive Medizin), aber dennoch gab es sie – und die wenigsten sahen mit 30 schon ihrem Ableben ins Auge. Der Grund für die äußerst niedrige Lebenserwartung liegt vielmehr in der hohen Kindersterblichkeit – von sieben oder acht Kindern einer Durchschnittsfamilie erreichte kaum die Hälfte das vierte Lebensjahr, viele Kinder starben sogar direkt bei der Geburt. Lässt man diese Werte in die Berechnung des durchschnittlichen Sterbealters einfließen, so korrigiert sich dieses natürlich nach unten – und schon entsteht ein völlig falscher Eindruck hinsichtlich des Lebens im Mittelalter, zumindest wenn man darauf verzichtet, das Zustandekommen einer solchen Zahl näher zu beleuchten.


Das zeigt mal wieder, was man in der Schule alles nicht lernt – aber für die Berechnung des Klassendurchschnitts aus den ordinalskalierten Notenwerten hat meine Geschichtslehrerin auch immer auf das arithmetische Mittel zurückgegriffen...
Ein zweites Beispiel für die falsche Interpretation von Mittelwerten findet sich in meinem Erstlingswerk „Multivariate Analyseverfahren in der Marktforschung“, erschienen beim Internet-Verlag lulu:

Bei der Interpretation des arithmetischen Mittels sollte der Marktforscher außerdem stets im Hinterkopf haben, wie sich dieses berechnet. So lässt sich anhand der oben dargestellten Formel leicht nachweisen, dass die Mehrheit der Deutschen überdurchschnittlich viele Augen im Kopf hat: Da nämlich unter 80.000.000 Bundesbürgern auch etwa 20.000 Einäugige leben, ergibt sich bei der Berechnung der durchschnittlichen Augenzahl folgendes:



Da die meisten Deutschen aber immer noch zwei Augen haben...die Schlussfolgerungen seien jedem selbst überlassen. Festzustellen bleibt aber, dass das arithmetische Mittel nur dann sinnvoll und richtig interpretiert werden kann, wenn man es nicht einfach als „Durchschnitt“ hinnimmt, sondern während der Interpretation nie vergisst, wie der Wert berechnet wird bzw. welche Effekte auftreten können. Wer die „Stolperfallen“ bei der Interpretation von Mittelwerten dagegen im Hinterkopf behält, wird in den meisten Fällen keine Probleme bekommen. Allen Tutoren oder Lehrenden, die hierfür noch ein brauchbares (wirtschaftswissenschaftliches) Beispiel suchen und sich nicht mit mittelalterlichen Bauern und durchschnittlichen Augenzahlen in den Hörsaal stellen wollen, sei das praixsnahe und leicht verständliche Beispiel aus dem Arbeitszimmer noch einmal mit Nachdruck empfohlen.

Interessantes Praktikum in der Computerspiele-Marktforschung

Inzwischen haben sich ja schon einige Leser gefunden, die regelmäßig in diesem Blog vorbeischauen - vielen Dank für das Interesse. Da ich mir vorstellen könnte, dass vielleicht auch einige Studenten unter den Stammlesern sind, anbei ein interessantes Stellenangebot von praktika.de: Die Bigpoint GmbH, ein Hersteller von Browserspielen, sucht zur Zeit einen Praktikanten bzw. eine Praktikantin für den Bereich Produktanalyse. Die Hauptaufgaben liegen in der Durchführung von Usability-Tests, gefordert werden Know-How in der Marktforschung, der Mediennutzungsforschung und in der Arbeit mit gängigen Internetmetriken wie Page Impressions etc.

Interessenten finden alle weiteren Informationen zur Stellenausschreibung unter diesem Link. Wer sich also für Computerspiele-Marktforschung begeistern kann und ohnehin noch nach einer Praktikumsstelle sucht, sollte sich diese Chance nicht entgehen lassen...

Montag, 10. September 2007

Statistik zum Ladungsverlust – Weihnachtsbäume auf der Autobahn

Unter http://www.ladungsverlust.de veröffentlicht Robert Heret täglich aktualisierte Statistiken zu auf Autobahnen auftretenden Verkehrshindernissen – die Art, über die es im Verkehrsfunk immer heisst: „Auf der AX zwischen Y und Z befinden sich Gegenstände auf der Fahrbahn“. Und interessant ist es schon, was sich auf der Fahrbahn so alles anfindet – verletzte Kraniche, Feuerlöscher, Bierkisten, Koffer, Kleidersäcke, Schirmständer, Gartenrechen, Tischplatten und und und.... So lässt sich der Statistik beispielsweise entnehmen, dass seit 2003 insgesamt 27 Weihnachtsbäume als Verkehrshindernis erfasst wurden, wobei sich die Meldungen statistisch auffällig um den Dezember verteilen. Den letzten eingetragenen Weihnachtsbaum gab es am 17. Dezember des letzten Jahres gegen 8 Uhr Morgens zwischen Offenbach und dem Offenbacher Kreuz zu bestaunen – da soll noch mal einer behaupten, dass Statistiken generell trocken und langweilig sind...

Montag, 3. September 2007

Trennunscharfe Kategorien – ein typischer Fehler bei Online-Befragungen

Ein paar Gedanken hinsichtlich ein kleinen Fundstücks aus einer Online-Befragung, an der ich mich heute beteiligt habe – ich vermute übrigens dass ungefähr ein Drittel aller Teilnehmer ungerichtet beworbener Befragungen im Internet selbst Marktforscher sind – bis auf die Befragungen, bei denen es was zu gewinnen gibt, da dürften 90% der Stichprobe aus Incentive-Jägern bestehen und nur 10% aus Marktforschern...

Aber zurück zum Fundstück:


Frage: Welches ist der höchste Schulabschluss den Sie besitzen oder zurzeit anstreben?


1. Studium

2. Abitur

3. Realschulabschluss

4. Hauptschulabschluss

5. Ich gehe noch zur Schule

6. Ich verfüge über keinen Abschluss


Eine solche Auswahl von Antwortkategorien bezeichnet man als trennunscharf. Mal angenommen, ein Proband hat bereits den Realschulabschluss in der Tasche und bereitet sich gerade auf sein Abitur vor. In diesem Fall könnte er den Realschulabschluss als höchsten Schulabschluss angeben, den er zurzeit besitzt, das Abitur als höchsten Schulabschluss, den er zurzeit anstrebt, oder aber die Antwort „Ich gehe noch zur Schule“ wählen, die ja auch irgendwie passt.


Fazit: Wird die Frage unsauber formuliert (wie in diesem Fall zwei Fragen in einer) oder aber sind die Antwortkategorien trennunscharf (wie in diesem Fall durch „Ich gehe noch zur Schule“, welche sich mit anderen Kategorien überschneidet), lassen sich die Ergebnisse nicht vernünftig auswerten. Dazu kommt in der vorliegenden Frage noch die Antwort „Studium“, mit der wohl der Studienabschluss gemeint ist – da ein Studienabschluss aber kein Schulabschluss ist, wird hier die mangelnde Eignung der Kategrien noch verstärkt.


Insbesondere bei Online-Befragungen fällt mir immer wieder auf, dass Fragen unklar formuliert oder Kategorien unsauber eingeteilt werden – vielleicht liegt es ja daran, dass man den Fragebogen schnell mit ein paar Klicks erstellen kann und eine oder zwei Fragen oder Antwortoptionen schnell eingearbeitet werden können. Darüber kann man manchmal leicht vergessen, dass in einen Online-Fragebogen trotzdem eben so viel Sorgfalt und Vorbereitung fließen sollte wie in einen traditionellen „Papier-Fragebogen“.


Oft hilft es, den Fragebogen vor der eigentlichen Erhebung einem Pre-Test zu unterziehen – dieser muss weder repräsentativ sein noch sonstwelche Voraussetzungen erfüllen, benötigt werden lediglich einige Freiwillige mit Befragungserfahrung die den Fragebogen durchspielen und hinterher Feedback zu möglichen Schwachstellen im Design liefern. Ein hervorragender Ausgangspunkt für einen solchen Pre-Test ist beispielsweise eine google group wie de.alt.umfragen, in der man viele nette MaFo-Enthusiasten und Befragungs-Interessierte finden und für schnelle Pre-Tests rekrutieren kann.

Samstag, 1. September 2007

Was sind eigentlich Freiheitsgrade?

Im Gespräch mit einem Kollegen kam kürzlich die Frage auf, wie das Konzept der Freiheitsgrade in der statistischen Datenanalyse am besten vermittelt werden könnte, da gerade diesbezüglich das eine oder andere Verständnisproblem zu existieren scheint. Da ich kaum über theoretische Kenntnisse in Pädagogik verfüge, kann ich kaum einschätzen, ob meine „Standarderklärung“ einen hohen didaktischen Nährwert hat – bei meinen Studenten ist die folgende Erklärung aber immer auf offene Ohren gestoßen:

Die Freiheitsgrade geben die Anzahl von Größen eines Systems an, die bei einem feststehenden arithmetischen Mittel unabhängig voneinander variiert werden können. Ihre Bedeutung erklärt sich daraus, dass die Schätzung von Parametern in der Statistik stets eng mit den zur Verfügung stehenden Informationen verbunden ist. Die Anzahl an Informationen für die Schätzung entspricht der Anzahl der Freiheitsgrade. Da diese Definition recht trocken ist, verdeutlicht man sich das Konzept idealerweise an einem einfachen Beispiel:

Eine kleine Beispielverteilung bestehe aus den fünf Werten 1, 1, 2, 3 und 3. Das arithmetische Mittel dieser Verteilung liegt natürlich bei 2. Wenn nun die erste Zahl von 1 auf 2 geändert würde und die zweite Zahl von 1 auf 0, so läge das arithmetische Mittel immer noch bei 2 – daraus lässt sich schlussfolgern, dass die erste Zahl der geordneten Verteilung völlig frei verändert werden kann, ohne dass sich auch das arithmetische Mittel verändern, solange auch die anderen Zahlen frei verändert werden können. Dieses Beispiel lässt sich nun bis zum letzten Wert der Verteilung fortsetzen – und diesen allerletzten Wert kann man dann nicht mehr frei festlegen, wenn ein bestimmtes arithmetisches Mittel noch erreicht werden soll. Die Beispielverteilung hätte also fünf Werte und vier Freiheitsgrade – vier Werte die unter der Beibehaltung eines bestehenden arithmetischen Mittels noch frei festgelegt werden können.

In meinem SPSS-Foliensatz habe ich dieses Beispiel wie folgt dargestellt:


Merksatz: Die Freiheitsgrade geben die maximale Anzahl an Werten in einer Verteilung an, die beliebig geändert werden können, ohne dass sich das arithmetische Mittel der Verteilung ändert.

Freitag, 31. August 2007

Es muss nicht immer SPSS sein

Obwohl ich selbst während meiner Studienzeit viele Jahre lang mit SPSS gearbeitet habe und die enormen Möglichkeiten dieses Softwarepakets durchaus zu schätzen weiss, existieren meines Erachtens nach für die meisten Aufgaben im Bereich der statistischen Datenanalyse deutlich preisgünstigere Alternativen, mit denen sich die Berechnungen ebenso gut durchführen lassen. Für meine freiberuflichen Consulting-Tätigkeiten habe ich beispielsweise eine kommerzielle Lizenz des Softwarepakets NSDstat Pro erworben, welches vom Norwegischen Statistikamt entwickelt wurde und derzeit in Deutschland durch die bekannte GESIS - die Gesellschaft sozialwissenschaftlicher Infrastruktureinrichtungen – mit ihrem Zentrum für Analysen und Methoden (ZUMA) vertrieben wird. Die Software ist für den kommerziellen Einsatz für gerade einmal 150 EUR zu bekommen, Hochschulen und andere wissenschaftliche Einrichtungen zahlen 120 EUR, Studenten sogar nur 40 EUR für eine voll funktionsfähige Version.

NSDStat beherrscht alle statistischen Grundfunktionen aus der deskriptiven und explorativen Datenanalyse (also beispielsweise die Berechnung von Lage-, Streu- und Verteilungsmaßen, Kreuztabellen, Balken- und Kreisdiagramme), die wesentlichen statistischen Testverfahren (unter anderem Chi²-Test, t-Test und Scheffé-Test) sowie die wichtigsten Korrelationskoeffizienten (Bravais-Pearson, Spearman, Kendall). Highlight ist die Durchführbarkeit einer multivariaten Regressionsanalyse inklusive aller zugehörigen Testverfahren und grafischen Darstellungen – kein Unterschied zu SPSS.

Natürlich kann NSDstat nicht alles, so lassen sich beispielsweise keine Cluster- und Korrespondenzanalysen durchführen – die braucht man in der Praxis aber auch deutlich seltener und in der Basisversion von SPSS sind solche Verfahren ebenfalls nicht enthalten, hierfür müssen teure Zusatzmodule nachgekauft werden. Für 150 EUR erhält man also eine Software, die 80% des Leistungsspektrums der SPSS Base-Version abdeckt und mit der man zudem noch hevorragend Regressionsanalysen durchführen kann. Klar, als alteingesessener SPSS-Nutzer muss man sich an die Optik und die Benutzerführung erst einmal gewöhnen, aber wenn man dann einmal den Bogen raus hat, gehen die Analysen flott von der Hand.

Ein besonderes Highlight der Software ist die Möglichkeit, Datensätze anhand von mitgelieferten Karten auch geographisch auszuwerten, sich also beispielsweise die Verteilung einer bundesweit gezogenen Stichprobe auf einer Deutschlandkarte anzeigen zu lassen. Durch diese Option, die mir aus anderen Datenanalyse-Programmen noch nicht bekannt war, lassen sich schnell übersichtliche und aussagefähige Kartensätze erstellen. Die untenstehende Grafik zeigt wie eine solche Verteilung (hier: Mittelwerte einer näherungsweise metrisch verteilten Likert-Skala zum Thema „Wichtigkeit von Familien“ geographisch abgetragen) dann aussehen kann.





Fazit: Es muss nicht immer SPSS sein – auch wenn die Software natürlich nach wie vor das Non Plus Ultra der statistischen Analysesoftware darstellt. Neben dem hier beschriebenen NSDstat sind übrigens auch vollkommen kostenlose Alternativen einen zweiten Blick wert, beispielsweise CSPro, welches vom US Census Bureau entwickelt wird, oder aber WinIDAMS, herausgegeben durch die UNESCO. Zu guter Letzte ist die von der Freien Universität Berlin entwickelte Software mit dem schönen Namen "Statistiklabor" ist auf jeden Fall ebenfalls einen zweiten Blick wert, auch wenn die Bedienung des Programms sehr ungewöhnlich ist und den meisten vermutlich zunächst Schwierigkeiten bereiten dürfte (mir ging es jedenfalls so).

Donnerstag, 30. August 2007

Interessante statistische Untersuchung zum idealen Altersunterschied von Paaren

Der ORF berichtet in der aktuellen Ausgabe von "ORF ON Science" über eine interessante Studie der Biologen Martin Fieder und Susanne Huber von der Uni Wien, erschienen in den "Biology Letters". Forschungsfrage: Gibt es einen "idealen" Altersunterschied bei menschlichen Partnerschaften bzw. lässt sich das Vorhandensein eines solchen statistisch nachweisen? Als Datenbasis dienten Informationen über die Kinderfülle schwedischer Paare (n ~ 10.000).

Den "Erfolg" einer Partnerschaft machten die Autoren ausschließlich an der Kinderzahl fest (daher auch der Studientitel "Parental age difference and offspring count in humans") - eine aus Sicht des evolutionär vorbelasteten Biologen sicher sinnvolle Entscheidung - in der Natur zählt am Ende schließlich nur, wer seine Gene zu Lebzeiten am weitesten verbreiten konnte...

Aus Sicht des Marktforschers scheint ein Kriterium dagegen recht wenig zu sein, schließlich ließe sich der "Erfolg" einer Partnerschaft auch an anderen Indikatoren wie beispielsweise der Scheidungsrate, der Vorfälle häuslicher Gewalt oder dem subjektiv empfundenen Lebensglück der Befragten festmachen - je länger man darüber nachdenkt, desto mehr "weiche" Kriterien kommen einem in den Sinn - die aber vermutlich in einer biologischen Studie nichts zu suchen hätten.

Hinsichtlich des Altersunterschiedes kommen die Autoren übrigens zu folgendem Ergebnis: Frauen sollten nach einem ungefähr sechs Jahre älteren Partner Ausschau halten, Männer kommen am besten weg, wenn die Partnerin etwa vier Jahre jünger ist. Dieses auf den ersten Blick etwas kuriose Ergebnis - schließlich würde es keine Partnerschaften mehr geben, wenn die Frauen zukünftig auf sechs und die Männer auf vier Jahren Unterschied bestehen würden - erklären die Autoren mit den in der Realität meist eingeschränkten Optionen bei der Partnersuche: "Am Arbeitsplatz oder während der Ausbildung oder wo auch immer man seinen Partner bzw. seine Partnerin trifft, läge eben eine bestimmte Altersverteilung vor, wodurch sich unterschiedliche Werte für Männer und Frauen ergeben." (Quelle: ORF ON Science)

Also doch keine "idealen Werte", sondern eher Ergebnis unserer Lebens- und Arbeitskultur? Die Frage dürfte für Spekulationen wohl weiterhin offen sein. Ich jedenfalls darf mich freuen, dass meine Verlobte fast exakt vier Jahre vor mir geboren wurde - und hoffen, dass ihr die Studie nie selbst in die Hände fällt...

Mittwoch, 29. August 2007

Verlinkung mit dem Marktforschungs-Wiki

Dem einen oder anderen Leser dieses Weblogs wird sicher schon aufgefallen sein, dass viele der hier verwendeten Fachwörter mit Links hinterlegt sind – beispielsweise Normalverteilung, t-Test oder Varianzanalyse. Die Links verweisen alle auf das Marktforschungs-Wiki, welches ich vor etwa einem halben Jahr mit dem Ziel gegründet habe, ein zuverlässiges Online-Nachschlagewerk für statistische Fachbegriffe aufzubauen. Seit Gründung sind dort insgesamt etwas über 80 Definitionen und Fachartikel eingestellt worden, bis Jahresende möchte ich versuchen, diese Zahl auf 100 bis 120 Eintragungen anwachsen zu lassen. Mitstreiter sind mir dabei übrigens herzlich willkommen – wer dies möchte, kann sich im Marktforschungs-Wiki in weniger als 5 Minuten einen Account anlegen und mit der Verbesserung vorhandener oder der Erstellung neuer Einträge beginnen.

Statistische Lagemaße mit Vorsicht verwenden

Die statistischen Lagemaße vermitteln einen Eindruck von der Höhe, sowie zum Teil von der Verteilung der Variablenwerte. Für die einfache Datenanalyse sind das arithmetische Mittel, der Median sowie der Modus von Bedeutung. Neben diesen drei existieren noch andere Mittel wie das geometrische und das harmonische Mittel, bzw. abweichende Berechnungsformen wie das getrimmte arithmetische Mittel – diese sind aber nur für Spezialfälle (Berechnung durchschnittlicher Wachstumsraten, Berechnung des arithmetischen Mittels bei Vorliegen extremer Ausreißer usw.) interessant, in der Regel wird man entweder das arithmetische Mittel, den Median oder den Modus verwenden.

Das arithmetische Mittel ist nur für metrisch skalierte Werte sinnvoll (z.B. Temperaturwerte oder finanzielle Größen) . Die Kennzahl liefert eine sehr kompakte Aussage über alle gültigen Werte. Das arithmetische Mittel ist nicht robust gegenüber Ausreißen, sondern kann von diesen massiv verzerrt werden – es lässt sich aber auch ein getrimmtes arithmetisches Mittel berechnet, mit dem diese Verzerrungseffekte umgangen werden können. Sind die Werte nicht metrisch skaliert, sollte man sich hüten, ein arithmetisches Mittel zu berechnen – auch wenn die errechnete Zahl so aussieht, als würde sie scheinbar einen Sinn ergeben! Besondere Vorsicht ist dann geboten, wenn man eine statistische Analysesoftware wie das bekannte SPSS oder meinen momentanen Favoriten NSDstat einsetzt, da solche Programme einem nicht das Denken abnehmen können. Nur der User kann entscheiden, ob die Berechnung des arithmetischen Mittels bei bestimmten Daten angebracht ist oder nicht – meinen Studenten sage ich immer, dass SPSS auch ohne Probleme das arithmetische Mittel aus einer Liste von Telefonnummern oder Bankleitzahlen berechnet, wie sinnlos dies auch sein mag. Da also kein Programm den gesunden Menschenverstand und ein wenig Nachdenken ersetzen kann, liegt es in der Verantwortung des Users, die Voraussetzungen für die Berechnung des arithmetischen Mittels sowie vieler anderer statistischer Kennzahlen zu kennen und zu prüfen, bevor irgendwo ein entsprechender Button angeklickt wird.

Der Median kann schon bei ordinalskalierten Werten sinnvoll berechnet werden. Er ist definiert als derjenige Wert, der genau in der Mitte der geordneten Datenmenge liegt, das Feld der Daten also in zwei 50:50-Bereiche aufteilt. Der Median ist äußerst robust gegenüber Ausreißern und eignet sich daher bei Verteilungen mit größeren Ausreißern deutlich besser als das einfache arithmetische Mittel. Typische ordinalskalierte Werte sind übrigens Schulnoten, auch wenn viele Lehrer dies anders sehen, und für den Durchschnitt nach Klassenarbeiten gnadenlos das arithmetische Mittel berechnen. Wer sein Wissen hinsichtlich der Unterscheidung zwischen den verschiedenen Skalenniveaus nocheinmal auffrischen möchte, für den gibt es bei lernmodule.net eine kurze Unterrichtseinheit zum Thema.

Bleibt am Ende noch der Modus als das einfachste statistische Lagemaß, welches bereits für nominalskalierte Werte sinnvoll gebildet werden kann (beispielsweise Geschlechtsangaben oder aber die bereits erwähnten Telefonnummern und Bankleitzahlen – auch wenn ersteres immer noch nicht allzuviel Sinn machen würde). Der auch als Modalwert bezeichnet Modus ist schlicht und einfach der Wert, welcher in der betrachteten Verteilung am häufigsten vorkommt. Er lässt sich nur sinnvoll interpretieren, wenn die Verteilung ein eindeutiges Maximum besitzt – hier ist also wie bei den anderen Lagemaßen auch Vorsicht auf Seiten des Datenanalytikers geboten.