Donnerstag, 22. November 2007

Werden Destatis-Statistiken immer ungenauer?

Ulrike Müller weist in einem aktuellen Artikel der Financial Times Deutschland auf ein Problem mit den Wirtschaftsstatistiken des Statistischen Bundesamtes hin: Da die Menge an Daten, die von den Unternehmen an die Einrichtung geliefert werden ständig abnimmt, müssen immer häufiger Korrekturrechnungen zur Vervollständigung von Statistiken durchgeführt werden, wodurch deren Genauigkeit in Frage gestellt wird.

Grund für den nachlassenden Datenfluss sind vor allem von der Bundesregierung beschlossene Erleichterungen für den Mittelstand im Rahmen des Bürokratieabbaus. So sind Unternehmen aus dem verarbeitenden Gewerbe mit weniger als 50 Mitarbeitern seit Anfang 2007 nicht mehr verpflichtet, monatlich Daten für die amtliche Statistik zu liefern, statt dessen werden nun Umsätze, Mitarbeiterzahlen etc. nur noch einmal jährlich erhoben. Als Mit-Inhaber eines solchen Kleinunternehmens – der HarzOptics GmbH mit aktuell 5 Mitarbeitern – ist mir diese Änderung auch selbst schon aufgefallen – im ganzen Jahr 2007 musste ich lediglich einen Fragebogen für die amtliche Statistik ausfüllen, bei dem es sich auch noch um einen „Nachzügler“ mit Bezug zu unserer Gründungsphase im vorangegangenen Jahr handelte.

Für die Geschwindigkeit, mit der dynamische Entwicklungen am Markt wahrgenommen werden können, stellt dieser Informationsverzicht natürlich ein Problem dar. Als Beispiel führt Müller für ihren Bericht die Baubranche an: Während die größeren Bauunternehmen, bei denen die Auftragslage aktuell ungünstig aussieht, monatlich Daten zur Verfügung stellen, melden die kleineren Unternehmen mit zumeist günstiger Auftragslage nur noch jährlich. Als Folge davon, so Müller, scheint es möglich, dass der Schrumpfungsprozess in der Baubranche in der Statistik dramatischer ausfällt als in der Realität.

Obwohl das Statistische Bundesamt laut eigenen Angaben den Informationsverlust für unkritisch hält, wird unter anderem auf Seiten des Deutschen Instituts für Wirtschaftsforschung über mögliche Alternativen zum kompletten Datenverzicht nachgedacht, beispielsweise die Erhebung der Monatsdaten innerhalb einer repräsentativen Stichprobe kleinerer Unternehmen. Noch existiert meines Wissens nach hierzu keine Veröffentlichung von Destatis oder dem DIW, mal sehen ob irgendwann noch eine erscheint - gerade unter dem Aspekt der Repräsentativität von Großerhebungen ist die Problematik ja durchaus interessant...

Dienstag, 20. November 2007

NSDstat-Kurs im Statistikberatungs-Weblog

Nachdem ich nun bereits vor etlichen Monaten auf die statistische Analysesoftware NSDstat Pro „umgestiegen“ bin, kann ich ein uneingeschränkt positives Fazit ziehen: NSDstat Pro beherrscht nicht nur alle wesentlichen Funktionen für die multivariate Datenanalyse (Erstellung von Grafiken, Berechnung von Lage-, Streu- und Verteilungsmaßen, Berechnung von Testverfahren und Korrelationskoeffizienten, Durchführung linearer Regressionsanalysen etc.), sondern lässt sich dank komplett eingedeutschter Oberfläche auch noch leicht bedienen und ist (vor allem im Vergleich zum Branchenführer SPSS) geradezu konkurrenzlos günstig: Die Software ist für den kommerziellen Einsatz für gerade einmal 150 EUR zu bekommen, Hochschulen und andere wissenschaftliche Einrichtungen zahlen 120 EUR, Studenten sogar nur 40 EUR für eine voll funktionsfähige Version.

Natürlich kann NSDstat nicht alles – es lassen sich beispielsweise keine Cluster- und Korrespondenzanalysen durchführen – die braucht man in der Praxis aber auch deutlich seltener und in der Basisversion von SPSS sind solche Verfahren ja ebenfalls nicht enthalten. Wie der Einsatz in der Statistikberatung beweist, lässt sich die Software im professionellen Bereich problemlos verwenden, abgesehen davon eignet sie sich aufgrund des Preises, der deutschsprachigen Menüführung und des Leistungsumfangs aber gerade auch für Studierende die sich in überfüllten SPSS-Übungsräumen nicht konzentrieren können, und davor zurückschrecken, die teure Software für die Heimarbeit zu kopieren, wovon man angesichts der möglichen Strafen wirklich nur abraten kann.

Gerade weil NSDstat in diesen Fällen eine gute Alternative darstellt ist es bedauerlich, dass die Software im akademischen und studentischen Umfeld bislang nur recht sporadisch eingesetzt wird – ich kenne kaum Studenten, die das Programm einsetzen, und im Lehrbereich arbeiten alle mir bekannten Kollegen momentan noch ausschließlich mit SPSS. Da ich aus vielen E-Mails und Gesprächen weiss, dass es hauptsächlich Studierende und Lehrende sind, die diesen Blog frequentieren, habe ich mich dazu entschlossen, stufenweise ein kleines NSDstat-Tutorial aufzubauen: Während es natürlich nach wie vor wöchentlich reguläre Blogposts geben wird, werde ich versuchen, regelmäßig einmal jede Woche oder zumindest alle zwei Wochen ein Tutorial-Post zum Umgang mit NSDstat zu erstellen. Diese Tutorial-Posts werden sich zunächst vermutlich hauptsächlich um die Ausführung einfacherer Aufgaben drehen, wie beispielsweise die Berechnung des arithmetischen Mittels, des Medians oder die Durchführung des T-Tests, eventuell werde ich später auch auf die Durchführung von Komplexverfahren eingehen, sollte ein entsprechendes Interesse vorhanden sein.

Von der GESISder Gesellschaft sozialwissenschaftlicher Infrastruktureinrichtungen – die das Softwarepaket im deutschsprachigen Raum vertreibt, habe ich freundlicherweise die Genehmigung erhalten, auch Screenshots für meine Tutorial-Posts einsetzen zu dürfen, so dass sich der Umgang mit NSDstat auch visuell zeigen lassen wird. Kritik, Anregungen oder spezielle Themenwünsche werden natürlich gerne entgegengenommen – das Tutorial richtet sich ja in erster Linie an alle neuen oder potenziellen NSDstat-User unter meinen Lesern und soll sich daher auf jeden Fall auch an deren Interessen orientieren. Wer also ein bestimmtes Verfahren erklärt sehen möchte, oder sich selbst mit einem Tutorial-Post in den Aufbau der Artikelreihe einbringen will, ist herzlich dazu eingeladen, sich mit mir in Verbindung zu setzen.


Donnerstag, 8. November 2007

Ein Jahr „Statistikberatung Reinboth“ - Fazit und Ausblick

Vor nunmehr gut einem Jahr – genauer gesagt am 01.11.2006 – startete das Experiment „Statistikberatung“. Ziel war es, den Marktbedarf für statistisch fundierte Beratungsdienstleistungen auszuloten und zu nutzen. Angesichts der vielen „schnell schnell“-Marktforschung, bei der die Ergebnisse schon nach Tagen (oder im Extremfall sogar nach Stunden) erwartet werden, und bei der die statistische Genauigkeit angesichts der wirtschaftlichen Zwänge oft in den Hintergrund tritt, trat ich mit dem Anspruch an, meine Aufträge nicht noch schneller abzuarbeiten oder mit noch mehr Style präsentieren zu wollen, sondern statt dessen mathematisch saubere und exakte Markt- und Meinungsforschung zu betreiben. Den Kunden sollte mehr geboten werden als eine schnelle deskriptive Auswertung, ein paar schicke Grafiken und ein paar Koeffizienten oder Testverfahren – statt dessen bestand (und besteht) mein Angebot darin, mit Hilfe von komplexen, multivariaten Verfahren wie der Varianzanalyse, der Clusteranalyse oder der Faktorenanalyse den Zusammenhängen in den Daten auf den Grund zu gehen und die verborgenen Datenschätze zu heben und gründlich auszuwerten.

Nach einem Jahr kann man dieses Experiment rückblickend nur als gelungen bezeichnen. Für eine Dienstleistung, die aus Kostengründen nur online beworben und zudem nur nebenberuflich – und dadurch mit zeitlichen Einschränkungen – durchgeführt wird, fanden sich erstaunlich viele Interessenten und auch Kunden, wobei die meisten genau der Gedanke bewegte, der mich ebenfalls zur Gründung motiviert hatte: Wir wollen weg von der schnellen, sterilen und auf Style und Schein getrimmten Marktforschung und hin zu echter Datenanalyse, statistisch sauber und mathematisch fundiert. Die meisten Kunden zeigten sich mit dieser Erfahrung zufrieden und gemeinsam mit ihnen gelang mir eine interessante Feststellung: Ohne meinen Kollegen von einigen der größeren Marktforschungs-Unternehmen zu nahe treten zu wollen (denn natürlich gibt es da einige, die geradezu exzellente Arbeit leisten) – eine andere Art von Marktforschung ist möglich, eine, die über oberflächliche „schnell schnell“-Analysen hinausgeht und bei der statt auf die modisch gegeelte Haarpracht des Präsentierenden oder den perfekt eingeübten Smalltalk mit dem Kunden wieder mehr Wert auf Ergebnisse gelegt wird, die das Label „repräsentativ“ auch wirklich verdienen – oder darauf, wirklich alles aus den Daten herauszuholen, was darin verborgen ist, auch wenn es vielleicht zwei Tage länger in Anspruch nimmt...

Mir ist bewusst, dass die momentanen wirtschaftlichen Zwänge im Marktforschungs-Business diese Form der Marktforschung nicht immer zulassen – was schade ist, denn dem Kunden entgeht durch die Konzentration auf Oberflächliches und Look viel mehr, als ihm vermutlich bewusst ist. Dennoch besteht ganz klar ein Bedarf an solchen Dienstleistungen – und damit eine Marktlücke, die ich nur zu gern zu füllen bereit bin, auch wenn die Lücke – und dies ist wohl die wichtigste Erkenntnis des vergangenen Jahres – sehr viel größer ist, als dass mein kleines Angebot sie jemals schließen könnte. Darum wendet sich mein Fazit vor allem an all die Markt- und Meinungsforscher da draußen, die sich in den letzten Jahren auch darüber geärgert haben, dass mehr und mehr Zeit und Aufwand auf die Präsentation der Ergebnisse verwendet werden, als auf die Datenanalyse selbst, an all diejenigen die wissen, dass aus den Daten oft noch viel mehr herauszuholen wäre, wenn man analytisch nur etwas weiter gehen würde, und an all diejenigen, denen der inflationäre Gebrauch von Begriffen wie „repräsentativ“ und „signifikant“ auch in gänzlich unpassenden Situationen gehörig an den Nerven zehrt: Wer sich in einer Position befindet, in der er oder sich etwas an diesen Mißständen ändern kann, möge es ruhig versuchen – es lohnt sich....

Welche Empfehlungen für die Personalverantwortlichen ergeben sich aus diesen Erkenntnissen? Vielleicht sollten die statistischen Methodenkenntnisse und die analytischen Fähigkeiten eines Bewerbers wieder eine größere Rolle spielen als das perfekte Styling, der ansprechende Smalltalk oder die nervliche Belastbarkeit in fachfremden und völlig überspitzten „Assessment Centern“. Möglicherweise ist es auch unwirtschaftlich, Absolventen jahrelang als Praktikanten und Trainees an der kurzen Leine zu halten (wie ich dies bei einigen meiner ehemaligen Studienkollegen erleben durfte) – nur um sie dann durch neue Praktikanten und Trainees zu ersetzen. Gute Leute wachsen mit der Zeit in ihre Aufgaben und zehn Jahre Berufserfahrung sind dem Kunden gegenüber sehr leicht als Gewinn zu vermitteln. Apropros Berufserfahrung: Vielleicht sollte man auch dem Jugendwahn gegenüber einmal eine kritische Haltung einnehmen und Mitarbeiter über 40 nicht verstecken oder downsizen. Welcher Umstand könnte bloss zu der irrigen Annahme verleiten, jüngere Menschen könnten automatisch besser rechnen? Eine bessere Figur bei der Präsentation geben sie ja vielleicht ab – aber ist das wirklich die Kernkompetenz, auf die es ankommt?

Vielleicht sollten man auch mal aus eigenem Antrieb überprüfen, ob weiterführende Analysen wie Korrespondenz- oder Faktorenanalyse für einen vorliegenden Datensatz sinnvoll erscheinen – und sie dem Kunden vorschlagen, nachdem man zu einem positiven Ergebnis gelangt ist. Mir ist durchaus bewusst, dass dies in vielen Fällen dazu führen wird, dass man 30 kostbare Minuten damit verbringt, die Voraussetzungen für ein Analyseverfahren zu überprüfen, nur um festzustellen, dass es eben nicht durchführbar ist – und man demzufolge dem Kunden auch nichts anbieten kann, wofür dieser etwas zahlen würde. Aber was ist mit all den Datensätzen, aus denen sich mehr herausholen lässt als bloss ein paar Kreisdiagramme und ein dutzend Prozentwerte? Hat nicht der Auftraggeber dieser Befragung irgendwo ein Recht darauf, dass aus seinen Daten alles herausgeholt wird, was sich darin finden lässt? Vielleicht, ja vielleicht sollte man sogar so weit gehen, mit Begriffen wie „repräsentativ“ oder „statistisch signifikant“ wieder etwas vorsichtiger umzugehen und sie nur dort zu verwenden, wo sie wirklich inhaltlich angebracht sind. Mit Kunden, die einem daraufhin vielleicht abzuspringen drohen, weil sie bei der Konkurrenz ein „repräsentativeres“ oder „signifikanteres“ Ergebnis für ihr Geld bekommen, kann man durchaus auch reden und ihnen die mathematischen Sachverhalte darlegen....

Dies bringt mich zur letzten Erkenntnis dieses Jahresrückblicks, in der sich eine Empfehlung verbirgt, die bei näherem Hinsehen natürlich nur als frommer Wunsch zu werten ist: Vielleicht sollte man die Statistik hinter der Marktforschung auch ein wenig „de-mystifizieren“ und mit dem Kunden offener umgehen, sowohl was eventuelle Probleme in der Analyse, als auch was die saubere und ehrliche Interpretation der Ergebnisse betrifft. Manch einer denkt möglicherweise, der durchschnittliche Kunde sei gar nicht in der Lage und/oder nicht daran interessiert, etwas über die Statistik zu lernen, so dass beiden Seiten mit einer schicken Präsentation viel besser gedient ist – aus meiner Erfahrung eine Fehleinschätzung, denn viele Kunden interessieren sich sehr wohl für Details – gerade wenn es um ihr Unternehmen, ihre Produkte und ihre Marktposition geht. Manch einer mag sogar denken, dass es der Branche hilft, wenn man um die mathematischen Hintergründe ein großes Mysterienspiel veranstaltet, bei dem Worte wie „repräsentativ“ und „signifikant“ vom forschenden Experten der staunenden Zuhörerschaft zugeraunt werden, gerade so, als spräche man vom Heiligen Gral. Am Ende könnte ja so ein Kunde noch auf die Idee kommen, seine Marktforschung künftig selbst zu betreiben – eine gräuliche Vorstellung, die aber volkswirtschaftlicher Unsinn ist. Die meisten Menschen könnten ihr Brot vermutlich auch selbst backen, und gehen trotzdem noch zum Bäcker....

Solange sich bezüglich dieser Punkte in der Branche nichts ändert – und damit rechne ich persönlich eher wenig – freue ich mich über jeden Kunden, dem eine gründliche Analyse wichtiger ist als schnelle und bunte Ergebnisse. Nach einem Jahr konsequent wissenschaftlich gehaltener Analysen, kann ich im Grunde nur drei Dinge mit Bestimmtheit feststellen: Dass (1) das Experiment „Statistikberatung“ geglückt ist, ich mich (2) auf das nächste und übernächste und alle noch folgenden Jahre als freiberuflicher Statistik-Consultant mehr denn je freue und ich (3) auch weiterhin in diesem Blog über alle Erkenntnisse und Kuriositäten berichten werde, die sich mir auf diesem Weg noch offenbaren.

Donnerstag, 1. November 2007

Der Traum-Arbeitsplatz für jeden Statistiker...

...ist nicht das Bundesamt für Statistik (wenngleich sehr reizvoll), sondern – eine Versicherung! Dass die Durchführung von Risikoanalysen für die Branche eine gewisse Bedeutung hat, ist ja hinreichend bekannt – die immer verrückter werdenden Gewinn- und Glücksspiele in Radio und TV haben jedoch zu einer völlig neuen Form von Versicherungen geführt, die kürzlich von Reinhold Rühl in der Süddeutschen beleuchtet wurde.

Ein gutes Beispiel für diese Form der Versicherungen sind die im Radio häufig durchgeführten Gewinnspiele der Marke “Wer einen 5-Euro-Schein mit einer bestimmten Seriennummer besitzt, kann 200.000 Euro gewinnen”. Die meisten Veranstalter solcher Gewinnspiele, so scheint es, verfügen gar nicht über das zum Gewinn ausgeschriebene Kapital, sondern versichern das “Gewinnrisiko” bei speziellen Gewinnspielversicherern wie der Agentur Sales Promotions and Services (SPS), deren US-amerikanische Muttergesellschaft weltweit mehr als 500 Gewinnspiele jeden Monat versichert. Die Kosten für eine solche Versicherung berechnen sich logischerweise aus der Höhe der Gewinnsumme und der Wahrscheinlichkeit für einen Haupttreffer.

Also wie groß ist die Wahrscheinlichkeit für einen Gewinn beim “Geldscheinspiel”? Wie stehen die Chancen auf eine Trefferserie beim Torwandschießen? Oder auf den Hauptgewinn bei so skurrilen Wetten wie dem österreichischen “Kuhbingo”, bei dem derjenige siegreich hervorgeht, der die exakte Position auf einem Feld am besten bestimmen kann, an dem eine Kuh sich...nun ja, erleichtert...

Was für ein faszinierender Job muss es sein, all diese Wahrscheinlichkeiten zu berechnen – vor allem angesichts der Tatsache, dass die Medien mit immer skurrileren und abstruseren Gewinnspielen locken. Für einen begeisterten Statistiker und Glücksspiel-Theoretiker in jedem Falle der Traum-Arbeitsplatz schlechthin. Falls also jemand bei Sales Promotions and Services mitlesen sollte – ich könnte sofort anfangen.

Der deutsche Markt, dies lässt sich der Süddeutschen noch entnehmen, hängt allerdings bei der Absicherung von Glücksspielrisiken noch etwas hinterher – viele Veranstalter setzen hierzulande noch auf klassische Verlosungen, bei denen immer jemand gewinnt – und dieses Risiko kann und muss nun wirklich niemand versichern....

Neues Buch zur Online-Marktforschung

Nach dem erfolgreichen Buch “Multivariate Analyseverfahren in der Marktforschung”, welches 2006 im Internetverlag LuLu erschienen ist, konnte ich dieser Tage mein zweites Werk zum Thema Online-Marktforschung beim GRIN-Verlag für wissenschaftliche Texte veröffentlichen. Das Buch trägt den langen Titel “Möglichkeiten und Grenzen von Online-Befragungen unter besonderer Berücksichtigung der Daten- und Stichprobenqualität” und basiert auf meiner Diplomarbeit an der Hochschule Harz.

Noch zum Jahrtausendwechsel gingen viele Marktforscher davon aus, dass Online-Befragungen, Befragungen, die per E-Mail oder über einen HTML-Fragebogen durchgeführt werden, in naher Zukunft konventionelle Befragungen ersetzen könnten – hohe Erwartungen, die sich nicht erfüllt haben. Dennoch nimmt die Anzahl der Online-Befragungen mit der steigenden Bedeutung des Internet ständig zu, und es ist zu erwarten, dass Online-Befragungen in der Zukunft der Marktforschung eine wichtige, wenn auch keine dominierende Rolle spielen werden. Die Herausforderung bei der Durchführung einer Online-Befragung besteht in der Erreichung eines Gleichgewichts zwischen den neuen technischen Möglichkeiten und den Regeln und Standards der konventionellen Marktforschung, die auch in der virtuellen Welt beachtet werden müssen.

Nur eine gut geplante und nach wissenschaftlichen Prinzipien durchgeführte Online-Befragung führt zu qualitativ hochwertigen und, im Rahmen von quantitativen Untersuchungen, auch zu repräsentativen Ergebnissen. Die Neuerscheinung beschäftigt sich mit der Frage, wie sich solche Befragungen optimal planen, sauber durchführen und wissenschaftlich Auswerten lassen. Insbesondere werden Fragen beantwortet wie z.B.:

  • Was ist aktive, was passive Rekrutierung?
  • Wie lässt sich eine Zufallsauswahl online realisieren?
  • Wie lassen sich “Incentive-Jäger” erkennen und ausschließen?
  • Wie vermeidet man die Aussortierung von Befragungs-E-Mails?
  • Wie lassen sich Probanden während der Teilnahme kontrollieren?
  • Wie lässt sich die Repräsentativität von Online-Befragungen sichern?
  • Wie lassen sich mit HTML und JavaScript gute Fragebögen erstellen?

Neben amazon und weiteren Online-Händlern lässt sich das Buch mit der ISBN 978-3638827423 auch über den normalen Buchhandel beziehen, eine PDF-Version ist außerdem zum reduzierten Preis direkt beim GRIN-Verlag erhältlich. Ich hoffe, das Buch findet den einen oder anderen interessierten Leser, wobei ich allen Käufern (sowie allen anderen Marktforschungs-Interessierten) natürlich jederzeit als Diskussionspartner für Nachfragen zur Verfügung stehe.

Um es für die Erstkäufer etwas interessanter zu machen, gilt außerdem folgendes Sonderangebot: Wer innerhalb der nächsten 30 Tage zuschlägt und das Buch erwirbt, kann 3 kostenlose Beratungsstunden bei der Statistikberatung Reinboth in Anspruch nehmen – Interessenten schreiben mir einfach bis Mitte Dezember eine E-Mail und beantworten eine Frage zum Buch, und schon können die kostenlosen Beratungsstunden in Anspruch genommen werden.