ein Gemeinschaftsprojekt von

Datenauswertung qualitativer und quantitativer Daten

Datenauswertung gestaltet sich sehr unterschiedlich aufwändig bezüglich Zeit, Manpower, sowie benötigter technischer Ressourcen – und zwar in Abhängigkeit von der verwendeten Forschungsmethode. Qualitative Forschung erscheint zunächst generell aufwendiger als die Auswertung quantitativer Daten. Denn sicherlich ist etwa ein Signifikanztest mit einem Statistikprogramm, um beispielsweise signifikante Unterschiede zwischen Kindern in der stationären und ambulanten Jugendhilfe bezüglich deren CBCL-Werten zu berechnen, schneller durchgeführt als ein 1,5-stündiges Elterninterview aufwendig zu transskribieren (was durchschnittlich neun Stunden dauern kann) und anschließend objektiv-hermeneutisch zu analysieren. Bei genauerer Betrachtung lässt sich diese Faustregel jedoch nicht so ohne weiteres aufrechterhalten: Denn es bedarf im Kontext quantitativer Forschung ebenfalls einiger Zeitressourcen, etwa um eine gute Datenmatrix für das Statistikprogramm oder eine sinnvolle statistische Analysekonzeption zu entwickeln; zudem muss im Kontext qualitativer Forschung nicht jedes Interview vollständig transskribiert und Satz für Satz analysiert werden. (Auch geht man in der qualitativen Forschung immer mehr dazu über, schon vorliegendes Datenmaterial, z.B. Dokumente, zu analysieren, um möglichst wenig Datenverzerrung durch den Vorgang der Datenerhebung zu erzeugen.) In qualitativer Forschung arbeitet man zudem häufig bei der Rekrutierung der Stichprobe mit dem Kriterium der „theoretischen Sättigung“, was oft zu – im Vergleich zur quantitativen Forschung – eher kleinen Stichproben (z.B. n= 5-10) führt. (Theoretische Sättigung bedeutet, dass der das untersuchte Phänomen so weit erschlossen wird, dass (auch durch neue Daten, durch weitere „Versuchspersonen“, Studienteilnehmer) keine neuen Erkenntnisse mehr erwartet werden können. (Ludwig-Mayerhofer, 1999)).

Transparente Methodologie bei der Datenauswertung

Grundsätzlich gilt, dass die Datenauswertung, genau wie die Durchführung der Datenerhebung nach einer transparenten, systematischen Methodologie vorzugehen hat. Auch die Datenauswertung kann in Form einer Graphik veranschaulicht werden – was zur Transparenz des Auswertungsprozesses beiträgt.

„Mining the treasure“: Sich Zeit für die Datenauswertung und Interpretation nehmen

Der typische Ablauf eines Forschungsprojekts gestaltet sich vereinfacht ausgedrückt folgendermaßen: Datenerhebung, Auswertung, Interpretation. Je nachdem, welche Forschungsmethode man verwendet, kann diese Reihenfolge aber auch „durcheinander gewirbelt“ werden: Im qualitativen Konzept der Grounded Theory etwa sind Datenerhebung und –auswertung ineinander verschränkt: „The grounded theory …, with its notion of using the data analysis of the first interviews to modify the interview format in order to explore certain concepts in more depth. This recursive and iterative process is one that fits well with systemic practice, in which feedback informs and shapes further enquiry” (Burck, 2005, 244).

Es empfiehlt sich jedoch auf jeden Fall, sich angemessen Zeit zu nehmen, um den Schatz, die Essenz des Forschungsprojekts gut bergen zu können.

Es wurden keine Beiträge gefunden.