Datenanalyse

Aus InfoWissWiki - Das Wiki der Informationswissenschaft
Wechseln zu: Navigation, Suche

Der Begriff der „Datenanalyse“ wird häufig mit dem Begriff des „Data-Mining“ gleichgesetzt. Unter „Data-Mining-Techniken“ fasst man solche Techniken zusammen, die der explorativen Datenanalyse zugeordnet werden können. Ziel der explorativen Datenanalyse ist die Erkennung von Mustern bzw. die Suche nach Strukturen, Gefügen und Besonderheiten. Eine Abgrenzung von „Data-Mining“ zur statistischen Datenanalyse scheint in der Literatur nur schwierig durchführbar zu sein. Im Folgenden soll deshalb lediglich der Begriff der Datenanalyse Verwendung finden. Die statistische Datenanalyse gewinnt in unserer heutigen Gesellschaft immer mehr an Bedeutung. Bildungsprobleme, wie sie bei Forschungsstudien beispielsweise der PISA-Studie deutlich wurden, konnten mittels Datenanalyseverfahren erklärt, und somit Lern- und Lehrverhalten von Schülern bzw. Lehrern verbessert werden. Datenanalyse wird heute vor allem in der angewandten Statistik verwendet. Ziel der angewandten Statistik ist es, aus vorliegenden Daten verwertbare Informationen zu gewinnen. Die Daten sollen in geeigneter Weise zusammengefasst, geordnet und grafisch dargestellt werden. Die Datenanalyse ist häufig in einem statistischen Projekt eingebettet, das als zeitlicher Prozess gesehen werden kann. Im Folgenden soll vor allem auf die Unterscheidung zweier empirischer Forschungsrichtungen: der quantitativen und der qualitativen Forschung hingewiesen werden.


Definition

Datenanalysen sind, nach einer Definition des Meyers Online Lexikon, „numerische und statistische Verfahren zur Aufdeckung von Strukturen in großen Datenmengen.“ Bei einer Datenanalyse geht es primär darum, vorhandene Daten kennenzulernen, aufzubereiten und darzustellen und aus den vorhandenen Daten Hypothesen bzw. Fragestellungen zu entwickeln. Dabei wird das Ziel verfolgt, die in den Daten enthaltenen Informationen zu entdecken, zu beschreiben und darzustellen. Die Auswertungsmethodik wird vor allem durch die Qualität, Herkunft und Struktur des Datenmaterials, sowie durch die Testpersonen und die zu beantwortenden Fragestellungen bestimmt. Nicht jede Testperson eignet sich für jede Art von Untersuchung bzw. andersrum formuliert, nicht jede Untersuchung bzw. Befragung ist für jede Person geeignet, da es darin immer um eine individuelle Untersuchung geht. Als wichtigste Merkmale der Datenanalyse kann man folgende Punkte nennen:

  • der Verzicht auf eine Trennung zwischen Theorie und Realität
  • weitgehende Freiheit von Annahmen
  • schlechte Eignung für arbeitsteilige Analyse
  • Probleme bei automatischer Datenanalyse mit nachfolgender Interpretation.

Quantitative und qualitative Datenanalysen gehen in ihrer eigentlichen Tätigkeit zur Erkenntnisgewinnung prinzipiell gleich vor. Zunächst wird der Gegenstand formuliert den es zu begründen gilt und was durch den Einsatz eines bestimmten Verfahrens eigentlich gezeigt werden soll und kann bzw. warum ein bestimmtes Vorgehen gewählt wird oder warum andere Analysemethoden nicht für eine bestimmte Untersuchung in Frage kommen. Worauf die eigentliche Auswahl des durchgeführten Verfahrens jedoch beruht, wird in allen qualitativen bzw. quantitativen Datenanalysen vorgenommen. Auch die Grenzen der angewendeten Methodik und der durch sie gewonnenen Ergebnisse sollten in der Analyse offen gelegt werden. Häufig werden quantitative Methoden in den Sozialwissenschaften als Gegensatz zu den qualitativen Methoden gesehen, obwohl durchaus beide Methodenansätze kombinierbar sind, worauf jedoch später noch näher eingegangen werden soll.


Quantitative Methoden der Datenanalyse

Allgemeine Aussagen zu quantitativen Methoden

Winter grenzt quantitative Methoden wie folgt ab: „Bei der quantitativen Forschung geht es prinzipiell darum, Verhalten in Form von Modellen, Zusammenhängen und zahlenmäßigen Ausprägungen möglichst genau zu beschreiben und vorhersagbar zu machen“. Es geht vor allem darum, statistische zahlenmäßige Aussagen zu treffen. Leitgedanken dieser Forschungsrichtung sind:

  • die Isolierung von Ursachen und Wirkungen, also warum ein bestimmtes Ergebnis eintritt,
  • die saubere Operationalisierung von theoretischen Zusammenhängen, d.h. die Messbarkeit und Quantifizierung von Phänomenen,
  • und die Formulierung von Untersuchungsanordnungen, welche es dann erlauben Ergebnisse zu verallgemeinern und daraus allgemeingültige Gesetze aufzustellen.

Beispielsweise wird eine Befragung oder eine Beobachtung mit einer möglichst großen und repräsentativen Zufallsstichprobe durchgeführt (schriftliche Befragung mit Fragebogen). Die Messwerte, die sich daraus ergeben, werden miteinander oder mit anderen Variablen in Beziehung gesetzt und die Ergebnisse auf die Grundgesamtheit übertragen. Häufig wird auch eine vorher festgelegte Hypothese anhand der Daten überprüft. Die Kommunikation während der Forschung wird durch die Standardisierung weitgehend eingeschränkt, d.h. der Forschende kann nur die im Fragenkatalog vorgegebenen Fragen stellen und die erforschte Person kann nur aus vorgegebenen Antwortmöglichkeiten auswählen, so dass jeder Befragte exakt die gleichen Voraussetzungen bei der Beantwortung der Fragen hat. Das bedeutet, dass die meisten Vorgehensweisen genau standardisiert sind. Die Konstruktion des Fragebogens, die Versuchsplanung und die statistische Auswertung werden vorher festgelegt. Die Stichprobenauswahl erfolgt jedoch nach dem Zufallsprinzip. Es findet somit keine selektive Auswahl der Versuchspersonen statt. Wichtige Gütekriterien in der quantitativen Analyse sind:

  • Objektivität
    bezieht sich auf die Unabhängigkeit der Beschreibung eines Sachverhalts vom Beobachter. Die Äußeren Bedingungen werden möglichst ausgeschaltet, wodurch eine Art „Laborsituation“ erzeugt wird.
  • Reliabilität
    bezieht sich auf das Messinstrument selbst und bezeichnet die formale Genauigkeit wissenschaftlicher Untersuchungen. Bei Wiederholung eines Experimentes muss das gleiche Messergebnis nochmals erzielt werden. Die Genauigkeit der Messung sollte unabhängig davon sein, was eigentlich gemessen wird.
  • Validität
    bezeichnet die formale Genauigkeit wissenschaftlicher Untersuchungen (Gültigkeit). Hierbei geht es darum, inwieweit das Testinstrument das misst, was es eigentlich messen soll.

In der quantitativen Forschung wird betont, dass theoretische Aussagen niemals als empirisch endgültig bewiesen, also als verifiziert gelten können, das bedeutet, dass Aussagen niemals hundertprozentig bewiesen sind bzw. bewiesen werden können. Ein kurzes Beispiel soll diesen Gegenstand quantitativer Datenanalyse näher erläutern. Der theoretische Satz: „alle dreijährigen Mädchen spielen gerne mit Puppen“, kann niemals als endgültig wahr gelten, weil in der weiteren Forschung jederzeit ein kleines Mädchen auftauchen könnte, welches beispielsweise lieber mit Autos spielt. Durch eine solche empirische Erfahrung wäre der theoretische Satz falsifiziert, also widerlegt. Nach Sharp et al. ist das Ziel empirischer Forschung, möglichst solche theoretischen Sätze zu formulieren, die sich an der empirischen Erfahrung bewähren lassen. Sofern sie falsifiziert, also widerlegt werden, müssen die theoretischen Sätze verworfen oder modifiziert werden, aber ihr Wahrheitsgehalt darf dabei nicht verloren gehen. Die empirische Forschung konzentriert sich dabei auf die empirische Überprüfung von Hypothesen und Theorien. Deshalb bezeichnet man quantitative Ansätze auch als hypothesenüberprüfende Verfahren.


Voraussetzungen

Eine wichtige Voraussetzung von quantitativen Analysen stellt beispielsweise der „Untersuchungsgegensand“ dar. Hierbei ist es wichtig, den eigentlichen Untersuchungsgegenstand schon insoweit zu kennen, dass man Hypothesen über mögliche Zusammenhänge oder ein theoretisches Modell aufstellen kann, um bekannte Aspekte zu quantifizieren. Kurz gesagt: Man sollte den Untersuchungsgegenstand schon soweit kennen um daraus notwendige Hypothesen aufzustellen. Quantitative Methoden setzen Hypothesen voraus, die im weiteren Verlauf der Datenanalyse getestet werden. Des Weiteren zielen sie auf eine systematische Messung und Auswertung von sozialen Fakten mit Hilfe verschiedener Erhebungsinstrumente ab. In der quantitativ verfahrenden Sozialforschung werden nach Sharp et al. zählbare Eigenschaften gemessen. Die häufigsten Datenerhebungsverfahren in den Sozialwissenschaften sind die Befragung, die Beobachtung, das Experiment und die Inhaltsanalyse. Bei der Entwicklung quantitativer Forschungsinstrumente wie beispielsweise Fragebögen ist es wichtig, dass ausreichende Kenntnisse über relevante Inhalte und Beurteilungskriterien vorhanden sind. Also man sollte sich über die Inhalte klar machen um die Daten besser auswerten zu können. Als weitere wichtige Voraussetzung quantitativer Datenanalysen wird die Stichprobengröße und –zusammensetzung gesehen. Hierbei ist eine möglichst große Stichprobe von Vorteil, idealerweise sollte diese per Zufall ausgewählt werden. Kenntnisse der Testkonstruktionsprinzipien, z.B. im Rahmen der Fragebogenkonstruktion stellen eine weitere Voraussetzung dar.


Durchführung

Die Durchführung quantitativer Analysen lässt sich, nach Winter, in verschiedene Schritte gliedern. Zu Beginn einer jeden quantitativen sowie auch qualitativen Analyse definiert man zunächst die Fragestellung. Was will man eigentlich mit der Untersuchung bezwecken bzw. untersuchen und welche mögliche Erkenntnis möchte ich aus der Untersuchung eventuell ziehen. In einem nächsten Schritt sollte man alle verfügbaren Informationen über den Untersuchungsgegenstand einholen. Dabei sollten je nach Möglichkeit Informationen von verschiedenen Personen eingeholt werden, um einen möglichst großen Informationsgehalt zu bekommen. Nach der Informationsaufnahme konstruiert man das Erhebungsinstrument (z.B. Fragebogen, Beobachtung, Experiment, Inhaltsanalyse). Dieses Erhebungsinstrument muss für die Untersuchung geeignet sein und kann sich daher von Instrument zu Instrument stark unterscheiden. So sind beispielsweise Untersuchungen zum Aggressivitätsverhalten bei Jugendlichen womöglich mittels einer Beobachtung besser durchzuführen, als beispielsweise bei einer schriftlichen Befragung, denn welches Kind gibt schon gerne an, aggressives Verhalten an den Tag zu legen. Deshalb ist ein Pretest des Erhebungsinstruments, welcher zu Beginn der Testung durchgeführt wird, sehr hilfreich um zu sehen, ob die Methode auch wirklich die gewünschten Informationen liefert. Danach erhebt man dann die Daten, welche man im Anschluss daran, in ein quantitativ-statistisches Programm eingibt, welches die Daten auswertet. Als Beispiel sei hier das quantitativ-statistische Programm SPSS oder auch N6 genannt. Nach der Eingabe der Daten in das Programm, ist man in der Lage die Ergebnisse zu interpretieren. Man interpretiert beispielsweise die Korrelationen bzw. die gefundenen Zusammenhänge oder Unterschiede, wobei eine genaue Auswertung der Daten bereits das statistische Programm durchführt. Lediglich die zahlenmäßigen Zusammenhänge bzw. Unterschiede müssen noch gedeutet werden. In einem letzten Schritt präsentiert man dann die gefundenen Ergebnisse, und vergleicht diese mit der aufgestellten Hypothese, welche zu Beginn der eigentlichen Untersuchung aufgestellt werden sollte. Wie kann man aber jetzt quantitative Daten erheben um eine solche Analyse durchzuführen. Beispielsweise mit der Durchführung eines Fragebogens. Dabei existieren verschiedene Arten von Fragenbögen sowie verschiedene Arten von Fragen bzw. Fragestellungen (Geschlossene Fragen und offene Fragen). Die Vorteile solcher Fragebögen sind beispielsweise der leicht zu erreichende Adressatenkreis, wodurch man in der Lage ist, relativ große Untersuchungen durchzuführen. Des Weiteren ist der zeitliche Aufwand auch eher gering, weil man prinzipiell immer denselben Fragenkatalog hat und nicht für jede Testperson einen neuen erstellen muss, was im Gegensatz zur qualitativen Methodik ein wesentlicher Vorteil darstellt. Nachteile hingegen sind eventuelle Missverständnisse, da man im Prinzip keine Rückfragen während der Bearbeitung des Fragebogens stellen kann. Häufig wird der Fragebogen auch nicht komplett ausgefüllt, was bei der Auswertung des Fragebogens zu Problemen führen kann. Um eine quantitative Datenanalyse durchzuführen sind einige statistische Komponenten wichtig, welche bei der Auswertung der Daten eine wichtige Rolle spielen. Im Folgenden seien kurz einige wichtige Begriffe bei der Datenauswertung genant:

  • Mittelwert (arithmetisches Mittel)
    gebildet wird der Wert, indem man die Summe der Zahlen einer bestimmten Zahlenreihe, geteilt durch die Anzahl der darin befindlichen Zahlen bildet. Bei einer Zahlenreihe 2,3,5,7,8,12,19 wäre die Summe 56, geteilt durch die Anzahl der Zahlen (7). Der Mittelwert wäre hierbei 8.
  • Median
    ist der Wert, welcher genau in der Mitte liegt. Bei einer Zahlenreihe 2,3,5,7,8,12,19 wäre der Median 7, da dieser Wert in der Mitte der Zahlenreihe liegt.
  • Modalwert oder Modus
    hiermit wird der Wert der am häufigsten vorkommt gekennzeichnet. In einer Zahlenreihe 2,2,3,3,3,5,9 wäre der Modus 3.


Einsatzgebiet quantitativer Methoden

Quantitative Verfahren eignen sich vor allem

  • zur „Untersuchung großer Stichproben“,
  • zur „objektiven Messung und Quantifizierung von Sachverhalten“,
  • zum „Testen von Hypothesen und zur Überprüfung statistischer Zusammenhänge bzw. zahlenmäßigen Zusammenhängen“,
  • für wiederkehrende Fragestellungen, bei denen die Ergebnisse von verschiedenen Zeitpunkten verglichen werden sollen.

Die häufigsten Datenerhebungsverfahren in den Sozialwissenschaften sind, wie bereits weiter oben erwähnt wurde, die Befragung, die Beobachtung, das Experiment und die Inhaltsanalyse. Die schriftliche Befragung mit Fragebogen zählt dabei zu den häufigsten Methoden quantitativer Analysen. Mittels solcher Praktiken wird beispielsweise versucht, Wahlverhalten, Konsumverhalten, Heiratsverhalten oder Migration zu untersuchen. Häufig kommen in Wahlanalysen und in der Markt- und Meinungsforschung neben den quantitativen Methoden auch qualitative Methoden zur Anwendung, wie etwa halbstrukturierte Interviews, auf die jedoch erst im späteren Verlauf näher eingegangen werden soll. Quantitative Verfahren sind ideal, um objektive Daten über die Zeit zu vergleichen und daraus Entwicklungen abzulesen.


Vor- und Nachteile quantitativer Methoden

Quantitative Methoden liefern exakt quantifizierbare Ergebnisse. Die Ermittlung von statistischen Zusammenhängen oder auch statistischen Unterschieden ist hierbei möglich. Des Weiteren besteht die Möglichkeit, eine möglichst große Stichprobe zu untersuchen und damit repräsentative Ergebnisse zu erhalten, ohne dabei jedoch einen zu großen Aufwand betreiben zu müssen. Im Vergleich zu qualitativen Verfahren sind die geringen Kosten, und der geringe Zeitaufwand ein wichtiger Vorteil. Ein weiterer Vorteil besteht darin, dass sich die Ergebnisse mittels einfacher stochastischer Verfahren analysieren und auswerten lassen. So ist es möglich statistische Tests durchzuführen und Hypothesen zu prüfen und somit die Signifikanz zu berechnen. Explorativ lassen sich Daten zudem mittels

  • Faktorenanalyse,
  • Clusteranalyse und
  • multidimensionaler Skalierung auswerten.

Die selektive Wahrnehmung der quantitativen Verfahren wird als ein besonderer Nachteil dieser Methode gesehen. Man misst nur, was man vorher durch Items festgelegt hat. Bei qualitativen Verfahren erfolgt die Auswertung durch unabhängige Bewerter, wohingegen bei quantitativen Verfahren häufig kritisiert wird, dass die Beobachter nicht wirklich unabhängig sind. Deshalb werden häufig mehrere Personen als Bewerter gewählt, welche nicht zur Forschungsgruppe gehören. Ein weiterer Nachteil stellt der geringe Flexibilitätsgrad während der Untersuchung dar. Durch die Standardisierung der Untersuchungssituation, also durch eine vorab Festlegung verschiedenster Fragen bzw. Fragetypen, kann man nicht auf eine einzelne Person individuell Eingehen. Man erhält somit keine Verbesserungsvorschläge, da die Testpersonen oftmals nur Antwortmöglichkeiten ankreuzen kann und häufig keine Aussagen darüber machen kann, ob verschiedene Fragestellungen für eine bestimmte Person überhaupt einen Sinn machten.


Qualitative Methoden der Datenanalyse

Allgemeine Aussagen zu qualitativen Methoden

Zu Beginn soll ein Zitat von Glaser und Strauss den qualitativen Ansatz der empirischen Forschung genauer kennzeichnen: „Wir beschäftigen uns … mit dem Unterfangen, wie die Entdeckung von Theorien aus den Daten heraus – systematisch erhoben und analysiert in der Sozialforschung – verbessert werden kann“ (siehe Glaser/Strauss 1969). Ziel der qualitativen Forschung ist es, die Wirklichkeit anhand der subjektiven Sicht der relevanten Gesprächspersonen abzubilden und so mögliche Ursachen für deren Verhalten nachzuvollziehen. Gegenstand qualitativer Forschung sind soziale Zusammenhänge im Alltag bzw. die Konstruktionen von Wirklichkeit, beispielsweise die der Untersuchungssubjekte und der eigenen Wirklichkeit. Auch in der qualitativen Forschung wird betont, dass theoretische Aussagen niemals als empirisch endgültig bewiesen, also als verifiziert gelten können. Der qualitative Ansatz ist im Vergleich zum quantitativen Ansatz wesentlich offener und flexibler gestaltet. Gerade bei qualitativen Methoden spielt die Beziehung oder Kommunikation zwischen Forschenden und Erforschten eine wichtige Rolle. Durch die qualitative Vorgehensweise wird eine hohe Inhaltsvalidität und ein tieferer Informationsgehalt der Ergebnisse erreicht, ohne aber repräsentative und zahlenmäßige Aussagen machen zu können. Die Stichprobenbildung erfolgt nach theoretischen Gesichtspunkten. Häufig wird nur eine kleine Gruppe von Versuchspersonen untersucht. Leitgedanken qualitativer Forschung sind die Gegenstandsangemessenheit von Methoden und Theorie. Hier greift das „Prinzip der Offenheit“ ein. Methoden sind dabei so offen zu gestalten, dass sie der Komplexität des Untersuchungsgegenstandes gerecht werden. Ziel ist es, Neues zu entdecken und zu empirisch begründeter Theorie zu entwickeln, anstatt Bekanntes zu überprüfen und daraus empirische Äußerungen zu treffen. Ein weiterer Leitgedanke besteht in der Mehrperspektivität. Darunter versteht man die Unterschiedlichkeit der Perspektiven zum Untersuchungsgegenstand. Beispielsweise lässt sich hierbei die Rekonstruktion von Krankheitsverläufen aus der Sicht der Kranken, deren Angehöriger, der beteiligten Mediziner nachvollziehen. Ferner spielt die Reflexivität des Forschers und der Forschung eine wichtige Rolle. Die Kommunikation des Forschers mit dem Feld bzw. den Beteiligten ist, wie bereits erwähnt wurde, expliziter Bestandteil der Erkenntnis und keine Störvariabel. Die Reflexionen des Forschers werden während der Untersuchung aufgezeichnet (z.B. in Form von Memos und Tagebüchern) und fließen kontrolliert in die Interpretation ein.


Theoretische Positionen innerhalb der qualitativen Forschung

Qualitative Forschung orientiert sich an drei Positionen bzw. Forschungsperspektiven:

  • Symbolischer Interaktionismus: Dieser erforscht den subjektiven Sinn, den Individuen mit ihren Handlungen und ihrer Umgebung verbinden: „Der Forscher muss die Welt aus dem Gesichtswinkel der Subjekte sehen, die er untersucht.“ (Stryker 1976); Eine mögliche Richtung stellt die Grounded Theory nach Glaser und Strauss dar. Beispiele stellen hier die subjektiven Theorien (z.B. von Lehrern) und/oder autobiographische Erzählungen dar (Sharp; Rogers; Preece, 2007).
  • Ethnomethodologie: Hierunter fallen alltägliche Handlungsweisen. Erforscht wird die Herstellung sozialer Wirklichkeit (häufig über Alltagsroutinen). Die Ausgangsfrage die sich dabei stellt, ist wie sich Menschen in interaktiven Prozessen soziale Wirklichkeit herstellen. Richtungen dieser Position sind Gesprächs- bzw. Konversationsanalyse oder „Studies of work“. Beispiele für eine solche Perspektive sind beispielsweise Handlungen in der Institution Schule.
  • Strukturalismus: Dieser rekonstruiert die Tiefenstrukturen bzw. das soziale Unbewusste von Handlungen, welches der Reflexion nicht zugänglich ist. Annahme ist hier, dass kulturelle Sinnsysteme die Wahrnehmung und Herstellung subjektiver und sozialer Wirklichkeit einrahmen, wobei Tiefenstrukturen als handlungsgenerierend verstanden werden können. Richtungen sind die Objektive Hermeneutik (nach Oevermann). Ein Beispiel stellen Unterrichtsanalysen dar.

Prinzipiell lassen sich verschiedene qualitative Erhebungs- und Auswertungsmethoden unterscheiden. Erhebungsverfahren sind Methoden, mit denen Daten gesammelt werden. Zu den Erhebungsverfahren gehört beispielsweise das narrative Interview, ein Verfahren zur Erhebung von Biographien. Des Weiteren zählt man zu dieser Methode auch das Ethnographische Verfahren, eine Art Beobachtung, bei dem Einzelne, Gruppen oder Institutionen beobachtet werden. Als Beispiel für ein ethnographisches Verfahren sei die Online-Ethnographie kurz erwähnt, bei der es um die Rekonstruktion des Lebens im Internet geht. Verbale Daten, welche bei der Erhebung von qualitativen Analysen entstehen, können mittels Leitfadeninterviews, Erzählungen oder Gruppenverfahren erhoben werden. Im Folgenden sollen einige Beispiele dieser Verfahren genannt werden. Auf eine genaue Erläuterung bzw. Erklärung der einzelnen Beispiele wird jedoch verzichtet:

  • Leitfadeninterviews
    qualitatives Interview, Fokussiertes Interview, Halbstandardisiertes Interview, Problemzentriertes Interview, Experten-Interview, Ethnographisches Interview (siehe oben), biographische Methode, Tiefeninterview, Leitfadengespräch, Biotisches Interview
  • Erzählungen
    Narratives Interview (siehe oben), Episodisches Interview
  • Gruppenverfahren
    Gruppeninterview, Gruppendiskussion, Fokusgruppe, Gemeinsames Erzählen, Diskursanalyse, Delphi-Befragung

Die Beobachtung stellt eine weitere Methode dar, Daten zu erheben bzw. auszuwerten. Weitere Auswertungsverfahren qualitativer Datenanalysen stellen beispielsweise die

  • Einzelfallstudie,
  • Grounded Theory,
  • objektive Hermeneutik,
  • qualitative Inhaltsanalyse,
  • Einzelexploration,
  • Mini-Group oder
  • Auditorien dar.

Solche Auswertungsverfahren sind Methoden der Interpretation von Daten. Verfahren, wie die Grounded Theory nach Glaser/Strauss, welche sich der Entdeckung neuer Theorien auf Basis von qualitativen Daten verschrieben hat, und die Objektive Hermeneutik nach Oevermann sollen im Folgenden kurz vorgestellt werden. Zunächst zum kodierenden Vorgehen bzw. der „Grounded Theory“. Hier gilt der Grundsatz, dass Theorien in enger Tuchfühlung mit der „sozialen Realität“ erstellt werden sollen. Das bedeutet, dass die Entwicklung von Theorien demnach nicht abstrakt, sondern in möglichst intensiver Auseinandersetzung mit einem konkreten Gegenstand sein sollte. Der Ansatz der Grounded Theory enthält keine Anweisungen zur Datenerhebung und nur sehr wenige zur Auswertung der Daten. Die wesentlichen Arbeitsschritte sind:

  • Datenerhebung
  • Codieren
    die Bildung von Kategorien und die Zuordnung von Daten zu diesen
  • Kontrastieren
    „permanenter Vergleich“ und Überprüfung zu den erhobenen Kategorien
  • Theoretical Sampling
    mit dem Ziel, neue Vergleichsfälle zu schaffen
  • Schreiben von Memos
    Ideen, Notizen und Kommentare können festgehalten werden. Anhand dieser Memos wird im Verlauf der Forschung letztlich die Theorie entwickelt.

Vor allem der Arbeitsschritt der „Codierung“ stellt eine wichtige Stütze bei der Auswertung von Daten in der Grounded Theory nach Glaser/Strauss dar. Die Codierung erfolgt nach drei Schritten. Das „offene Codieren“ stellt dabei den ersten Schritt im Codiervorgang dar. Offenes Codieren zielt darauf ab, Daten und Phänomene in Begriffe zu fassen, wobei die Daten und die Aussagen in Sinneinheiten zerlegt werden. Der zweite Schritt im Codierprozess nennt man „axiales Codieren“. Diese Methode dient dazu Kategorien zu verfeinern und zu differenzieren, welche im vorherigen Schritt entstanden sind. Der letzte Schritt bildet das „selektive Codieren“. Beim selektiven Codieren werden die einzelnen Kategorien die sich vorher herausgebildet haben systematisch codiert. Selektives Codieren setzt prinzipiell axiales Codieren auf einem höheren Abstraktionsniveau fort. Ziel beim selektiven Codieren ist die Herausarbeitung der Kernkategorie, um die herum sich die anderen entwickelten Kategorien gruppieren lassen. Das Ergebnis sollte auf jeden Fall eine zentrale Kategorie und ein zentrales Phänomen sein. Ein weiterer wichtiger Arbeitsschritt im Datenauswertungsprozess der Grounded Theory wird unter dem Punkt des „Theoretical Sampling“ bzw. Theoretisches Sampling zusammengefasst. Theoretical Sampling ist das Konzept der Auswahl von Untersuchungseinheiten, um herauszufinden, ob das Wissen über den Untersuchungsgegenstand zu erweitern geeignet ist oder nicht. Darin werden ein oder mehrere Untersuchungseinheiten nachgeprüft, woraus Ergebnisse (Vermutungen, Ideen oder Konzepte) gewonnen werden. Unter dem letzten Punkt der Arbeitsschritte der Grounded Theory, den Memos, fasst man alle Notizen, Anmerkungen, Kommentare zum Datenmaterial zusammen. Ziel ist das Verfassen von Theorie-Memos, d. h. solche, in denen theoretische Konzepte, Hypothesen oder Fragen formuliert werden können. Die erstellten Memos sollten sich auf den vorhandenen Codes stützen oder dazu anregen neue Codes zu bilden. Die Theorie-Memos sollen dabei zur Entwicklung einer ausformulierten Theorie führen.

Das Sequentielle Vorgehen bzw. die Objektive Hermeneutik orientiert sich am tatsächlichen Interviewverlauf. Die Analyse geht streng sequentiell vor, d.h. sie folgt dem zeitlichen Ablauf des Geschehens. Man orientiert sich sehr Nah am Text, wobei Gruppen von Interpreten einen bestimmten Text analysieren. Danach schließt sich eine sequentielle Grobanalyse an, worin der äußere Kontext, indem die Äußerungen eingebettet sind, analysiert wird. Im Anschluss daran folgt eine Paraphrase, also eine erklärende Umschreibung eines Sachverhalts oder Textes mit anderen Worten und danach erst die eigentliche Äußerung. Fragen, was der Befragte sich eigentlich bei der Befragung gedacht hat, bzw. was er damit sagen möchte oder was er sich weiterhin erhofft, stellen solche Äußerungen dar. Zentraler Schritt der objektiven Hermeneutik ist die sequentielle Feinanalyse auf insgesamt neun Ebenen:

  • Explikation des einem Interakt unmittelbar vorausgehenden Kontextes
  • Paraphrase der Bedeutung eines Interaktes gemäß dem Wortlaut der begleitenden Verbalisierung
  • Explikation der Intention des interagierenden Subjekts
  • Explikation der objektiven Motive des Interaktes und seiner objektiven Konsequenzen
  • Explikation der Funktion des Interakts in der Verteilung von Interaktionsrollen
  • Charakterisierung sprachlicher Merkmale des Interakts
  • Exploration des Interpretationsaktes auf durchgängige Kommunikationsfiguren
  • Explikation allgemeiner Zusammenhänge
  • Unabhänge Prüfung der auf der Vorebene formulierten, allgemeinen Hypothesen anhand von Interaktionsfolgen aus weiteren Fällen

Qualitative Forschung arbeitet vor allem mit Texten. Die genannten Erhebungsverfahren produzieren Daten, welche durch Aufzeichnung oder Transkription in Texte überführt werden müssen. Texte stellen dabei die Wesentlichen Daten dar, auf die die Erkenntnis gegründet wird und das zentrale Medium der Darstellung und Vermittlung solcher Erkenntnisse. Außerdem sind sie die Basis von Interpretationen, also quasi die wichtigste Datenquelle. Die Datensammlung erfolgt mittels Interviews, Befragungen oder Beobachtungen. Die qualitative Forschung arbeitet dabei mit zwei Gruppen von Daten. Zum einen verbale Daten, welche in Leitfaden-Interviews oder in Erzählungen erhoben werden und zum anderen visuelle Daten, welche in Beobachtungen erhoben werden. Diese gesammelten Daten werden dann in einem nächsten Schritt in Texte verwandelt. Bei der qualitativen Forschung lassen sich verschiedene Interviewtechniken unterscheiden:

  • Tandem-Interview
    zwei Forschende befragen gemeinsam eine Person
  • Paar-Interview
    ein Ehepaar beispielsweise wird von einem oder zwei Forschenden befragt
  • Gruppen-Interview
    verschiedene Gruppen (z.B. Jugendclique) können befragt werden, oft von mindestens zwei Forschenden


Voraussetzungen

Zu den Voraussetzungen qualitativer Analysen wird vor allem die Stichprobengröße angeführt. Über die Anzahl der Gesprächspartner gibt es in der Literatur jedoch keine einheitliche Meinung. Forscher gehen zwischen 20 und 200 Personen aus, wobei die Gruppengröße wahrscheinlich auch immer von der Fragestellung abhängt. Möglicherweise tritt bei Hinzunahme weiterer Personen in die Testung kein zusätzlich bedeutender Erkenntnisgewinn mehr ein. Bei der Stichprobenzusammensetzung gelten die Grundsätze des „Theoretical Sampling“, d.h. die Stichprobe sollte den theoretischen Überlegungen und der Fragestellung angepasst werden, heterogen zusammengesetzt sein und möglichst typische Vertreter enthalten, das bedeutet beispielsweise, dass bei einem Interview zur Mensch-Computer-Interaktion möglicherweise auch ein Informationswissenschaftler, Informatiker oder sonstiger Fachmann dabei sein sollte, um zu verschiedenen Fragen als „Profi“ Stellung zu nehmen.


Durchführung

Die Durchführung qualitativer Analysen lässt sich, wie auch bei der quantitativen Methodik in verschiedene Schritte gliedern. Zu Beginn jeder qualitativen Prüfung wird zunächst einmal die Fragestellung definiert. Danach entscheidet man über Art und Weise der Methode, also welche Methode man durchführen möchte, beispielsweise ein Interview und wie man dieses Interview strukturieren möchte, d.h. welche Fragetypen man verwendet und ob sie dem gewünschten Erkenntnisgewinn Rechnung tragen könnten. Im Anschluss daran entwickelt man den Interviewleitfaden, an dem sich der spätere Interviewverlauf orientiert. Dies dient in erster Linie dazu, das Interview zu strukturieren und mögliche Fehlerquellen bereits im Vorfeld auszuschließen. Möglicherweise muss man den Interviewer bzw. den Beobachter auch gezielt schulen, damit das Interview oder die Beobachtung reibungslos ablaufen kann. Im Folgenden Schritt werden dann geeignete Teilnehmer gesucht, am besten eine heterogene Gruppe, welche ein möglichst breit gefächertes Wissen zu einzelnen Themen aufweist bzw. aufweisen kann. Danach führt man die eigentliche Befragung bzw. Beobachtung durch und protokolliert, beispielsweise durch Mitschrift oder eventuelle Tonbandaufzeichnung, sofern die technische Ausstattung vorhanden ist. In einem nächsten Schritt werden die erhobenen Daten ausgewertet, kategorisiert (siehe „Grounded Theory“, „Objektive Hermeneutik“) und interpretiert. Am Ende der Untersuchung werden die Ergebnisse zusammengefasst und präsentiert.


Einsatzgebiet qualitativer Methoden

Wie bereits oben erwähnt wurde, zählen zu den qualitativen Methoden Interviews, Beobachtungen oder Befragungen jeglicher Art. Bei den qualitativen Methoden geht es vor allem um das Beschreiben, Interpretieren und Verstehen von Zusammenhängen, die Aufstellung von Klassifikationen oder Typologien und die Generierung von Hypothesen. Die qualitative Befragung ist überall dort geeignet, wo man eine differenzierte und ausführliche Beschreibung individueller Meinungen und Eindrücke benötigt. Qualitative Methoden sind ideal zur Sammlung von detaillierten Verbesserungsvorschlägen, zur Erkundung von Ursachen, für Sachverhalte wie beispielsweise Unzufriedenheit, und zur Erstellung von Typologisierungen.


Vor- und Nachteile

Durch die flexible Anwendung der Methode, ist die qualitative Methodik im Vergleich zur quantitativen Datenanalyse nicht so starr angelegt. Die Offenheit des Vorgehens ermöglicht es, neue, bisher unbekannte Sachverhalte zu entdecken. In einer qualitativen Interviewsituation versucht man bewusst eine reale Umgebung und keine Laborsituation zu erzeugen. Die Vorteile sind, dass die Befragten Nachfragen stellen können, wenn Probleme auftreten, und auch Kommentare und Erläuterungen zu den einzelnen Fragen möglich sind. Durch die persönliche Interaktion besteht die Möglichkeit, Hintergründe zu erfragen und Unklarheiten zu beseitigen, wodurch möglicherweise auch ein tieferer Informationsgehalt erzeugt werden kann. Jede Testperson ist für die Untersuchung wichtig und liefert unabhängig von der Art der Testung immer andere Ergebnisse. Nachteil ist der Effekt der sozialen Erwünschtheit, wodurch möglicherweise Testpersonen das sagen, was sozial korrekt bzw. erwünscht wird und was ethisch zu vertreten ist. Möglicherweise wird die interviewte Person solche Aussagen treffen, die der Interviewleiter hören will, und nicht was die Person gerade persönlich denkt. Ein weiterer Nachteil ist der relativ große zeitliche Aufwand. Fragen müssen konzipiert werden, der Interviewer muss redegewandt sein und direkt auf eventuelle Rückfragen seitens der zu interviewenden Person eingehen können. Die Auswertung der Ergebnisse ist bei quantitativen Methoden, im Vergleich zu qualitativen Analysen, wesentlich billiger, da in diesem Falle vorhandene Ergebnisse einzig einer statistischen Analyse und Interpretation unterzogen werden. Für viele Studien sind Stichproben von mehreren hundert Befragten notwendig, bei langen Interviews entsteht dadurch ein hoher Sach- und Personalaufwand. Die Anforderungen an die Qualifikation des Interviewers bzw. Beobachters sind recht hoch, was die Qualität der Daten beeinflusst. Eine schlechte Leitung der Diskussion führt oft zu schlechten Ergebnissen bei der Auswertung der Daten.


Zusammenfassung

Datenanalyse wird heute vor allem in der angewandten Statistik verwendet. Die Daten werden hier in geeigneter Weise zusammengefasst, geordnet und grafisch dargestellt. Bereits zu Beginn wurde auf die Unterscheidung zwischen quantitativen und qualitativen Ansätzen der empirischen Forschung Bezug genommen. Quantitative Methoden werden in den Sozialwissenschaften dabei oftmals als Gegensatz zu den qualitativen Methoden gesehen, obwohl durchaus beide Methodenansätze kombinierbar sind. Prinzipiell schließen sich beide Forschungsansätze nicht einander aus, sondern können in gewissem Maße miteinander in Verbindung treten, um einen möglichst großen wissenschaftlichen Nutzen daraus zu ziehen. Datenanalytische Strukturen können durch die Kombination beider Forschungsrichtungen besser bzw. leichter aufgedeckt werden. So sollte auch in Zukunft auf eine Durchmischung beider Forschungsansätze geachtet werden, um so die Vorteile beider Verfahren zu kombinieren und gegebenenfalls die Nachteile zu eliminieren.


Literatur

Internetquellen:

Alle Quellen zuletzt überprüft: 02.08.2010


Buchquellen:

  • Abel, J.; Möller, R.; Treumann, K.P. (1998): Einführung in die empirische Pädagogik. Stuttgart: Kohlhammer.
  • Bohnsack, Ralf (2003): Rekonstruktive Sozialforschung. Einführung in Methodologie und Praxis qualitativer Forschung. Opladen: utb.
  • Diehl, Joerg M.; Staufenbiel, Thomas (2002): Statistik mit SPSS, Version 10 + 11, 1.Auflage, Eschborn: Klotz.
  • Flick, Uwe (1995): Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwissenschaften Reinbek: Rowohlt.
  • Glaser, Barney G.; Strauss, Anselm L. (1969): The Discovery of Grounded Theory. Chicago: University of Chicago Press.
  • Glaser, Barney G.; Strauss, Anselm L.; aus dem Amerikan. von Axel T. Paul u. Stefan Kaufmann (2005): Grounded theory. Strategien qualitativer Forschung, 2. korr. Aufl., Bern (u.a.) Huber-Verlag.
  • Gorz, D.; Kraimer, K. (Hrsg.) (1991): Qualitative-empirische Sozialforschung. Konzepte, Methoden, Analysen. Opladen: Westdeutscher Verlag.
  • Kähler, Wolf-Michael (2006): Statistische Datenanalyse: Verfahren verstehen und mit SPSS gekonnt einsetzen. 4., verb. und erw. Aufl., Wiesbaden: Vieweg.
  • König, E.; Zedler, D. (Hrsg.) (1995): Bilanz qualitativer Forschung. Bd. 1: Grundlagen qualitativer Forschung; Bd. 2: Methoden. Weinheim: Deutscher Studien Verlag.
  • Kuckartz, Udo (Hrsg.) (2007): Qualitative Datenanalyse: computergestützt. methodische Hintergründe und Beispiele aus der Forschungspraxis. 2., überarb. und erw. Aufl., Wiesbaden: VS Verl. für Sozialwissenschaften.
  • Lamnek, S. (1993): Qualitative Sozialforschung. Bd. 1: Methodologie; Bd. 2: Methoden u. Techniken. 2. Aufl. Weinheim: Psychologie Verlags Union.
  • Marotzki, Winfried (1995): Qualitative Bildungsforschung. In: König, E.; Zedler, P. (Hrsg.): Bilanz qualitativer Forschung. Bd. 1. Weinheim: Deutscher Studien Verlag, S.99-133.
  • Paulus, Christoph (2002): Einführung für Sozialwissenschaftler, 3.korrigierte Auflage, Softfrutti Verlag.
  • Sharp, Helen; Rogers, Yvonne; Preece, Jenny (2007): Interaction Design – beyond human-computer interaction. Hoboken, NJ u.a.: Wiley.
  • Schnell, R.; Hill, R.; Esser, E. (1995): Methoden der empirischen Sozialforschung. 5. Aufl. München, Wien: R. Oldenbourg.
  • Stryker, Sheldon (1976): Die Theorie des Symbolischen Interaktionismus. In: Auwärter, Manfred; Kirsch, Edit; Schröter, Klaus (Hrsg.): Seminar: Kommunikation, Interaktion, Identität. Frankfurt: Suhrkamp, S.257-274

Verwandte Begriffe

Fakten zu „Datenanalyse
DefinitionZiel der explorativen Datenanalyse ist die Erkennung von Mustern bzw. die Suche nach Strukturen, Gefügen und Besonderheiten +
RelatedInformationsbedarfsanalyse + und Benutzerforschung +
SynonymousData-Mining +