Datenanalyse: Unterschied zwischen den Versionen

Aus InfoWissWiki - Das Wiki der Informationswissenschaft
Zur Navigation springen Zur Suche springen
(Datenanalyse)
 
K (hat „Benutzer:Thorsten Schlotterbeck“ nach „Datenanalyse“ verschoben)
(kein Unterschied)

Version vom 9. April 2008, 12:21 Uhr

NOCH IN ARBEIT

Datenanalyse

Der Begriff der „Datenanalyse“ wird häufig mit dem Begriff des „Data-Mining“ gleichgesetzt. Unter „Data-Mining-Techniken“ fasst man solche Techniken zusammen, die der explorativen Datenanalyse zugeordnet werden können. Ziel der explorativen Datenanalyse ist die Erkennung von Mustern bzw. die Suche nach Strukturen, Gefügen und Besonderheiten. Eine Abgrenzung von „Data-Mining“ zur statistischen Datenanalyse scheint in der Literatur nur schwierig durchführbar zu sein. Im Folgenden soll deshalb lediglich der Begriff der Datenanalyse Verwendung finden. Die statistische Datenanalyse gewinnt in unserer heutigen Gesellschaft immer mehr an Bedeutung. Bildungsprobleme, wie sie bei Forschungsstudien beispielsweise der PISA-Studie deutlich wurden, konnten mittels Datenanalyseverfahren erklärt werden, und somit Lern- und Lehrverhalten von Schülern bzw. Lehrern verbessert werden. Datenanalyse wird heute vor allem in der angewandten Statistik verwendet. Ziel der angewandten Statistik ist es, aus vorliegenden Daten verwertbare Informationen zu gewinnen. Die Daten sollen in geeigneter Weise zusammengefasst, geordnet und grafisch dargestellt werden. Die Datenanalyse ist häufig in einem statistischen Projekt eingebettet, das als zeitlicher Prozess gesehen werden kann. Im Folgenden soll vor allem auf die Unterscheidung zweier empirischer Forschungsrichtungen: der quantitativen und der qualitativen Forschung hingewiesen werden.

Definition

Datenanalysen sind, nach einer Definition des Meyers Online Lexikon, „numerische und statistische Verfahren zur Aufdeckung von Strukturen in großen Datenmengen.“ (Meyers Lexikon Online 2.0) Bei einer Datenanalyse geht es primär darum, vorhandene Daten kennenzulernen, aufzubereiten und darzustellen und aus den vorhandenen Daten Hypothesen bzw. Fragestellungen zu entwickeln. Dabei wird das Ziel verfolgt, die in den Daten enthaltenen Informationen zu entdecken, zu beschreiben und darzustellen. Dabei wird in der Regel nicht direkt von einem Wahrscheinlichkeitsmodell ausgegangen, obwohl etliche der verwendeten Verfahren durchaus bestimmte Modellannahmen machen. Die Auswertungsmethodik wird vor allem durch die Qualität, Herkunft und Struktur des Datenmaterials, sowie durch die Testpersonen und die zu beantwortenden Fragestellungen bestimmt. Nicht jede Testperson eignet sich für jede Art von Untersuchung bzw. andersrum formuliert, nicht jede Untersuchung bzw. Befragung ist für jede Peron geeignet, da es darin immer um eine individuelle Untersuchung geht, vor allem bei der qualitativen Datenanalyse. Als wichtigste Merkmale der Datenanalyse kann man folgende Punkte nennen: der Verzicht auf eine Trennung zwischen Theorie und Realität, weitgehende Freiheit von Annahmen, schlechte Eignung für arbeitsteilige Analyse, sowie Probleme bei automatischer Datenanalyse mit nachfolgender Interpretation. Quantitative und qualitative Datenanalysen gehen in ihrer eigentlichen Tätigkeit zur Erkenntnisgewinnung prinzipiell gleich vor. Zunächst wird der Gegenstand formuliert den es zu begründen gilt und was durch den Einsatz eines bestimmten Verfahrens eigentlich gezeigt werden soll und kann bzw. warum ein bestimmtes Vorgehen gewählt wird oder warum andere Analysemethoden nicht für eine bestimmte Untersuchung in Frage kommen. Letzterer Punkt wird bei den meisten Datenanalysen jedoch aus zeitlichen Gründen oftmals außer Acht gelassen. Worauf die eigentliche Auswahl des durchgeführten Verfahrens jedoch beruht wird in allen qualitativen bzw. quantitativen Datenanalysen vorgenommen. Auch die Grenzen der angewendeten Methodik und der durch sie gewonnenen Ergebnisse sollten in der Analyse offen gelegt werden. Häufig werden quantitative Methoden in den Sozialwissenschaften als Gegensatz zu den qualitativen Methoden gesehen, obwohl durchaus beide Methodenansätze kombinierbar sind, worauf jedoch später noch näher eingegangen werden soll.

Quantitative Methoden der Datenanalyse

Allgemeine Aussagen zu quantitativen Methoden

„Bei der quantitativen Forschung geht es prinzipiell darum, Verhalten in Form von Modellen, Zusammenhängen und zahlenmäßigen Ausprägungen möglichst genau zu beschreiben und vorhersagbar zu machen“ (Winter, 2000). Es geht vor allem darum, statistische zahlenmäßige Aussagen zu treffen. „Unter quantitativen Methoden der empirischen Sozialforschung werden alle Vorgehensweisen zur numerischen Darstellung empirischer Sachverhalte bzw. zur Unterstützung der Schlussfolgerungen aus den empirischen Befunden mit Mitteln der Inferenzstatistik (Paulus, 2002) zusammengefasst. Bereiche der quantitativen Methoden sind vor allem solche der Stichprobenauswahl, Datenerhebung und der Datenanalyse“ (Wikipedia: Artikel „Quantitative Sozialforschung“). Leitgedanken dieser Forschungsrichtung sind die Isolierung von Ursachen und Wirkungen, also warum ein bestimmtes Ergebnis eintritt, die saubere Operationalisierung von theoretischen Zusammenhängen, d.h. die Messbarkeit und Quantifizierung von Phänomenen, und die Formulierung von Untersuchungsanordnungen, welche es dann erlauben Ergebnisse zu verallgemeinern und daraus allgemeingültige Gesetze aufzustellen. Beispielsweise wird eine Befragung oder eine Beobachtung mit einer möglichst großen und repräsentativen Zufallsstichprobe durchgeführt (schriftliche Befragung mit Fragebogen). Die Messwerte, die sich daraus ergeben, werden miteinander oder mit anderen Variablen in Beziehung gesetzt und die Ergebnisse auf die Grundgesamtheit übertragen. Häufig wird auch eine vorher festgelegte Hypothese anhand der Daten überprüft. Die Kommunikation während der Forschung wird durch die Standardisierung weitgehend eingeschränkt, d.h. der Forschende kann nur die im Fragenkatalog vorgegebenen Fragen stellen und die erforschte Person kann nur aus vorgegebenen Antwortmöglichkeiten eine auswählen, so dass jeder Befragte exakt die gleichen Voraussetzungen bei der Beantwortung der Fragen hat (Winter, 2000). Das bedeutet, dass die meisten Vorgehensweisen genau standardisiert sind. Die Konstruktion des Fragebogens, die Versuchsplanung und die statistische Auswertung werden vorher festgelegt. Die Stichprobenauswahl erfolgt jedoch nach dem Zufallsprinzip. Es findet somit keine selektive Auswahl der Versuchspersonen statt. Des Weiteren sollten die Aussagen in einer quantitativen Untersuchung möglichst allgemein gehalten werden. Die Einflüsse vom Interviewer sollten, wie bereits erwähnt, möglichst ganz ausgeschlossen werden. Wichtige Gütekriterien in der quantitativen Analyse sind:


  • Objektivität
    bezieht sich auf die Unabhängigkeit der Beschreibung eines Sachverhalts vom Beobachter. Die Äußeren Bedingungen werden möglichst ausgeschaltet, wodurch eine Art „Laborsituation“ erzeugt wird.
  • Reliabilität
    bezieht sich auf das Messinstrument selbst und bezeichnet die formale Genauigkeit wissenschaftlicher Untersuchungen. Bei Wiederholung eines Experimentes muss das gleiche Messergebnis nochmals erzielt werden. Die Genauigkeit der Messung sollte unabhängig davon sein, was eigentlich gemessen wird.
  • Validität
    bezeichnet die formale Genauigkeit wissenschaftlicher Untersuchungen (Gültigkeit). Hierbei geht es darum, inwieweit das Testinstrument das misst, was es eigentlich messen soll.

In der quantitativen Forschung wird betont, dass theoretische Aussagen niemals als empirisch endgültig bewiesen, also als verifiziert gelten können, das bedeutet, dass Aussagen niemals hundertprozentig bewiesen sind bzw. bewiesen werden können. Ein kurzes Beispiel soll diesen Gegenstand quantitativer Datenanalyse näher erläutern. Der theoretische Satz: „alle dreijährigen Mädchen spielen gerne mit Puppen“, kann niemals als endgültig wahr gelten, weil in der weiteren Forschung jederzeit ein kleines Mädchen auftauchen könnte, welches beispielsweise lieber mit Autos spielt. Durch eine solche empirische Erfahrung wäre der theoretische Satz falsifiziert, also widerlegt. Ziel empirischer Forschung ist es, möglichst solche theoretischen Sätze zu formulieren, die sich an der empirischen Erfahrung bewähren lassen. Sofern sie falsifiziert, also widerlegt werden, müssen die theoretischen Sätze verworfen oder modifiziert werden, aber ihr Wahrheitsgehalt darf dabei nicht verloren gehen. Die empirische Forschung konzentriert sich dabei auf die empirische Überprüfung von Hypothesen und Theorien. Deshalb bezeichnet man quantitative Ansätze auch als hypothesenüberprüfende Verfahren (Sharp; Rogers; Preece, 2007, S.359ff.).


Voraussetzungen

Eine wichtige Voraussetzung von quantitativen Analysen stellt beispielsweise der „Untersuchungsgegensand“ dar. Hierbei ist es wichtig, den eigentlichen Untersuchungsgegenstand schon insoweit zu kennen, dass man Hypothesen über mögliche Zusammenhänge oder ein theoretisches Modell aufstellen kann, um bekannte Aspekte zu quantifizieren. Kurz gesagt: Man sollte den Untersuchungsgegenstand schon soweit kennen um daraus notwendige Hypothesen aufzustellen. Quantitative Methoden setzen Hypothesen voraus, die im weiteren Verlauf der Datenanalyse getestet werden. Des Weiteren zielen sie auf eine systematische Messung und Auswertung von sozialen Fakten mit Hilfe verschiedener Erhebungsinstrumente ab. In der quantitativ verfahrenden Sozialforschung werden zählbare Eigenschaften gemessen. Die häufigsten Datenerhebungsverfahren in den Sozialwissenschaften sind die Befragung, die Beobachtung, das Experiment und die Inhaltsanalyse (Sharp; Rogers; Preece, 2007, S.357ff.). Bei der Entwicklung quantitativer Forschungsinstrumente wie beispielsweise Fragebögen ist es wichtig, dass ausreichende Kenntnisse über relevante Inhalte und Beurteilungskriterien vorhanden sind. Also man sollte sich über die Inhalte klar machen um die Daten besser auswerten zu können. Als weitere wichtige Voraussetzung quantitativer Datenanalysen wird die Stichprobengröße und –zusammensetzung gesehen. Hierbei ist eine möglichst große Stichprobe von Vorteil, idealerweise sollte diese per Zufall ausgewählt werden. Kenntnisse der Testkonstruktionsprinzipien, z.B. im Rahmen der Fragebogenkonstruktion stellen eine weitere Voraussetzung dar. Beispielsweise stellt sich die Frage wie man einen Fragebogen für eine bestimmte Zielgruppe am besten erstellt bzw. konzipiert.

Durchführung

Die Durchführung quantitativer Analysen lässt sich in verschiedene Schritte gliedern (Winter, 2000). Zu Beginn einer jeden quantitativen sowie auch qualitativen Analyse definiert man zunächst die Fragestellung. Was will man eigentlich mit der Untersuchung bezwecken bzw. untersuchen und welche mögliche Erkenntnis möchte ich aus der Untersuchung eventuell ziehen. In einem nächsten Schritt sollte man alle verfügbaren Informationen über den Untersuchungsgegenstand einholen. Dabei sollten je nach Möglichkeit Informationen von verschiedenen Personen eingeholt werden, um einen möglichst großen Informationsgehalt zu bekommen. Nach der Informationsaufnahme konstruiert man das Erhebungsinstrument (z.B. Fragebogen, Beobachtung, Experiment Inhaltsanalyse). Dieses Erhebungsinstrument muss für die Untersuchung geeignet sein und kann sich daher von Instrument zu Instrument stark unterscheiden. So sind beispielsweise Untersuchungen zum Aggressivitätsverhalten bei Jugendlichen womöglich mittels einer Beobachtung besser durchzuführen, als beispielsweise bei einer schriftlichen Befragung, denn welches Kind gibt schon gerne an, aggressives Verhalten an den Tag zu legen. Deshalb ist ein Pretest des Erhebungsinstruments, welcher zu Beginn der Testung durchgeführt wird, sehr hilfreich um zu sehen, ob die Methode auch wirklich die gewünschten Informationen liefert. Danach erhebt man dann die Daten, wleche man im Anschluss daran, in ein quantitativ-statistisches Programm eingibt, welches die Daten auswertet. Als Beispiel sei hier das quantitativ-statistische Programm SPSS oder auch N6 genannt (Sharp; Rogers; Preece, 2007, S.386f.). Nach der Eingabe der Daten in das Programm, ist man in der Lage die Ergebnisse zu interpretieren. Man interpretiert beispielsweise die Korrelationen bzw. die gefundenen Zusammenhänge oder Unterschiede, wobei eine genaue Auswertung der Daten bereits das statistische Programm durchführt. Lediglich die zahlenmäßigen Zusammenhänge bzw. Unterschiede müssen noch gedeutet werden. In einem letzten Schritt präsentiert man dann die gefundenen Ergebnisse, und vergleicht diese mit der aufgestellten Hypothese, welche zu Beginn der eigentlichen Untersuchung aufgestellt werden sollte (Sharp; Rogers; Preece, 2007, S.405f.). Wie kann man aber jetzt quantitative Daten erheben um eine solche Analyse durchzuführen. Beispielsweise mit der Durchführung eines Fragebogens. Dabei existieren verschiedene Arten von Fragenbögen sowie verschiedene Arten von Fragen bzw. Fragestellungen. Geschlossene Fragen (wie Name, Alter, Geschlecht, usw.) und offene Fragen, welchem dem Interviewten die Möglichkeit bieten, frei zu einem bestimmten Thema Auskunft zu geben, stellen dabei wichtige Fragetypen einer quantitativen Analyse dar. Als weiterer Fragetyp lassen sich Skalen anführen, welche häufig durch einen neutralen Mittelpunkt gegliedert werden (Beispiel: Stimme nicht zu -2 -1 0 1 2 Stimme zu). Die Vorteile solcher Fragebögen sind eindeutig und leicht zu kennzeichnen. So ist beispielsweise der Adressatenkreis leicht zu erreichen, wodurch man in der Lage ist, relativ große Untersuchungen durchzuführen. Des Weiteren ist der zeitliche Aufwand auch eher gering, weil man prinzipiell immer denselben Fragenkatalog hat und nicht für jede Testperson einen neuen erstellen muss, was im Gegensatz zur qualitativen Methodik ein wesentlicher Vorteil bietet. Nachteile hingegen sind eventuelle Missverständnisse, da man im Prinzip keine Rückfragen während der Bearbeitung des Fragebogens stellen kann. Häufig wird der Fragebogen auch nicht komplett ausgefüllt, was bei der Auswertung des Fragebogens zu Problemen führen kann. Um eine quantitative Datenanalyse durchzuführen sind einige statistische Komponenten wichtig, welche bei der Auswertung der Daten eine wichtige Rolle spielen. Im Folgenden seien kurz einige wichtige Begriffe bei der Datenauswertung genant (vgl. Sharp; Rogers; Preece, 2007, S.364f.):

  • Mittelwert (arithmetisches Mittel)
    gebildet wird der Wert, indem man die Summe der Zahlen einer bestimmten Zahlenreihe, geteilt durch die Anzahl der darin befindlichen Zahlen bildet. Bei einer Zahlenreihe 2,3,5,7,8,12,19 wäre die Summe 56, geteilt durch die Anzahl der Zahlen (7). Der Mittelwert wäre hierbei 8.
  • Median
    ist der Wert, welcher genau in der Mitte liegt. Bei einer Zahlenreihe 2,3,5,7,8,12,19 wäre der Median 7, da dieser Wert in der Mitte der Zahlenreihe liegt.
  • Modalwert oder Modus
    hiermit wird der Wert der am häufigsten vorkommt gekennzeichnet. In einer Zahlenreihe 2,2,3,3,3,5,9 wäre der Modus 3.


Einsatzgebiet

Quantitative Verfahren eignen sich vor allem zur „Untersuchung großer Stichproben“, zur „objektiven Messung und Quantifizierung von Sachverhalten“, und zum „Testen von Hypothesen und zur Überprüfung statistischer Zusammenhänge bzw. zahlenmäßigen Zusammenhängen“ (Winter, 2000). Quantitative Verfahren eignen sich des Weiteren für wiederkehrende Fragestellungen, bei denen die Ergebnisse von verschiedenen Zeitpunkten verglichen werden sollen. Die häufigsten Datenerhebungsverfahren in den Sozialwissenschaften sind, wie bereits weiter oben erwähnt wurde, die Befragung, die Beobachtung, das Experiment und die Inhaltsanalyse. Die schriftliche Befragung mit Fragebogen zählt dabei zu den häufigsten Methoden quantitativer Analysen. Mittels solcher Praktiken wird beispielsweise versucht, Wahlverhalten, Konsumverhalten, Heiratsverhalten oder Migration zu untersuchen. Häufig kommen in Wahlanalysen und in der Markt- und Meinungsforschung neben den quantitativen Methoden auch qualitative Methoden zur Anwendung, wie etwa halbstrukturierte Interviews, auf die jedoch erst im späteren Verlauf näher eingegangen werden soll. Quantitative Verfahren sind ideal, um objektive Daten über die Zeit zu vergleichen und daraus Entwicklungen abzulesen (Winter, 2000).


Vor- und Nachteile „quantitativer Methoden“

Quantitative Methoden liefern exakt quantifizierbare Ergebnisse (Winter, 2000). Die Ermittlung von statistischen Zusammenhängen oder auch statistischen Unterschieden ist hierbei möglich. Des Weiteren besteht die Möglichkeit, eine möglichst große Stichprobe zu untersuchen und damit repräsentative Ergebnisse zu erhalten, ohne dabei jedoch einen zu großen Aufwand betreiben zu müssen. Im Vergleich zu qualitativen Verfahren sind die geringen Kosten, und der geringe Zeitaufwand ein wichtiger Vorteil. Ein weiterer Vorteil besteht darin, dass sich die Ergebnisse mittels einfacher stochastischer Verfahren analysieren und auswerten lassen (Winter, 2000). So ist es möglich statistische Tests durchzuführen und Hypothesen zu prüfen und somit die Signifikanz zu berechnen. Explorativ lassen sich Daten zudem mittels Faktorenanalyse, Clusteranalyse und multidimensionaler Skalierung auswerten. Die selektive Wahrnehmung der quantitativen Verfahren wird als ein besonderer Nachteil dieser Methode gesehen. Man misst nur, was man vorher durch Items festgelegt hat. Bei qualitativen Verfahren erfolgt die Auswertung durch unabhängige Bewerter, wohingegen bei quantitativen Verfahren häufig kritisiert wird, dass die Beobachter nicht wirklich unabhängig sind. Deshalb werden häufig mehrere Personen als Bewerter gewählt werden, welche nicht zur Forschungsgruppe gehören. Ein weiterer Nachteil stellt der geringe Flexibilitätsgrad während der Untersuchung dar. Durch die Standardisierung der Untersuchungssituation, also durch eine vorab Festlegung verschiedenster Fragen bzw. Fragetypen, kann man nicht auf eine einzelne Person individuell Eingehen. Man erhält somit keine Verbesserungsvorschläge, da die Testpersonen oftmals nur Antwortmöglichkeiten ankreuzen kann und häufig keine Aussagen darüber machen kann, ob verschiedene Fragestellungen für eine bestimmte Person überhaupt einen Sinn machten. Quantitative Sozialforschung stellt sich deshalb möglicherweise zu wenig auf die Befragten ein. Die Tatsache, dass jeder Befragte die gleichen Fragen bekommt, stellt nicht sicher, dass jeder Befragte diese auch gleich interpretiert. (Wikipedia: Artikel „Quantitative Sozialforschung)


Qualitative Methoden der Datenanalyse

Allgemeine Aussagen zu qualitativen Methoden

Zu Beginn soll ein Zitat von Glaser und Strauss den qualitativen Ansatz der empirischen Forschung genauer kennzeichnen: „Wir beschäftigen uns … mit dem Unterfangen, wie die Entdeckung von Theorien aus den Daten heraus – systematisch erhoben und analysiert in der Sozialforschung – verbessert werden kann“ (Glaser/Strauss 1969). „Unter qualitativer Sozialforschung wird in den Sozialwissenschaften die Erhebung nicht standardisierter Daten (in Form von offenen Interviews, von Feldprotokollen der Forscher oder von Dokumenten wie etwa Tagebüchern) und deren interpretative, sinnverstehende, hermeneutische bzw. kategorien- und theoriebildende Auswertung (Datenanalyse) verstanden.“ (Wikipedia: Artikel „Qualitative Sozialforschung“) Die qualitative Analyse hat sich zu einer eigenständigen Anwendung entwickelt und inzwischen mehrere gesicherte Forschungsansätze hervorgebracht. Mit ihrer Hilfe sollen Phänomene und Sichtweisen in ihrer inneren, argumentativen und praktischen Struktur näher verdeutlicht werden. Ziel der qualitativen Forschung ist es, die Wirklichkeit anhand der subjektiven Sicht der relevanten Gesprächspersonen abzubilden und so mögliche Ursachen für deren Verhalten nachzuvollziehen und das Verhalten zu verstehen (Winter, 2000). Es geht sozusagen im Prinzip meist um die Ursachen und die Verhaltensforschung bei einer qualitativen Analyse. Gegenstand qualitativer Forschung sind soziale Zusammenhänge im Alltag bzw. die Konstruktionen von Wirklichkeit, beispielsweise die der Untersuchungssubjekte und der eigenen Wirklichkeit. Festzuhalten ist, dass es nicht nur eine Wirklichkeit und keine wissenschaftliche Wahrheit gibt. Auch in der qualitativen Forschung wird betont, dass theoretische Aussagen niemals als empirisch endgültig bewiesen, also als verifiziert gelten können. Der qualitative Ansatz ist im Vergleich zum quantitativen Ansatz wesentlich offener und flexibler gestaltet (Winter, 2000). Bei einem Interview z.B. geht der Interviewer direkt auf die Person ein, die Fragen sind somit oftmals nicht direkt festgelegt sondern entwickeln sich im Laufe des Gesprächs. Gerade bei qualitativen Methoden spielt also die Beziehung oder Kommunikation zwischen Forschenden und Erforschten eine wichtige Rolle. Durch die qualitative Vorgehensweise wird eine hohe Inhaltsvalidität und ein tieferer Informationsgehalt der Ergebnisse erreicht, ohne aber repräsentative und zahlenmäßige Aussagen machen zu können, wie das bei der quantitativen Analyse ist. Die Stichprobenbildung erfolgt nach theoretischen Gesichtspunkten. Häufig wird nur eine kleine Gruppe von Versuchspersonen untersucht. Eine große Gruppe zu interviewen könnte zu Problemen führen, da oftmals durcheinander geredet werden würde, wodurch sich eine Aufzeichnung der Gespräche nur schwierig verwirklichen würde. Leitgedanken qualitativer Forschung sind die Gegenstandsangemessenheit von Methoden und Theorie. Hier greift das „Prinzip der Offenheit“ ein. Methoden sind dabei so offen zu gestalten, dass sie der Komplexität des Untersuchungsgegenstandes gerecht werden. Ziel ist es, Neues zu entdecken und zu empirisch begründeter Theorie zu entwickeln, anstatt Bekanntes zu überprüfen und daraus empirische Äußerungen zu treffen. Ein weiterer Leitgedanke besteht in der Mehrperspektivität. Darunter versteht man die Unterschiedlichkeit der Perspektiven zum Untersuchungsgegenstand. Beispielsweise lässt sich hierbei die Rekonstruktion von Krankheitsverläufen aus der Sicht der Kranken, deren Angehöriger, der beteiligten Mediziner nachvollziehen. Ferner spielt die Reflexivität des Forschers und der Forschung eine wichtige Rolle in der qualitativen Datenanalyse. Die Kommunikation des Forschers mit dem Feld bzw. den Beteiligten ist, wie bereits erwähnt wurde, expliziter Bestandteil der Erkenntnis und keine Störvariabel. Die Reflexionen des Forschers werden während der Untersuchung aufgezeichnet (z.B. in Form von Memos und Tagebüchern) und fließen kontrolliert in die Interpretation ein.


Theoretische Positionen innerhalb der qualitativen Forschung

Qualitative Forschung orientiert sich an drei Positionen bzw. Forschungsperspektiven: Symbolischer Interaktionismus: Dieser erforscht den subjektiven Sinn, den Individuen mit ihren Handlungen und ihrer Umgebung verbinden: „Der Forscher muss die Welt aus dem Gesichtswinkel der Subjekte sehen, die er untersucht.“ (Stryker 1976); Eine mögliche Richtung stellt die Grounded Theory nach Glaser und Strauss dar. Beispiele stellen hier die subjektiven Theorien (z.B. von Lehrern) und/oder autobiographische Erzählungen dar (Sharp; Rogers; Preece, 2007). Ethnomethodologie: Hierunter fallen alltägliche Handlungsweisen. Erforscht wird die Herstellung sozialer Wirklichkeit (häufig über Alltagsroutinen). Die Ausgangsfrage die sich dabei stellt, ist wie sich Menschen in interaktiven Prozessen soziale Wirklichkeit herstellen. Richtungen dieser Position sind Gesprächs- bzw. Konversationsanalyse oder „Studies of work“. Beispiele für eine solche Perspektive sind beispielsweise Handlungen in der Institution Schule. Strukturalismus: Dieser rekonstruiert die Tiefenstrukturen bzw. das soziale Unbewusste von Handlungen, welches der Reflexion nicht zugänglich ist. Annahme ist hier, dass kulturelle Sinnsysteme die Wahrnehmung und Herstellung subjektiver und sozialer Wirklichkeit einrahmen, wobei Tiefenstrukturen als handlungsgenerierend verstanden werden können. Richtungen sind die Objektive Hermeneutik (nach Oevermann). Ein Beispiel stellen Unterrichtsanalysen dar. Prinzipiell lassen sich verschiedene qualitative Erhebungs- und Auswertungsmethoden unterscheiden. Erhebungsverfahren sind Methoden, mit denen Daten gesammelt werden. Zu den Erhebungsverfahren gehört beispielsweise das narrative Interview, ein Verfahren zur Erhebung von Biographien. Des Weiteren zählt man zu dieser Methode auch das Ethnographische Verfahren, eine Art Beobachtung, bei dem Einzelne, Gruppen oder Institutionen beobachtet werden. Als Beispiel für ein ethnographisches Verfahren sei die Online-Ethnographie kurz erwähnt, bei der es um die Rekonstruktion des Lebens im Internet geht. Verbale Daten, welche bei der Erhebung von qualitativen Analysen entstehen, können mittels Leitfadeninterviews, Erzählungen oder Gruppenverfahren erhoben werden. Im Folgenden sollen einige Beispiele dieser Verfahren genannt werden. Auf eine genaue Erläuterung bzw. Erklärung der einzelnen Beispiele wird jedoch verzichtet (Sharp; Rogers; Preece, 2007):

  • Leitfadeninterviews
    qualitatives Interview, Fokussiertes Interview, Halbstandardisiertes Interview, Problemzentriertes Interview, Experten-Interview, Ethnographisches Interview (siehe oben), biographische Methode, Tiefeninterview, Leitfadengespräch, Biotisches Interview
  • Erzählungen
    Narratives Interview (siehe oben), Episodisches Interview
  • Gruppenverfahren
    Gruppeninterview, Gruppendiskussion, Fokusgruppe, Gemeinsames Erzählen, Diskursanalyse, Delphi-Befragung

Die Beobachtung stellt eine weitere Methode dar, Daten zu erheben bzw. auszuwerten. Weitere Auswertungsverfahren qualitativer Datenanalysen stellen beispielsweise die Einzelfallstudie, Grounded Theory, objektive Hermeneutik, qualitative Inhaltsanalyse, Einzelexploration, Mini-Group oder Auditorien dar. Solche Auswertungsverfahren sind Methoden der Interpretation von Daten. Verfahren, wie die Grounded Theory nach Glaser/Strauss, welche sich der Entdeckung neuer Theorien auf Basis von qualitativen Daten verschrieben hat, und die Objektive Hermeneutik nach Oevermann sollen im Folgenden kurz vorgestellt werden. Zunächst zum kodierenden Vorgehen bzw. der „Grounded Theory“ (Sharp; Rogers; Preece, 2007, S.389f.). Hier gilt der Grundsatz, dass Theorien in enger Tuchfühlung mit der „sozialen Realität“ erstellt werden sollen. Das bedeutet, dass die Entwicklung von Theorien demnach nicht abstrakt, sondern in möglichst intensiver Auseinandersetzung mit einem konkreten Gegenstand sein sollte. Der Ansatz der Grounded Theory enthält keine Anweisungen zur Datenerhebung und nur sehr wenige zur Auswertung der Daten. Die wesentlichen Arbeitsschritte sind:

  • Datenerhebung
  • Codieren
    die Bildung von Kategorien und die Zuordnung von Daten zu diesen
  • Kontrastieren
    „permanenter Vergleich“ und Überprüfung zu den erhobenen Kategorien
  • Theoretical Sampling
    mit dem Ziel, neue Vergleichsfälle zu schaffen
  • Schreiben von Memos
    Ideen, Notizen und Kommentare können festgehalten werden. Anhand dieser Memos wird im Verlauf der Forschung letztlich die Theorie entwickelt.

Vor allem der Arbeitsschritt der „Codierung“ stellt eine wichtige Stütze bei der Auswertung von Daten in der Grounded Theory nach Glaser/Strauss dar. Die Codierung erfolgt nach drei Schritten (Sharp; Rogers; Preece, 2007, S.389ff.). Das „offene Codieren“ stellt dabei den ersten Schritt im Codiervorgang dar. Offenes Codieren zielt darauf ab, Daten und Phänomene in Begriffe zu fassen, wobei die Daten und die Aussagen in Sinneinheiten zerlegt werden

Das Sequentielle Vorgehen bzw. die Objektive Hermeneutik ist das zweite Auswertungsverfahren, welches im Folgenden kurz vorgestellt werden soll. Bei dieser Methode orientiert man sich am tatsächlichen Interviewverlauf. Die Analyse geht streng sequentiell vor, d.h. sie folgt dem zeitlichen Ablauf des Geschehens. Man orientiert sich sehr Nah am Text, wobei Gruppen von Interpreten einen bestimmten Text analysieren. Festlegen des Falles und siedeln ihn auf einer bestimmten Ebene an (Äußerung oder Handlung einer bestimmten Person usw. Danach schließt sich eine sequentielle Grobanalyse an, worin der äußere Kontext, indem die Äußerungen eingebettet sind, analysiert wird. Welches ist also das eigentliche Handlungsproblem. Im Anschluss daran folgt eine Paraphrase, also eine erklärende Umschreibung eines Sachverhalts oder Textes mit anderen Worten und danach erst die eigentliche Äußerung. Fragen, was der Befragte sich eigentlich bei der Befragung gedacht hat, bzw. was er damit sagen möchte oder was er sich weiterhin erhofft, stellen solche Äußerungen dar. Zentraler Schritt der objektiven Hermeneutik ist die sequentielle Feinanalyse auf insgesamt neun Ebenen:

  • Explikation des einem Interakt unmittelbar vorausgehenden Kontextes
  • Paraphrase der Bedeutung eines Interaktes gemäß dem Wortlaut der begleitenden Verbalisierung
  • Explikation der Intention des interagierenden Subjekts
  • Explikation der objektiven Motive des Interaktes und seiner objektiven Konsequenzen
  • Explikation der Funktion des Interakts in der Verteilung von Interaktionsrollen
  • Charakterisierung sprachlicher Merkmale des Interakts
  • Exploration des Interpretationsaktes auf durchgängige Kommunikationsfiguren
  • Explikation allgemeiner Zusammenhänge
  • Unabhänge Prüfung der auf der Vorebene formulierten, allgemeinen Hypothesen anhand von Interaktionsfolgen aus weiteren Fällen

Qualitative Forschung arbeitet vor allem mit Texten. Die genannten Erhebungsverfahren produzieren Daten, welche durch Aufzeichnung oder Transkription in Texte überführt werden müssen. Texte stellen dabei die Wesentlichen Daten dar, auf die die Erkenntnis gegründet bzw. auf die Erkenntnis gestützt wird, und das zentrale Medium der Darstellung und Vermittlung solcher Erkenntnisse. Außerdem sind sie die Basis von Interpretationen, also quasi die wichtigste Datenquelle. Die Datensammlung erfolgt mittels Interviews, Befragungen oder Beobachtungen. Die qualitative Forschung arbeitet dabei mit zwei Gruppen von Daten. Zum einen verbale Daten (siehe oben), welche in Leitfaden-Interviews oder in Erzählungen erhoben werden und zum anderen visuelle Daten, welche in Beobachtungen erhoben werden. Diese gesammelten Daten werden dann in einem nächsten Schritt in Texte verwandelt. Bei der qualitativen Forschung lassen sich verschiedene Interviewtechniken unterscheiden:

  • Tandem-Interview
    zwei Forschende befragen gemeinsam eine Person
  • Paar-Interview
    ein Ehepaar beispielsweise wird von einem oder zwei Forschenden befragt
  • Gruppen-Interview
    verschiedene Gruppen (z.B. Jugendclique) können befragt werden, oft von mindestens zwei Forschenden


Voraussetzungen

Zu den Voraussetzungen qualitativer Analysen wird vor allem die Stichprobengröße angeführt (Winter, 2000). Über die Anzahl der Gesprächspartner gibt es in der Literatur jedoch keine einheitliche Meinung. Forscher gehen zwischen 20 und 200 Personen aus, wobei die Gruppengröße wahrscheinlich auch immer von der Fragestellung abhängt. Möglicherweise tritt bei Hinzunahme weiterer Personen in die Testung kein zusätzlich bedeutender Erkenntnisgewinn mehr ein. Bei der Stichprobenzusammensetzung gelten die Grundsätze des „Theoretical Sampling“, d.h. die Stichprobe sollte den theoretischen Überlegungen und der Fragestellung angepasst werden, heterogen zusammengesetzt sein und möglichst typische Vertreter enthalten, das bedeutet beispielsweise, dass bei einem Interview zur Mensch-Computer-Interaktion möglicherweise auch ein Informationswissenschaftler, Informatiker oder sonstiger Fachmann dabei sein sollte, um zu verschiedenen Fragen als „Profi“ Stellung zu nehmen.


Durchführung

Die Durchführung qualitativer Analysen lässt sich, wie auch bei der quantitativen Methodik in verschiedene Schritte gliedern (Winter, 2000). Zu Beginn jeder qualitativen Prüfung wird zunächst einmal die Fragestellung definiert. Danach entscheidet man über Art und Weise der Methode, also welche Methode man durchführen möchte, beispielsweise ein Interview und wie man dieses Interview strukturieren möchte, d.h. welche Fragetypen man verwendet und ob sie dem gewünschten Erkenntnisgewinn Rechnung tragen könnten. Im Anschluss daran entwickelt man den Interviewleitfaden, an dem sich der spätere Interviewverlauf orientiert. Dies dient in erster Linie dazu, das Interview zu strukturieren und mögliche Fehlerquellen bereits im Vorfeld auszuschließen. Möglicherweise muss man den Interviewer bzw. den Beobachter auch gezielt schulen, damit das Interview oder die Beobachtung reibungslos ablaufen kann. Im Folgenden Schritt werden dann geeignete Teilnehmer gesucht, am besten eine heterogene Gruppe, welche ein möglichst breit gefächertes Wissen zu einzelnen Themen aufweist bzw. aufweisen kann. Danach führt man die eigentliche Befragung bzw. Beobachtung durch und protokolliert, beispielsweise durch Mitschrift oder eventuelle Tonbandaufzeichnung, sofern die technische Ausstattung vorhanden ist. In einem nächsten Schritt werden die erhobenen Daten ausgewertet, kategorisiert (siehe „Grounded Theory“, „Objektive Hermeneutik“) und interpretiert. Am Ende der Untersuchung werden die Ergebnisse zusammengefasst und präsentiert (Sharp; Rogers; Preece, 2007, S.405f.).


Einsatzgebiet von qualitativen Methoden

Wie bereits oben erwähnt wurde, zählen zu den qualitativen Methoden Interviews, Beobachtungen oder Befragungen jeglicher Art. Bei den qualitativen Methoden geht es vor allem um das Beschreiben, Interpretieren und Verstehen von Zusammenhängen, die Aufstellung von Klassifikationen oder Typologien und die Generierung von Hypothesen. Die qualitative Befragung ist überall dort geeignet, wo man eine differenzierte und ausführliche Beschreibung individueller Meinungen und Eindrücke benötigt. Qualitative Methoden sind ideal zur Sammlung von detaillierten Verbesserungsvorschlägen, zur Erkundung von Ursachen, für Sachverhalte wie beispielsweise Unzufriedenheit, und zur Erstellung von Typologisierungen (Winter, 2000).


Vor- und Nachteile

Durch die flexible Anwendung der Methode, ist die qualitative Methodik im Vergleich zur quantitativen Datenanalyse nicht so starr angelegt. Die Offenheit des Vorgehens ermöglicht es, neue, bisher unbekannte Sachverhalte zu entdecken. Der Gesprächspartner kann über alles reden was er möchte, da durch den Einsatz von offenen Fragen es keinerlei Vorgaben bzw. Einschränkungen gibt, wodurch man eher wahre und vollständige Informationen über die subjektive Sicht der Gesprächspartner gewinnt (Winter, 2000). In einer qualitativen Interviewsituation versucht man also bewusst eine reale Umgebung und keine Laborsituation, wie es beispielsweise bei der quantitativen Forschung als Gütekriterium definiert ist, zu erzeugen. Die Vorteile sind, dass die Befragten Nachfragen stellen können, wenn Probleme auftreten, und auch Kommentare und Erläuterungen zu den einzelnen Fragen möglich sind, was bei den quantitativen Methoden leider nicht der Fall ist. Durch die persönliche Interaktion gibt es die Möglichkeit, Hintergründe zu erfragen und Unklarheiten zu beseitigen, wodurch möglicherweise auch ein tieferer Informationsgehalt durch die offene Befragung erzeugt werden kann. Die einzelne Person steht bei der qualitativen Analyse im Vordergrund. Jede Testperson ist für die Untersuchung wichtig und liefert unabhängig von der Art der Testung immer andere Ergebnisse. Keine Versuchsperson wird in einem Interview die gleichen Antworten liefern, da jede Testung unterschiedlich ist. Nachteil ist der Effekt der sozialen Erwünschtheit, wodurch möglicherweise die Testpersonen das sagen, was sozial korrekt bzw. erwünscht wird und was ethisch zu vertreten ist. Möglicherweise wird die interviewte Person solche Aussagen treffen, die der Interviewleiter hören will, und nicht was die Person gerade persönlich denkt. Ein weiterer Nachteil ist der relativ große zeitliche Aufwand. Fragen müssen konzipiert werden, der Interviewer muss redegewandt sein und direkt auf eventuelle Rückfragen seitens der zu interviewenden Person eingehen können (Winter, 2000). Die Auswertung der Ergebnisse ist bei quantitativen Methoden, im Vergleich zu qualitativen Analysen, wesentlich billiger, da in diesem Falle vorhandene Ergebnisse einzig einer statistischen Analyse und Interpretation unterzogen werden. Deshalb wird oft von qualitativen Methoden abgesehen, da die enormen Kosten den womöglich größten Nachteil dieser Forschungsrichtung bildet. Für viele Studien sind Stichproben von mehreren hundert Befragten notwendig, bei langen Interviews entsteht dadurch ein hoher Sach- und Personalaufwand. Die Anforderungen an die Qualifikation des Interviewers bzw. Beobachters sind recht hoch, was die Qualität der Daten beeinflusst. Eine schlechte Leitung der Diskussion führt oft zu schlechten Ergebnissen bei der Auswertung der Daten. Insgesamt ist die Auswertung vor allem im Vergleich zu den quantitativen Methoden wesentlich aufwendiger.


Zusammenfassung

Datenanalyse wird heute vor allem in der angewandten Statistik verwendet. Die Daten werden hier in geeigneter Weise zusammengefasst, geordnet und grafisch dargestellt. Bereits zu Beginn der Arbeit wurde auf die Unterscheidung zwischen quantitativen und qualitativen Ansätzen der empirischen Forschung Bezug genommen. Quantitative Methoden werden in den Sozialwissenschaften dabei oftmals als Gegensatz zu den qualitativen Methoden gesehen, obwohl durchaus beide Methodenansätze kombinierbar sind. Prinzipiell schließen sich beide Forschungsansätze nicht einander aus, sondern können in gewissem Maße miteinander in Verbindung treten, um einen möglichst großen wissenschaftlichen Nutzen daraus zu ziehen. Datenanalytische Strukturen können durch die Kombination beider Forschungsrichtungen besser bzw. leichter aufgedeckt werden. So sollte auch in Zukunft auf eine Durchmischung beider Forschungsansätze geachtet werden, um so die Vorteile beider Verfahren zu kombinieren und gegebenenfalls die Nachteile zu eliminieren.


Literatur

Internetquellen:

  • Witt, Harald (2001). Forschungsstrategien bei quantitativer und qualitativer Sozialforschung [36 Absätze]. Forum Qualitative Sozialforschung / Forum Qualitative Social Research (Online-Journal), 2(1). Online verfügbar unter: URL http://www.qualitative-research.net/fqs-texte/1-01/1-01witt-d.htm (zuletzt eingesehen am: 19.01.2008)

Buchquellen:

  • Abel, J.; Möller, R.; Treumann, K.P. (1998): Einführung in die empirische Pädagogik. Stuttgart: Kohlhammer.
  • Bohnsack, Ralf (2003): Rekonstruktive Sozialforschung. Einführung in Methodologie und Praxis qualitativer Forschung. Opladen: utb.
  • Diehl, Joerg M.; Staufenbiel, Thomas (2002): Statistik mit SPSS, Version 10 + 11, 1.Auflage, Eschborn: Klotz.
  • Flick, Uwe (1995): Qualitative Forschung. Theorie, Methoden, Anwendung in Psychologie und Sozialwissenschaften Reinbek: Rowohlt.
  • Glaser, Barney G.; Strauss, Anselm L. (1969): The Discovery of Grounded Theory. Chicago: University of Chicago Press.
  • Glaser, Barney G.; Strauss, Anselm L.; aus dem Amerikan. von Axel T. Paul u. Stefan Kaufmann (2005): Grounded theory. Strategien qualitativer Forschung, 2. korr. Aufl., Bern (u.a.) Huber-Verlag.
  • Gorz, D.; Kraimer, K. (Hrsg.) (1991): Qualitative-empirische Sozialforschung. Konzepte, Methoden, Analysen. Opladen: Westdeutscher Verlag.
  • Kähler, Wolf-Michael (2006): Statistische Datenanalyse: Verfahren verstehen und mit SPSS gekonnt einsetzen. 4., verb. und erw. Aufl., Wiesbaden: Vieweg.
  • König, E.; Zedler, D. (Hrsg.) (1995): Bilanz qualitativer Forschung. Bd. 1: Grundlagen qualitativer Forschung; Bd. 2: Methoden. Weinheim: Deutscher Studien Verlag.
  • Kuckartz, Udo (Hrsg.) (2007): Qualitative Datenanalyse: computergestützt. methodische Hintergründe und Beispiele aus der Forschungspraxis. 2., überarb. und erw. Aufl., Wiesbaden: VS Verl. für Sozialwissenschaften.
  • Lamnek, S. (1993): Qualitative Sozialforschung. Bd. 1: Methodologie; Bd. 2: Methoden u. Techniken. 2. Aufl. Weinheim: Psychologie Verlags Union.
  • Marotzki, Winfried (1995): Qualitative Bildungsforschung. In: König, E.; Zedler, P. (Hrsg.): Bilanz qualitativer Forschung. Bd. 1. Weinheim: Deutscher Studien Verlag, S.99-133.
  • Paulus, Christoph (2002): Einführung für Sozialwissenschaftler, 3.korrigierte Auflage, Softfrutti Verlag.
  • Sharp, Helen; Rogers, Yvonne; Preece, Jenny (2007): Interaction Design – beyond human-computer interaction. Hoboken, NJ u.a.: Wiley.
  • Schnell, R.; Hill, R.; Esser, E. (1995): Methoden der empirischen Sozialforschung. 5. Aufl. München, Wien: R. Oldenbourg.
  • Stryker, Sheldon (1976): Die Theorie des Symbolischen Interaktionismus. In: Auwärter, Manfred; Kirsch, Edit; Schröter, Klaus (Hrsg.): Seminar: Kommunikation, Interaktion, Identität. Frankfurt: Suhrkamp, S.257-274
… weitere Daten zur Seite „Datenanalyse
Ziel der explorativen Datenanalyse ist die Erkennung von Mustern bzw. die Suche nach Strukturen, Gefügen und Besonderheiten +