Samplingverfahren der qualitativen Forschung

Aus Familienwortschatz
Version vom 30. Januar 2014, 19:55 Uhr von Admin (Diskussion | Beiträge) (1 Version: Domainwechsel)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der qualitativen Forschung spielt statistische Repräsentativität in der Regel keine Rolle. Anstelle dessen steht die Forderung nach inhaltlicher Repräsentativität, die über eine angemessene Zusammenstellung der Stichprobe erfüllt werden soll (Lit.: Lamnek 2005, S. 193)


Überlegungen zum Sampling

  • wer könnte eine informationsreiche Quelle für die Studie sein?
  • mit wem muss man sprechen, um das Phänomen besser zu verstehen?
  • wer könnte die Ergebnisse bestätigen oder ergänzen?


Repräsentativität

statistisch (vgl. quantitative Forschung):

  • statistische Repräsentativität ist ein Mittel, um methodologische Forderungen nach einer möglichst unverzerrten Stichprobe zu erfüllen
  • es muss durch ein geregeltes Samplingverfahren sichergestellt werden, dass alle relevante Merkmalskombinationen zahlenmäßig hinreichend berücksichtigt werden
  • möglichst Zufallsauswahl (Randomisierung)

inhaltlich (vgl. qualitative Forschung)

  • Erfüllung über eine angemessene Zusammenstellung der Stichprobe
  • Vermeidung von Verzerrung bzw. der Einbezug von relevanten Fällen ist zentrales Kriterium
  • Verzerrung liegt vor, wenn relevante Personen/Situationen nicht einbezogen werden
  • in der qualitativen Forschung sind Zufallsstichproben kontraindiziert, weil Stichprobenfehler mehr ins Gewicht fallen durch zu kleiner Stichprobengröße. Daher bedarf es einer bewussten - nicht zufälligen - kriteriengesteuerten Fallauswahl und Kontrastierung, bei der sichergestellt wird, dass für die Fragestellung relevante Fälle berücksichtigt werden

Kennzeichen

  • man bezieht nicht nur Personen ein, sondern auch Konzepte o.ä.
  • die Regeln der Stichprobenziehung sind nicht so streng wie in der quantitativen Forschung
  • die Auswahl muss angemessen und adäquat sein
  • es geht darum wie etwas ist, und nicht wieviele (Aufdeckung von Bedeutungen). Daher ist die Generalisierbarkeit kein Hauptziel bei der Stichprobenauswahl


Angemessenheit

Die Methodik der Stichprobendefinition wird auf das Ziel der Studie abgestimmt. Durch die Stichprobe sollten so viele Informationen vorliegen, dass eine Beschreibung des Phänomens möglich ist und man sagen kann, dass weitere Daten keine neuen Erkenntnisse bringen (Datensättigung)

==> umfangreiches Bild schaffen

Adäquatheit

Die Auswahlstrategie liefert relevante Informationen und Daten. Da die Stichprobengröße recht klein ist, sollten die gewählten Informanten einen hohen Grad an Nützlichkeit aufweisen. Aufgrund der kleinen Stichprobe muss die Datenerhebung effizient und effektiv sein => daher keine Randomisierung

Alle Kriterien der qualitativen Stichprobenauswahl müssen eingehalten werden, damit die Güte nicht gefährdet wird.

==> gezielt Personen wählen, die wertvolle Informationen liefern (den Kern treffen)

Kriterien bei der Auswahl

Variablen:

  • WER (welche Personen sind wichtig)
  • WANN (zu welcher Zeit Forschung, welche Zeiträume)
  • WO (an welchem Ort)
  • WAS (welche Prozesse, welche Aktivitäten)

Strategie:

  • Stichprobe extremer Fälle
  • Stichprobe typischer Fälle
  • Stichprobe kritischer Fälle
=> maximale Variation anstreben


Verfahren

qualitative Stichprobenpläne

Das Erstellen eines Stichprobenplans wird auch selektives Sampling genannt. Vor dem Feldzugang werden relevante Merkmale und -kombinationen definiert.

Es gibt 3 Festelgungen:

  1. relevante Merkmale für die Fallauswahl (z.B. "Beruf")
  2. Merkmalsausprägung (z.B. "Gesundheits- und Krankenpflegerin auf der Intensiv")
  3. Samplegröße ("ich möchte 2 hiervon, 3 davon")


Vorteile:

  • es kann sichergestellt werden, dass Träger der Merkmale in der Stichprobe enthalten sind.


Nachteile:

  • ein Stichprobenplan verhindert das Entdecken von typischen Merkmalen

theoretisches Samplen

Das Sample wird aufgrund theoretischer Konzepte und Überlegungen gezielt ausgewählt, die sich während der Forschung ergeben. Das theoretische Sampling ist ein Verfahren des kontinuierlichen Vergleichs bei der Entwicklung einer Grounded Theory, bei welchem Beispiele von Ereignissen, Handlungen, Fällen (etc) herangezogen werden, um Konzepte bzw Kategorien zu definieren bzw. gegeneinander abzugrenzen.


Strategien:

  1. Homogenes Sample (Minimierung):
    • suche nach gleichen Fällen um das Phänomen zu bestätigen
    • setzt sich aus Individuen zusammen, die derselben Struktur angehören oder ähnliche Charakeristika aufweisen.
    • Auswahl von Regelfällen
  2. Heterogenes Sample (Maximierung):
    • suche nach abweichenden (kontrastierenden) Fällen
    • dient der Bestätigung der Hypothese/Theorie
    • heterogene Sample werden auch nach ihrer maximalen Variation bezeichnet, da bei ihrer Auswahl in unterschiedlichen Umfeldern und nach Individuen mit sehr unterschiedlichen Erfahrungen gesucht wird
    • Auswahl von Extrem- und Einzelfällen


Kriterien:

  1. flexible Selektion
  2. sequenzielle Auswahl von Stichproben-Zellen
  3. Steuerung der Auswahl durch theoretische Entwicklung der Studie, die nach und nach spezifiziert wird
  4. kontinuierliche Auswahl, bis keine neuen relevanten Daten mehr auftreten
  5. suche nach abweichenden Fällen (Gegenbeispiele)

Suche nach Gegenbeispielen

Die Suche nach Gegenbeispielen kann als eigeneständige Methode, aber auch als Strategie des theoretischen Samplings gesehen werden.

Fallkontrastierung anhand von Gegenbeispielen. Man versucht eine Hypothese anhand von Gegenbeispielen zu widerlegen. Die Hypothese wird solange überarbeitet, bis kein Gegenbeispiel mehr gefunden wird (vgl. Falsifikation).

  1. zunächst ungefähre Definition des Problems oder Phänomens. Dies setzt voraus, dass man Vorinformationen bezüglich des Problems/Phänomens hat.
  2. Aufstellen einer (vorläufigen) Hypothese, welche das Phänomen zu erklären versucht. Diese Hypothese muss noch sehr breit gefasst sein, und einen hohen Grad an Falsifizierbarkeit aufweist, um mit dem empirischen Datenmaterial den Konflikt bearbeiten zu können (z.B. "Alle Schwäne sind weiß").
  3. suche nach entscheidenen Fällen, bei denen die Wahrscheinlichkeit hoch ist, dass sie einen Gegenevidenz zur Ausgangssituation darstellen. Entschiedene Fälle sind ungewöhnliche, nicht dem Durchschnitt entsprechende (abweichende) Fälle.
  4. wenn man ein Gegenbeispiel entdeckt hat, muss man die Hypothese umformulieren (präzisieren) (z.B. "99% der Schwäne sind weiß")
  5. dieser Vorgang wird so lange wiederholt, bis keine Gegenbeispiele gefunden werden können (wie bei der Datensättigung muss auch hier ein "künstlicher Schnitt" gesetzt werden, da man wohl immer Gegenbeispiele finden wird => "Ausnahmen bestätigen die Regel")
  6. der Prozess kann jederzeit wieder aufgenommen werden (in der selben oder in weiteren Studien)

Das Ziel dieser Strategie ist nicht eine Hypothese zu bewähren oder verwerfen, sondern den Prozess der Hypothesenentwicklung voranzubringen.

Gelegenheitsstichprobe

Wird auch "volunteer sample" genannt. "Man nimmt was kommt"


Vorteile:

  • leicht durchzuführen und effizient
  • geeignete Methode, um zu Beginn einer Studie (initial sample) dem Samplingprozess anzustoßen


Nachteile:

  • eine Gelegenheitsstichprobe generiert eventuell nicht die Probanden mit der größten Informationsfülle
  • hohes Risiko der Ineffizienz, da bei kleiner Stichprobe Probanden sorgfältig ausgewählt werden müssen


Schneeballprinzip

Das Schneeballprinzip kann als alternative Sampling-Methode gesehen werden.

Man bittet einen Informanten (Probanden) weitere Informanten zu nennen, die weitere Informationen zum Thema geben können. Diese nehmen an der Studie teil und generieren wieder neue Informanten. Das Schneeballsystem führt zu geklumpten Stichproben.


Vorteile:

  • wird vorgenommen, wenn keine geeigneten Informanten vom Forscher identifiziert werden können
  • wenn es schwierig ist an diese heranzukommen
  • noch ökonomischer, effizienter und praktischer als die Gelegenheitsstichprobe, da der Forscher evtl. weniger Zeit damit verbringen muss zu prüfen, ob die Teilnehmer für die Studie geeignet sind
  • Vertrauensbasis kann evtl. leichter hergestellt werden, wenn schon vorab eine Information (über die Studie) von einer vertrauten Person erfolgte
  • weiterführende Merkmale können besser spezifiziert werden, z.B. "Kennen Sie noch jemanden mit diesen Eigenschaften UND..."


Nachteile:

  • geklumpte Stichprobe: der Kreis der Teilnehmer ist beschränkt, wichtige Aspekte könnten gar nicht miteinbezogen werden ("übersehen")
  • keine Kontrolle über Brauchbarkeit der Teilnehmer => nachträgliche Selektion vornehmen
  • die Qualität der Teilnehmer ist abhängig von der Güte der Empfehlung, die von vielen Faktoren beeinflusst sein kann (z.B. Unterstützungswille der Studie)

Literatur

  • Siegfried Lamnek (2005): "Qualitative Sozialforschung", 4. Auflage, BELTZ ISBN 3621275444
  • Udo Kelle und Susanne Kluge (1999): "Von Einzelfall zum Typus"

siehe auch