Methoden der Sozialforschung: Stichprobe, Daten, Analyse
Eingeordnet in Mathematik
Geschrieben am in Deutsch mit einer Größe von 15,12 KB
Zusammenfassung Kapitel 8: Stichprobenziehung
- Dieses Kapitel beschreibt die Stichprobenziehung. Zuerst muss man sich fragen, wer gemessen wird, um entsprechend die Analyseeinheiten (Individuen, Organisationen, Zeitungen) zu definieren. Dann sollte die Grundgesamtheit klar definiert werden, basierend auf den Studienzielen sowie in Bezug auf inhaltliche Merkmale, Ort und Zeit.
- Die Stichprobe ist eine Teilmenge der zuvor definierten Grundgesamtheit und kann probabilistisch oder nicht-probabilistisch sein.
- Die Wahl der Stichprobenart hängt von den Zielen der Studie und dem Forschungsdesign ab.
- Probabilistische Stichproben sind unerlässlich in Survey-Designs, die eine Verallgemeinerung der Ergebnisse auf eine Population anstreben. Das Merkmal dieser Stichprobenart ist, dass alle Elemente der Grundgesamtheit zunächst die gleiche Chance haben, ausgewählt zu werden. Dadurch liegen die Stichprobenwerte sehr nahe an den Werten der Grundgesamtheit, was sehr präzise Schätzungen des Ganzen ermöglicht. Diese Präzision hängt vom Stichprobenfehler (auch Standardfehler genannt) ab.
- Für eine Zufallsstichprobe sind zwei Dinge erforderlich: die Stichprobengröße und die Auswahl der Elemente.
- Die Stichprobengröße wird auf Basis der Varianz der Grundgesamtheit und der Stichprobenvarianz berechnet. Letztere drückt die Eintrittswahrscheinlichkeit aus. Die Varianz der Grundgesamtheit wird als das Quadrat der Standardabweichung berechnet, die wir bestimmen. Je höher die Standardabweichung, desto größer der Stichprobenumfang.
- Probabilistische Stichproben umfassen: Einfache Zufallsstichprobe, geschichtete Stichprobe und Cluster-Stichprobe. Schichtung erhöht die Präzision der Stichprobe und beinhaltet die bewusste Verwendung von Teilstichproben für jede Schicht oder Klasse, die für die Grundgesamtheit relevant ist. Die Cluster-Stichprobe führt zu Unterschieden zwischen der Analyseeinheit und der Auswahleinheit. Bei dieser Art der Stichprobenziehung handelt es sich um eine zweistufige Auswahl, beide Stufen probabilistisch. In der ersten Stufe werden Cluster (Schulen, Organisationen, Klassenzimmer) ausgewählt, in der zweiten Stufe werden innerhalb der Cluster die zu messenden Einheiten ausgewählt.
- Elemente einer probabilistischen Stichprobe werden immer zufällig ausgewählt, um sicherzustellen, dass jeder die gleiche Chance hat, gewählt zu werden. Die Auswahlverfahren können sein: 1. Ziehung (Tombola), 2. Zufallszahlentabelle, 3. Systematische Auswahl. Alle Auswahlverfahren hängen davon ab, ob Listen (Stichprobenrahmen) existieren oder ad hoc erstellt werden müssen. Listen umfassen: Telefonbücher, Mitgliederlisten von Verbänden, Listen von Schulen usw. Wenn keine Listen der Grundgesamtheitselemente existieren, kann auf andere Rahmen zurückgegriffen werden, die Beschreibungen von Material, Organisationen oder Personen als Analyseeinheiten enthalten. Einige davon können Dateien, Archive und Landkarten sein.
- Nicht-probabilistische Stichproben können auch als gezielte Stichproben bezeichnet werden, da die Auswahl der Untersuchungseinheiten vom Ermessen des Forschers abhängt.
- Gezielte Stichproben können verschiedener Art sein: (1) Stichprobe freiwilliger Probanden (häufig in experimentellen Designs und Laborsituationen verwendet). (2) Expertenauswahl (oft in explorativen Studien verwendet). (3) Stichprobe typischer Fälle oder Fallstudien (in qualitativen und motivationalen Studien verwendet). (4) Quotenstichprobe (häufig in Meinungsumfragen und Marketing). Gezielte Stichproben sind in bestimmten Forschungsdesigns und bei Bedarf nützlich, aber die Ergebnisse sind nur auf die Stichprobe selbst oder ähnliche Stichproben verallgemeinerbar. Sie können nicht auf die Grundgesamtheit verallgemeinert werden.
- Der zentrale Grenzwertsatz besagt, dass die Verteilung von Stichprobenmittelwerten bei ausreichend großem Stichprobenumfang (oft über 30 oder 100 als Faustregel genannt) annähernd normalverteilt ist, unabhängig von der Verteilung der Grundgesamtheit. Eine normale Verteilung der Stichprobenmittelwerte ist oft eine Voraussetzung für parametrische statistische Tests und für korrekte Rückschlüsse auf die Grundgesamtheit.
Zusammenfassung Kapitel 9: Datenerhebung
- Datenerhebung beinhaltet die Auswahl eines verfügbaren Messinstruments oder die Entwicklung eines eigenen, die Anwendung des Messinstruments und die Vorbereitung der Daten für die Analyse.
- Messung ist der Prozess der Verknüpfung abstrakter Konzepte mit empirischen Indikatoren durch Klassifizierung und/oder Quantifizierung.
- In der Forschung messen wir die Variablen, die in den Hypothesen formuliert sind.
- Ein Messinstrument muss zwei Kriterien erfüllen: Reliabilität und Validität.
- Reliabilität bezieht sich auf den Grad, in dem die wiederholte Anwendung eines Messinstruments auf dasselbe Subjekt oder Objekt die gleichen Ergebnisse liefert.
- Validität bezieht sich auf den Grad, in dem ein Messinstrument tatsächlich die Variable(n) misst, die es zu messen vorgibt.
- Es gibt drei Arten von Validitätsnachweisen: Inhaltsvalidität, Kriteriumsvalidität und Konstruktvalidität.
- Faktoren, die die Validität beeinträchtigen können, sind vor allem: Improvisation bei der Messung, Verwendung von im Ausland entwickelten Instrumenten, die nicht für den eigenen Kontext validiert wurden, mangelnde Empathie oder unzureichende Schulung der Anwender.
- Es gibt keine perfekte Messung, aber Messfehler sollten auf ein erträgliches Maß reduziert werden.
- Reliabilität wird durch die Berechnung eines Reliabilitätskoeffizienten bestimmt.
- Reliabilitätskoeffizienten liegen zwischen 0 und 1 (0 = keine Reliabilität, 1 = perfekte Reliabilität).
- Die häufigsten Verfahren zur Schätzung der Reliabilität sind: Test-Retest-Methode (Maß der Stabilität), Paralleltest-Methode (alternative Formen), Testhalbierungsmethode (Methode der halben Spiele), Cronbachs Alpha und KR-20.
- Inhaltsvalidität wird durch den Vergleich der Items des Instruments mit dem gesamten Inhaltsbereich des zu messenden Konzepts bestimmt, um sicherzustellen, dass alle relevanten Aspekte abgedeckt sind.
- Kriteriumsvalidität wird durch den Vergleich der Ergebnisse des Messinstruments mit einem externen Kriterium bestimmt.
- Konstruktvalidität kann unter anderem durch Faktorenanalyse ermittelt werden.
- Die generischen Schritte zur Entwicklung eines Messinstruments sind:
- Liste der zu messenden Variablen.
- Überprüfung der konzeptionellen und operationalen Definitionen.
- Auswahl eines bereits entwickelten Instruments oder Entwicklung eines eigenen.
- Festlegung der Messniveaus der Variablen (nominal, ordinal, Intervall, Ratio).
- Festlegung der Kodierung der Daten.
- Durchführung eines Pretests (Pilotstudie).
- Erstellung der Endfassung des Instruments.
- In der Sozialforschung gibt es verschiedene Messinstrumente:
- a) Wichtige Einstellungs-Skalen: Likert-Skala, Guttman-Skala und Semantisches Differential.
- b) Fragebogen (Selbstausfüller, persönliches Interview, Telefoninterview, postalisch).
- c) Inhaltsanalyse.
- d) Beobachtung.
- e) Standardisierte Tests (mit Standardverfahren).
- f) Qualitative Interviews / Fokusgruppen.
- g) Sekundärdaten (Aufzeichnungen) und andere Messformen.
- Die Antworten werden kodiert.
- Kodierung beinhaltet:
- a) Kodierung von offenen oder nicht vor-kodierten Antworten.
- b) Erstellung eines Codebuchs.
- c) Durchführung der Kodierung.
- d) Erfassung und Speicherung der Daten in einer Datei.
Zusammenfassung Kapitel 10: Datenanalyse
- Die Analyse der Daten erfolgt mithilfe einer Datenmatrix, die in einer Datei gespeichert wird.
- Die Art der Analyse oder der durchzuführenden statistischen Tests hängt vom Messniveau der Variablen, den Hypothesen und den Forschungsfragen ab.
- Statistische Analysen können umfassen: deskriptive Statistik für jede Variable (Häufigkeitsverteilungen, Maße der zentralen Tendenz und Maße der Variabilität), Transformationen (z. B. z-Werte, Verhältnisse, Raten), inferenzstatistische Berechnungen, parametrische Tests, nichtparametrische Tests und multivariate Analysen.
- Häufigkeitsverteilungen enthalten die Kategorien, Codes, absolute Häufigkeiten (Anzahl der Fälle), relative Häufigkeiten (Prozentangaben) und kumulative Häufigkeiten (absolut oder relativ).
- Häufigkeitsverteilungen (insbesondere relative Häufigkeiten) können grafisch dargestellt werden.
- Eine Häufigkeitsverteilung kann durch ein Häufigkeitspolygon oder eine Häufigkeitskurve dargestellt werden.
- Die Maße der zentralen Tendenz sind Modus, Median und Mittelwert.
- Die Maße der Variabilität sind die Spannweite (Differenz zwischen Maximum und Minimum), die Standardabweichung und die Varianz.
- Weitere nützliche deskriptive Statistiken sind Schiefe und Kurtosis.
- z-Werte sind Transformationen der erhaltenen Werte in Einheiten der Standardabweichung.
- Ein Verhältnis (Ratio) ist die Beziehung zwischen zwei Kategorien, eine Rate ist das Verhältnis der Anzahl der Fälle in einer Kategorie zur Gesamtzahl der Fälle, oft multipliziert mit einer Potenz von 10.
- Inferenzstatistik dient dazu, Verallgemeinerungen von der Stichprobe auf die Grundgesamtheit zu ziehen, Hypothesen zu testen und Parameter zu schätzen. Sie basiert auf dem Konzept der Stichprobenverteilung.
- Die Normalverteilung ist ein sehr nützliches theoretisches Modell, dessen Standardform einen Mittelwert von 0 und eine Standardabweichung von 1 hat.
- Das Signifikanzniveau und Konfidenzintervalle geben die Wahrscheinlichkeit an, einen Fehler bei der Hypothesenprüfung oder Parameterschätzung zu machen. Die häufigsten Niveaus in den Sozialwissenschaften sind .05 und .01.
- Häufig verwendete parametrische statistische Tests sind:
- Pearson-Korrelationskoeffizient (für Korrelationsstudien)
- Lineare Regression (für korrelative/kausale Studien)
- T-Test (für Gruppenunterschiede)
- Test auf Unterschied in Gruppenproportionen
- Varianzanalyse (ANOVA): Einfaktorielle ANOVA (eine unabhängige Variable) und Mehrfaktorielle ANOVA (zwei oder mehr unabhängige Variablen) (für Gruppenunterschiede/kausale Studien)
- Kovarianzanalyse (ANCOVA) (für korrelative/kausale Studien)
- Bei allen parametrischen statistischen Tests müssen die Variablen mindestens auf Intervall- oder Ratio-Niveau gemessen werden.
- Häufig verwendete nichtparametrische statistische Tests sind:
- Die statistische Auswertung erfolgt mithilfe von Computerprogrammen, insbesondere statistischen Softwarepaketen.
- Beliebte statistische Pakete sind: BMDP, ESP, OSIRIS, SAS und SPSS. Für die Nutzung dieser Pakete sollte das jeweilige Handbuch konsultiert werden.
Zusammenfassung Kapitel 11: Forschungsbericht
- Vor der Erstellung eines Forschungsberichts sollte die Zielgruppe definiert werden, um den Bericht entsprechend anzupassen.
- Forschungsberichte können in einem akademischen oder nicht-akademischen Kontext vorgelegt werden.
- Der Kontext bestimmt Format, Art und Umfang des Forschungsberichts.
- Die häufigsten Elemente eines Forschungsberichts in einem akademischen Kontext sind:
- Titelseite
- Inhaltsverzeichnis
- Abstract (Zusammenfassung)
- Einleitung
- Theoretischer Rahmen
- Methode
- Ergebnisse
- Diskussion und Schlussfolgerungen
- Literaturverzeichnis
- Anhänge
- Die häufigsten Elemente in einem nicht-akademischen Kontext sind:
- Titelseite
- Inhaltsverzeichnis
- Abstract (Zusammenfassung)
- Einleitung
- Methoden
- Ergebnisse
- Schlussfolgerungen und Empfehlungen
- Anhänge
- Zur Präsentation des Forschungsberichts können verschiedene Hilfsmittel verwendet werden.
Zusammenfassung Kapitel 7: Nicht-experimentelle Forschung
- Nicht-experimentelle Forschung wird durchgeführt, ohne unabhängige Variablen bewusst zu manipulieren. Sie basiert auf Variablen, die bereits existieren oder in der Realität ohne direkte Intervention des Forschers auftreten.
- Es ist oft ein retrospektiver Ansatz.
- Nicht-experimentelle Forschung wird auch als Ex-post-facto-Forschung bezeichnet (Fakten und Variablen sind bereits eingetreten). Variablen und ihre Beziehungen werden in ihrem natürlichen Umfeld beobachtet.
- Nicht-experimentelle Designs werden wie folgt unterteilt:
- Transversale Designs (Querschnittsdesigns) erfassen Beobachtungen zu einem einzigen Zeitpunkt. Wenn einzelne Variablen gemessen und beschrieben werden, handelt es sich um deskriptive Studien. Bei der Beschreibung von Beziehungen zwischen Variablen handelt es sich um Korrelationsstudien. Wenn Prozesse untersucht werden, die Kausalität zwischen Variablen nahelegen, handelt es sich um korrelative/kausale Studien.
- Longitudinale Designs erfassen Beobachtungen zu zwei oder mehr Zeitpunkten. Wenn eine Population über die Zeit untersucht wird, handelt es sich um Trendstudien. Wenn eine spezifische Subpopulation (Kohorte) über die Zeit untersucht wird, handelt es sich um Kohortenstudien (evolutionäre Analyse der Gruppe). Wenn dieselben Individuen über die Zeit untersucht werden, handelt es sich um Panelstudien.
- Nicht-experimentelle Forschung ist weniger streng kontrolliert als experimentelle Forschung, und es ist schwieriger, kausale Zusammenhänge eindeutig zu schlussfolgern. Aber nicht-experimentelle Forschung ist oft natürlicher und näher an der alltäglichen Realität.
- Die Wahl des Designs wird vom Forschungsproblem, den Rahmenbedingungen der Forschung und der Art der Fragestellung beeinflusst.