Diese Website befindet sich im Aufbau!

 

Auf dieser Seite finden Sie die Kontrollfragen inkl. Musterlösungen und pdfs zum Download zu den einzelnen Kapiteln bzw. Unterkapiteln. Zusätzlich stehen Ihnen die Kontrollfragen unter dem Reiter Verständnisfragen auf der Hauptseite des Buchs zur Verfügung. Damit Sie auch auf dieser Website vom Testingeffect profitieren, sind die Antworten erst sichtbar, wenn Sie den Bereich unter der Frage markieren. Viel Erfolg beim Lernen!

 

Inhaltsübersicht

 

1 Psychologie und Sozialwissenschaften als empirische Wissenschaften

1.1 Was sind Gegenstand und Selbstverständnis der Psychologie

1.2 Was kennzeichnet das wissenschaftliche Vorgehen?

1.3 Fünf Zielrichtungen wissenschaftlicher Tätigkeit in der Psychologie und den Sozialwissenschaften

1.4 Methoden im empirischen Forschungsprozess

1.5 Hypothesen

1.6 Variablen

1.7 Forschungsethik und gute wissenschaftliche Praxis

 

I Quantitative Methoden

 

2 Quantitative Erhebungsmethoden

2.1 Besonderheiten psychologischer Erhebungen

2.2 Beobachten, Zählen und Messen

2.3 Selbstberichtsverfahren: Befragung und Rating

2.4 Testen

2.5 Biopsychologische und neurowissenschaftliche Messungen

2.6 Online-Datenerhebung

 

3 Quantitative Forschungsansätze

3.1 Grundlagen

3.2 Experiment

3.3 Nicht experimentelle Forschungsansätze

 

4 Quantitative Auswertungsmethoden

4.1 Datenaufbereitung

4.2 Deskriptivstatistische Methoden

4.3 Inferenzstatistische Methoden

 

II Qualitative Methoden

 

5 Qualitative Forschungsansätze

5.1 Prinzipien qualitativen Forschens

5.2 Bewusste Stichprobenziehung

5.3 Fallstudie

5.4 Methodologie der Gegenstandsbezogenen Theoriebildung („grounded theory“)

5.5 Ethnografie/Feldforschung

5.6 Partizipative und emanzipatorische Forschungsansätze

5.7 Performative Sozialforschung

5.8 Narrativer Ansatz und Biografieforschung

5.9 Phänomenologie

5.10 Forschungsprogramm Subjektive Theorien (FST)

 

6 Qualitative Erhebungsmethoden

6.1 Datenarten in der qualitativen Sozialforschung

6.2 Interviewverfahren

6.3 Gruppendiskussion/Fokusgruppe

6.4 Weitere offene Verfahren zur Erhebung verbaler Daten

6.5 Beobachtung

6.6 Weitere Verfahren zur Erhebung qualitativer Daten

 

7 Qualitative Analyseverfahren

7.1 Datenaufbereitung: Transkriptionsverfahren

7.2 Auswertungsmethoden

7.3 Verfahren der Systematisierung

 

8 Bewertung qualitativer Forschung

8.1 Klassische Gütekriterien der qualitativen Forschung

8.2 Alternative Gütekriterien qualitativer Forschung

8.3 Ethische Fragen qualitativen Forschens

 

III Mixed Methods

 

9 Mixed-Methods-Forschung

9.1 Historie und Begriffsklärungen

9.2 Mixed Method-Designs

9.3 Weitere Gesichtspunkte bei der Planung von Mixed Methods-Studien

 

 

 

 

Kapitel 1 - Psychologie und Sozialwissenschaften als empirische Wissenschaften

 

Kapitel 1.1: Was sind Gegenstand und Selbstverständnis der Psychologie und der Sozialwissenschaften?

 

1. Womit beschäftigt sich die wissenschaftliche Psychologie?

Die Psychologie ist die Wissenschaft vom Erleben, Verhalten und Handeln des Menschen sowie von dessen Veränderungen. Sie ist unterteilt in verschiedene Subdisziplinen mit je eigenen, aber nicht vollständig voneinander abgrenzbaren inhaltlichen Schwerpunktsetzungen. Dazu zählen beispielsweise die Allgemeine Psychologie, die Entwicklungspsychologie, die Sozialpsychologie, die Biologische Psychologie, die Differentielle Psychologie, die Klinische Psychologie, die Arbeits- Organisations- und Wirtschaftspsychologie oder die Gesundheitspsychologie. Einige dieser Subdisziplinen sind stärker grundlagenorientiert, das heißt, sie zielen darauf ab, grundlegende Erkenntnisse zu einem bestimmten Phänomen zu gewinnen, um das Wissen zu diesem Phänomen zu erweitern. Andere haben einen eher anwendungsorientierten Fokus und beschäftigen sich mit Fragestellungen aus der Praxis bzw. der Lösung von Problemen aus ihren jeweiligen Anwendungsbereichen.

 

2. Womit beschäftigen sich die Sozialwissenschaften?

Unter den Begriff der Sozialwissenschaften werden verschiedene wissenschaftliche Disziplinen gefasst, die sich mit sozialem Verhalten sowie Phänomenen und Herausforderungen des gesellschaftlichen Zusammenlebens der Menschen beschäftigen. Sie werden auch als Gesellschaftswissenschaften bezeichnet. Zu den relevanten Fachbereichen werden unter anderem die Soziologie, die Politikwissenschaft, die Erziehungswissenschaft, die Wirtschaftswissenschaften oder die Ethnologie gezählt. Nicht selten wird auch die Psychologie bzw. insbesondere ihre Subdisziplin die Sozialpsychologie als Teil der Sozialwissenschaften angesehen. Wie die Psychologie sind auch die anderen sozialwissenschaftlichen Disziplinen in Subdisziplinen mit unterschiedlich starkem Anwendungs- bzw. Grundlagenbezug unterteilt.

 

3. Nennen Sie einige inhaltliche Beispiele für Forschungsfragen aus Psychologie und Sozialwissenschaften!

  • Welche Bedeutung haben Wahrnehmung und Aufmerksamkeit?
  • Welchen Einfluss haben Peers auf die Entwicklung von Kindern?
  • Wie wirken Stereotype und Vorurteile?
  • Was sind die biologischen Grundlagen von Emotionen?
  • Wie kann man Intelligenz messen?
  • Welchen Einfluss hat unser Erleben einer klinischen Intervention auf die Wirkung dieser Intervention?
  • Welcher Zusammenhang besteht zwischen Führungsverhalten und Arbeitszufriedenheit?
  • Wie lässt sich ein klimaschonender Lebensstil fördern?
  • Was sind die Ursachen sozialer Ungleichheit?
  • Wie kommt es zum Erstarken rechter Parteien in Europa?
  • Welchen Einfluss haben die Folgen der COVID-19 Pandemie auf verschiedene Branchen in Deutschland?
  • Was bedeutet Migration für diejenigen, die ihre Heimat verlassen, und für diejenigen, die zurückbleiben?

 

4. Geben Sie einige Gründe für die Methodenvielfalt an!

  • Der Gegenstandsbereich der Psychologie und der Sozialwissenschaften ist thematisch sehr breit gefächert, die Fragestellungen sind variabel und komplex.
  • Erleben, Verhalten und Handeln“ sind oft nicht direkt beobachtbar und müssen erst mit „methodischer“ Hilfe erschlossen werden. Die Erfassung direkt beobachtbaren und nicht direkt beobachtbaren Verhaltens erfordert je eigene Methoden.
  • Den fachspezifischen Herausforderungen der Subjektivität und Reaktivität wird mit unterschiedlichen Methoden unterschiedlich begegnet.
  • Menschen und Gesellschaften befinden sich im kontinuierlichen Wandel. Die Methoden der Psychologie und der Sozialwissenschaften müssen sich diesem Wandel anpassen.
  • Unterschiedliche Zielrichtungen (Beschreiben, Verstehen, Erklären, Vorhersagen und Verändern) erfordern je unterschiedliche Methoden.

 

5. Was bedeutet es, wenn sich eine Wissenschaft als empirisch bezeichnet?

Das Wort „Empirie“ stammt vom griechischen Wort „empeiria“ (Erfahrung) ab. „Dementsprechend wird im wissenschaftlichen Sinne von empirischen Aussagen gesprochen, wenn sie sich auf (wissenschaftlich kontrollierte) Erfahrungen, also Befunde, die nach den Regeln der empirischen Forschung gewonnen wurden, beziehen“ (Diaz-Bone & Weischer 2015, S. 102). Empirische Wissenschaften grenzen sich von rein theoretischen Wissenschaften ab, die ihre Erkenntnisse allein auf der Basis gedanklicher Beschäftigung mit einem Phänomen gewinnen (wie beispielsweise die Mathematik oder die Philosophie).

 

6. Wie kommt es, dass Uneinigkeit über die in Psychologie und Sozialwissenschaften anzuwendenden Methoden herrscht?

Historisch können Psychologie und Sozialwissenschaften zwischen Natur- und Geisteswissenschaften verortet werden. Innerhalb der Disziplinen haben sich verschiedene Stränge entwickelt, die sich mal mehr an den Natur-, mal mehr an den Geisteswissenschaften orientieren, mit je eigenen gegenstandstheoretischen und weltanschaulichen Positionierungen verbunden sind und in der Regel ein eigenes Methodenrepertoire ausgebildet haben. Zu unterschiedlichen Zeiten und in unterschiedlichen Ländern dominierten bzw. dominieren jeweils unterschiedliche dieser Strömungen. Je nachdem wann und wo man eine Psychologin oder einen Sozialwissenschaftler danach fragt, was der wissenschaftliche Anspruch ihrer bzw. seiner Disziplin ist und welche Methoden einzusetzen sind, um diesem Anspruch gerecht zu werden, wird man also sehr unterschiedliche Antworten erhalten.

 

Kapitel 1.2: Was kennzeichnet das wissenschaftliche Vorgehen?

 

1. Was kennzeichnet das wissenschaftliche Vorgehen in Abgrenzung zu alltagspsychologischen Strategien des Erkenntnisgewinns?

Die Fragen der Wissenschaft unterscheiden sich im Kern gar nicht so sehr von unseren Alltagsfragen. Sie sind vielleicht etwas abstrakter formuliert oder nicht ganz so auf die persönliche Situation einzelner Personen bezogen. Der Unterschied zwischen wissenschaftlichem Vorgehen und alltagspsychologischen Strategien liegt weniger in der Art der Fragen, sondern darin, wie diese beantwortet werden. Während im Alltag Erkenntnis aus der individuellen Erfahrung abgeleitet wird, dienen die wissenschaftlichen Methoden dazu, systematisch Daten zu sammeln, auszuwerten und in Bezug zu Theorien und existierenden wissenschaftlichen Erkenntnissen zu setzen. Im Alltag täuschen die Erfahrungen uns häufig falsche Tatsachen vor, denn die „Datenbasis“ ist meist lückenhaft und es unterlaufen uns Fehler bei Beobachtungen und Schlussfolgerungen. Das wissenschaftliche Vorgehen folgt einem für die jeweilige Methode spezifischen und für andere nachvollziehbaren Prozess, der eine Überprüfung der gewonnenen Erkenntnisse erlaubt.

 

2. Was versteht man unter Reliabilität und wie kann sie überprüft werden?

Reliabilität bezeichnet die Zuverlässigkeit und Beständigkeit einer Untersuchung. Reliabel ist ein Erhebungsinstrument oder eine Untersuchung dann, wenn bei einem relativ gleichbleibenden Verhalten gleiche oder ähnliche Ergebnisse resultieren. Es gibt eine Reihe von Möglichkeiten, dieses Gütekriterium in quantitativen Untersuchungen konkret zu bestimmen, so etwa durch die Test-Retest-Reliabilität, die in der Literatur oft auch als Stabilität bezeichnet wird. Sie beschreibt das Ausmaß der Übereinstimmung bei wiederholter Anwendung einer Erhebungsmethode in der gleichen Stichprobe. Eine weitere Möglichkeit der Reliabilitätsbestimmung ist die Interrater-Reliabilität: Man versteht darunter das Ausmaß, in dem die Einschätzungen unterschiedlicher Beobachter*innen bzw. unterschiedlicher „Testanwender*innen“ (Rater*innen) übereinstimmen. Die Interrater-Reliabilität ist dann hoch, wenn verschiedene Rater*innen bei den gleichen Testpersonen zu gleichen oder ähnlichen Einschätzungen (Ratings) kommen

 

3. Was versteht man unter Validität?

Die Validität beurteilt eine quantitative Untersuchung danach, ob sie tatsächlich das misst, was gemessen werden soll. Ursprünglich bezog sich dieses Gütekriterium auf diagnostische Messinstrumente. Dazu wurden differenzierte Validitätskriterien wie Inhaltsvalidität, Konstruktvalidität, Übereinstimmungsvalidität usw. entwickelt. Im Kontext experimenteller Untersuchungen, sind weitere spezielle Validitätsaspekte relevant, wie z. B. die interne und externe Validität, die Ableitungsvalidität usw.

 

4. Wie unterscheiden sich induktives, abduktives und deduktives Vorgehen?

In der Logik versteht man unter Induktion die Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine und Gesetzmäßige. Das umgekehrte Vorgehen kennzeichnet den deduktiven Weg. Unter Deduktion versteht man somit die Ableitung des Besonderen und Einzelnen aus dem Allgemeinen (aus Regeln, Gesetzmäßigkeiten, Modellen, Theorien). Abduktion schließlich bezeichnet das Entwickeln einer neuen Regel bzw. Hypothese zur Erklärung von Sachverhalten, die sich nicht unter bereits bekannte Gesetzmäßigkeiten subsumieren lassen.

 

5. Was sind die Grundprinzipien von quantitativer, qualitativer und Mixed-Methods Forschung?

Je nach Forschungsgegenstand bzw. Art der Fragestellung bedient man sich in der Wissenschaft sog. quantitativer oder qualitativer Methoden bzw. einer Verbindung aus beiden (Mixed Methods). Mit quantitativen Methoden werden Merkmale oder Zusammenhänge exakt gemessen, meist an einer großen Stichprobe, mit dem Ziel allgemeingültige Aussagen zu treffen. Bei qualitativen Verfahren liegt der Fokus eher auf der intensiven Untersuchung weniger bzw. einzelner Fälle mit dem Ziel Bedeutung zu verstehen bzw. zu interpretieren. Im Mixed Methods Ansatz werden qualitative und quantitative Methoden im Forschungsprozess systematisch miteinander verbunden und integriert.

 

Kapitel 1.3: Fünf Zielrichtungen wissenschaftlicher Tätigkeit in der Psychologie und den Sozialwissenschaften

 

1. Was versteht man unter „Beschreiben durch Operationalisieren“?

Zum Beschreiben gehört auch das Operationalisieren, d. h. anzugeben, wie man ein bestimmtes theoretisches Konstrukt – wie etwa Angst oder Intelligenz – empirisch erfassen will. Denn die meisten Phänomene, die in der Psychologie und den Sozialwissenschaften von Interesse sind, sind nicht direkt beobachtbar und damit auch nicht direkt messbar. Möchte man ein solches Phänomen beobachtbar und messbar machen (operationalisieren), ist es in einem ersten Schritt notwendig, explizit zu machen, welches Verständnis des jeweiligen Konstrukts man für eine konkrete Untersuchung zugrunde legt. So gibt es beispielsweise verschiedene Definitionen und Theorien zu Angst oder Intelligenz, die unterschiedliche Teilaspekte dieser Konstrukte hervorheben. In der quantitativen Forschung beginnt man mit der Klärung der Frage, welche Teilaspekte im Mittelpunkt einer Untersuchung stehen, und entwickelt oder wählt auf dieser Grundlage eine geeignete Erhebungsmethode aus, die den Bedeutungskern des Konstruktes bzw. alle relevanten Teilaspekte erfasst. Im Fall von Angst oder Intelligenz liegen beispielsweise bereits viele etablierte und gut überprüfte Erhebungsinstrumente vor, die zum Einsatz kommen können. Welches der vielen verfügbaren Instrumente man auswählt, ist davon abhängig, wie man Intelligenz bzw. Angst für die eigene Untersuchung definiert hat. In der qualitativen Forschung geht es dagegen oft darum, zu erfassen, wie Teilnehmer*innen ein bestimmtes Konstrukt verstehen. Dennoch findet auch hier eine Operationalisierung auf der Grundlage eines Vorverständnisses seitens der Forscher*innen statt, beispielsweise in Form eines Interviewleitfadens.

 

2. In welchen Kontexten ist die Zielrichtung des Verstehens von Relevanz?

Im Gegensatz zur quantitativen Forschung, die häufig Kausalerklärungen anstrebt, ist die qualitative Forschung eher auf das Beschreiben und Verstehen von Phänomenen ausgerichtet. Während der quantitatvie Forschungsprozess eher linear ist, vollzieht sich das Verstehen klassischerweise in einem iterativen Prozess, dem so genannten hermeneutischen Zirkel bzw. der hermeneutischen Spirale. Das bedeutet, dass das Verstehen vor dem Hintergrund von Vorannahmen (einem Vorverständnis) und einem Verständnis der gesamten (Kommunikations-)Situation erfolgt. Erkenntnisse, die im Zuge des Verstehensprozesses gewonnen werden, wirken zurück auf das Vorverständnis und das Gesamtverständnis – wodurch sich wiederum das Verständnis verändern kann.

 

3. Wie unterscheiden sich Beschreiben und Erklären und welcher Zusammenhang besteht zur Kausalität?

Erklärungen sind Angaben über Bedingungsverhältnisse bzw. Abhängigkeiten zwischen Sachverhalten. Erklärungen setzen die Beschreibung von mindestens zwei Sachverhalten voraus und haben eine besondere Bedeutung in der quantitativen (experimentellen) Forschung. Die Beziehung zwischen zwei Sachverhalten beim Beschreiben nennt man eine Zusammenhangsrelation. Beim Erklären bestimmt die Richtung der Beziehung zwischen zwei Sachverhalten das Ursache-Wirkungs-Gefüge (Kausalrelation). Veränderungen im Sachverhalt A sind ursächlich für Veränderungen im Sachverhalt B. Auch in der qualitativen Forschung gewinnt die Erklärung von Sachverhalten immer mehr an Bedeutung. Dabei wird der Begriff der Ursache jedoch teilweise anders gefasst als in der quantitativen Forschung.

 

4. Wovon hängt die Vorhersagegenauigkeit eines Prognosemodells ab?

 

Wichtige Einflussfaktoren auf die Vorhersagegenauigkeit sind:

-    Die Präzision der Beschreibung der am Prognosemodell beteiligten Sachverhalte (Variablen),

-    die adäquate Auswahl der Prädiktoren (welche unabhängigen Variablen haben einen hohen Erklärungswert?),

-    die Gewichtung der Prädiktoren gemäß ihrer empirischen Bedeutung (welche Prädiktoren haben im vorliegenden Datensatz einen hohen Prognosewert?) und

-    der Zeitraum der Prognose (je länger, desto ungenauer).

 

5. Welche Arten von Veränderungen unterscheidet man?

Man unterscheidet:

  • Beeinflussen und Verändern als Korrektur: In diesem Fall gilt der Ausgangszustand als problematisch, gestört oder unnormal.
  • Beeinflussen und Verändern als Förderung: Bei dieser Zielsetzung strebt man einen höheren, besseren Zustand an, ohne dass der Ausgangszustand als problematisch gilt.
  • Beeinflussen und Verändern als Prävention: Hier geht es darum, das Eintreten eines schlechten Zustands zu verhindern.

 

Kapitel 1.4: Methoden im empirischen Forschungsprozess

 

1. Wie entscheidet man, welche Forschungsmethoden zum Einsatz kommen sollen?

Empirische Untersuchungen beginnen in der Regel mit der Entwicklung einer Fragestellung auf Basis von Theorien und bisheriger Forschung in einem bestimmten Themenfeld. In der quantitativen Forschung werden darauf aufbauend zumeist konkrete Hypothesen formuliert. Im gesamten Forschungsprozess sind alle Methoden (Forschungsansatz, Erhebungs- und Auswertungsmethode) so auszuwählen, dass sie der Beantwortung der Fragestellung bzw. der Überprüfung der Hypothese dienen. In qualitativen Untersuchungen ist der Forschungsprozess häufig weniger linear. Auch hier steht eine Forschungsfrage am Anfang, und es werden ein passender Forschungsansatz, Erhebungs- und Auswertungsverfahren ausgewählt. Allerdings sind diese Elemente im Forschungsprozess häufig noch Veränderungen unterworfen. Beispielsweise kann es sein, dass die Forschungsfrage im Zuge der Datenerhebung modifiziert wird oder dass im Interviewleitfaden weitere Fragen ergänzt werden. Außerdem beginnt die Auswertung meist schon vor Abschluss der Datenerhebung, und erste Ergebnisse können sich auf sämtliche Elemente des Forschungsprozesses auswirken.

 

2. Was wird mit der Wahl eines Forschungsansatzes festgelegt?

Mit dem Forschungsansatz bestimmt man die übergreifende, gegenstandsbezogene Vorgehensweise, wählt also beispielsweise das Experiment zur Überprüfung der Kausalhypothese „Intelligenz ist ursächlich für Ängstlichkeit“. Widmet man sich dagegen der Frage, ob es einen Zusammenhang zwischen Schul- und Studienerfolg gibt, wäre die Korrelationsstudie das adäquate Forschungsdesign. Und wenn es darum geht, eine datenbasierte Theorie der Ängstlichkeit von Schüler*innen zu entwickeln, wäre die Grounded Theory Methodologie der passende Ansatz. Solche Ansätze spezifizieren dann, wie die Untersuchung anzulegen ist. Dies umfasst häufig auch eine Festlegung in Bezug auf die Art und Weise der Stichprobenziehung sowie die Methoden der Datenerhebung und -auswertung.

 

3. Nennen Sie zwei quantitative und zwei qualitative (Daten-)Erhebungsmethoden!

Beispiele für quantitative (Daten-)Erhebungsmethoden:

  • Beobachten
  • Zählen
  • Urteilen
  • Testen

Beispiele für qualitative (Daten-)Erhebungsmethoden:

  • (Teilnehmendes) Beobachten
  • Interviewverfahren
  • Gruppendiskussion/Fokusgruppen
  • Nutzung nonreaktiver Daten

 

4. Was muss bei der Wahl einer Analysemethode berücksichtigt werden?

Die Beantwortung der Forschungsfrage bzw. die Entscheidung darüber, ob eine Hypothese angenommen oder zurückgewiesen wird, erfolgt aufgrund der Ergebnisse der Datenanalyse. Die Analysemethode muss dabei sowohl in der qualitativen als auch der quantitativen Forschung so ausgewählt werden, dass sie zur Art des vorliegenden Datenmaterials und zur Fragestellung bzw. Hypothese passt.

 

Kapitel 1.5: Hypothesen

 

1. Durch welche Aspekte unterscheiden sich wissenschaftliche von Alltagshypothesen?

Hypothesen sind vorläufige (vermutete) Antworten, die Forscher*innen auf ihre Fragen geben (Hussy & Jain 2002). Um Vermutungen handelt es sich so lange, wie der wissenschaftliche Nachweis noch aussteht. Um sich von Alltagshypothesen zu unterscheiden und dem Anspruch der Wissenschaftlichkeit zu entsprechen, müssen Hypothesen folgende Anforderungen erfüllen:

-    präzise und widerspruchsfreie Formulierung,

-    prinzipielle Widerlegbarkeit,

-    Operationalisierbarkeit und

-    Begründbarkeit.

 

2. Nennen Sie ein Beispiel für eine quasiuniverselle Hypothese!

Die Intelligenz bedingt zumeist die Ängstlichkeit.

 

3. Warum wird diese Hypothesenart in der psychologischen Forschung so häufig verwendet?

Die quasiuniverselle Hypothese treffen wir im Bereich der psychologischen Forschung am häufigsten an. Die Überprüfung einer (unbeschränkt) universellen Hypothese kann nur zu ihrer Widerlegung führen. Es genügt ein gegenteiliger Fall und die Hypothese kann – vereinfacht dargestellt – als falsifiziert gelten. Dagegen ist ihre Bestätigung nicht möglich, weil die Überprüfung niemals als abgeschlossen gelten kann. Selbst wenn sich in allen bisherigen Überprüfungen die Hypothese bewährt hat, kann die nächste Untersuchung ein gegenteiliges Ergebnis bringen. Da in der Hypothese jedoch keinerlei Einschränkungen vorgenommen werden, ist eine vollständige Überprüfung nicht möglich, ganz abgesehen davon, dass auch zukünftige Ereignisse nicht in den Prüfprozess einbezogen werden können. Einen Ausweg aus dem Problem verspricht die quasiuniverselle Hypothese. Sie beinhaltet eine Einschränkung in Bezug auf die Wahrscheinlichkeit ihres Zutreffens. Ausnahmen werden in Kauf genommen. Forscher*innen begnügen sich damit Regelhaftigkeiten zu erkennen. Regelverstöße werden in einem gewissen Umfang zugelassen. Sie ermöglicht es somit, sich dem Ziel, allgemeingültige Aussagen formulieren und überprüfen zu können, anzunähern.

 

4. Wann sollte man anstatt einer Hypothese eine explorative Forschungsfrage formulieren?

Eine Hypothese muss vor dem Hintergrund des vorhandenen theoretischen und empirischen Wissens begründet und nachvollziehbar sein. Wenn es sich um ein bisher wenig erforschtes Feld handelt, kann dieses Wissen auch aus anderen Bereichen entliehen und auf den neuen Gegenstand angewendet werden. Ist es nicht möglich, eine Hypothese in dieser Art zu begründen bzw. nachvollziehbar zu machen, so ist eher eine explorative Forschungsfrage zu formulieren.

 

5. Welches ist der Unterschied zwischen einer hypothesenprüfenden und einer hypothesengenerierenden Untersuchung?

Die hypothesenprüfende Untersuchung liefert eine geprüfte Aussage. Eine Entscheidung über Annahme oder Zurückweisung der Hypothese ist möglich. Die hypothesengenerierende Untersuchung liefert eine ungeprüfte Hypothese. Eine Entscheidung über Annahme oder Zurückweisung der Hypothese ist nicht möglich. Das gleichzeitige Generieren und Prüfen einer Hypothese in einer einzigen Untersuchung (am gleichen Datensatz) ist nicht zulässig!

 

6. Über welche Wege kann man Hypothesen generieren?

Hypothesen können deduktiv, induktiv oder abduktiv generiert werden.

 

7. Welche Rolle hat die Hypothese im Forschungsprozess?

Der gesamte Forschungsprozess ist als ein Vorgang des Problemlösens aufzufassen. Wie muss vorgegangen werden, damit die Konfrontation der Hypothese mit der Empirie zu einer Entscheidung über die Hypothese (und die Theorie) führt.

 

Kapitel 1.6: Variablen

 

1. Was ist der Unterschied zwischen einer Variablen und einer Konstanten?

Variablen sind veränderliche Beobachtungsgrößen. Eine Variable ist somit ein Merkmal, das unterschiedliche Ausprägungsgrade annehmen kann, welches also variiert. Konstanten sind Beobachtungsgrößen mit nur einer Ausprägung. Sie sind im Gegenstandsbereich der Psychologie kaum vorzufinden, weil menschliches Erleben, Verhalten und Handeln durch große Variabilität gekennzeichnet ist. Diese Variabilität besteht sowohl innerhalb einer Person (intraindividuell) als auch zwischen verschiedenen Personen (interindividuell).

 

2. Worin besteht der Unterschied zwischen abstrakten und komplexen Variablen?

Variablen unterscheiden sich darin, wie leicht sie direkt beobachtbar sind. So ist beispielsweise die Reaktionszeit eine direkt beobachtbare, konkrete Variable (Stoppuhr vorausgesetzt). Dagegen entziehen sich Variablen wie Intelligenz oder Planungsfähigkeit der direkten Beobachtung, sie sind abstrakt. Man sieht es Menschen meistens nicht an, wie intelligent oder vorausschauend sie sind. Zur Erfassung abstrakter Variablen müssen daher indirekte Indikatoren herangezogen werden.

 

3. Was versteht man unter dem Bedeutungskern einer Variablen?

Es gibt viele Arten, abstrakte und komplexe Variablen beobachtbar und messbar zu machen, weil das Bedeutungsspektrum solcher Variablen vielschichtig ist. Die wesentlichsten Aspekte des Bedeutungsspektrums eines Begriffs bilden den Bedeutungskern. Ziel muss es sein, mit der gewählten Form der Operationalisierung den Bedeutungskern zu treffen, damit der semantische Gehalt möglichst wenig reduziert wird.

 

4. Was versteht man unter Operationalisierung?

Damit eine Hypothese, die abstrakte und/oder komplexe Variablen beinhaltet, geprüft, also mit der Realität konfrontiert werden kann, müssen diese Variablen zunächst der Beobachtung und Erfassung zugänglich gemacht werden, d. h., sie müssen operationalisiert werden. Dies geschieht in der quantitativen Forschung dadurch, dass ihnen empirische Sachverhalte (d. h. konkret mess- bzw. beobachtbare Größen) zugeordnet werden. So wird entscheidbar, ob und in welcher Ausprägung die abstrakten (theoretischen) Phänomene in der (empirischen) Realität vorliegen. Voraussetzung für eine valide Zuordnung empirischer Sachverhalte zu abstrakten bzw. komplexen Variablen, ist eine präzise Definition dieser Variablen und der ggf. darin enthaltenen Teilaspekte. In der Regel kann man bei der Operationalisierung von Variablen, die für einen bestimmten Fachbereich relevant sind, auf existierendes Hintergrundwissen zurückgreifen.

 

5. Welche Gütekriterien sind bei der Operationalisierung von Relevanz?

Der Versuch der optimalen Operationalisierung einer Variablen entspricht dem Streben nach einer validen (gültigen) Operationalisierung. Eine Variable ist dann valide operationalisiert, wenn ihr Bedeutungskern getroffen und ihr semantischer Gehalt möglichst wenig reduziert ist. Die gewählte Form der Operationalisierung sollte zudem reliabel (zuverlässig) sein, also unter vergleichbaren Bedingungen vergleichbare Ergebnisse erbringen.

 

Kapitel 1.7: Forschungsethik und gute wissenschaftliche Praxis

 

1. Stellen Sie am Beispiel der Milgram-Studie die wert- und zweckrationale Begründungsperspektive einander gegenüber!

Beim wertrationalen Handeln werden moralische und/oder ethische Werte als unveränderbare Richtlinien interpretiert (die menschliche Würde und Integrität, die Privatsphäre usw.) dürfen unter keinen Umständen verletzt werden). Die Milgramstudie wird aus dieser Perspektive abgelehnt, weil die Teilnehmer*innen massiv getäuscht wurden und Schaden und negative Folgen für sie nicht ausgeschlossen waren.

Beim zweckrationalen Handeln werden Kosten-Nutzen-Abwägungen erstellt. Das Handeln orientiert sich am Abwägungsergebnis. Die Milgramstudie kann aus dieser Perspektive unterschiedlich beurteilt werden, je nachdem wie der Prozess des Abwägens endet. Der Nutzen ist dabei das Ausmaß der erwarteten oder beobachteten wissenschaftlichen Erkenntnis, die Kosten sind Verletzungen der menschlichen Würde und Integrität, der Privatsphäre usw. der Teilnehmer*innen.

 

2. Nennen und erläutern Sie beispielhaft zwei forschungsethische Prinzipien im Umgang mit Untersuchungsteilnehmer*innen!

-   Gewährleistung der psychischen und physischen Unversehrtheit und Integrität der Teilnehmer*innen (starke psychische Belastungen und Demütigungen sollen vermieden und die Intimsphäre der Teilnehmenden gewahrt werden),

- Transparenz, Freiwilligkeit der Teilnahme, informierte Einwilligung und Vermeidung von Täuschung (Untersuchungen und ihre Ziele sollen für die Untersuchungsteilnehmer*innen transparent und die Teilnahme freiwillig sein, eine informierte Einwilligung soll eingeholt und Täuschung vermieden werden)

-  Wahrung von Vertraulichkeit, Anonymität und Datenschutz (personenbezogene Daten sind vertraulich zu behandeln und unterliegen einem besonderen Datenschutz, Teilnehmende müssen der Erhebung zustimmen, vor der weiteren Verarbeitung sollten sie anonymisiert oder pseudonymisiert werden).

 

3. Was versteht man unter der Replikationskrise?

Als Replikationskrise oder Reproduzierbarkeitskrise wird die Tatsache bezeichnet, dass wichtige wissenschaftliche Erkenntnisse mehrerer Fachdisziplinen in Wiederholungsuntersuchungen nicht repliziert werden konnten. Hierdurch wird die Zuverlässigkeit der veröffentlichten Erkenntnisse und damit die Glaubwürdigkeit der betroffenen Wissenschaftsdisziplinen massiv in Frage gestellt.

 

4. Wie kann sichergestellt werden, dass Prinzipien guter wissenschaftlicher Praxis eingehalten werden?

Es existieren verschiedene Leitlinien zu Prinzipien guter wissenschaftlicher Praxis. Der Kodex Leitlinien zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft beispielsweise nimmt nicht nur individuelle Wissenschaftler*innen, sondern auch die Hochschulen in die Pflicht und zielt darauf ab, eine Kultur der wissenschaftlichen Integrität zu fördern. Zudem sind hier Ombudspersonen vorgesehen, die zu Fragen guter wissenschaftlicher Praxis und zu wissenschaftlichem Fehlverhalten ansprechbar sind.

 

5. Erläutern Sie die Grundidee von Open Science!

Das Ziel von Open Science ist es, die Transparenz und Zugänglichkeit von Wissenschaft in allen Phasen des Forschungsprozesses zu fördern und hierdurch ebenfalls wissenschaftliches Fehlverhalten und fragwürdige Forschungspraktiken zu verhindern sowie die Qualität der Forschung zu erhöhen und Zusammenarbeit zu stärken. 

 

 

zurück zur Inhaltsübersicht

 

I Quantitative Methoden

 

 

 

 

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 3 - Quantitative Forschungsansätze

 

Kapitel 3.1: Grundlagen

 

1. Welche Hypothesenebenen gibt es?

Man unterscheidet zwischen der Ebene der

  • theoretisch-inhaltlichen Hypothese (TIH),
  • empirisch-inhaltlichen Hypothese (EIH),
  • statistischen Vorhersage (SV) und
  • Testhypothesen (THn).

 

2. Weshalb muss man inhaltliche Hypothesen zum Zweck ihrer statistischen Überprüfung ableiten?

Hintergrund für die Konkretisierungsschritte ist die Erkenntnis, dass inhaltliche Hypothesen statistisch nicht prüfbar sind, sondern zunächst in eine Sprache überführt werden müssen, die einer statistischen Überprüfung zugänglich ist.

 

3. Welches Entscheidungskriterium wird herangezogen, um über Testhypothesen zu entscheiden?

Das alleinige Entscheidungskriterium auf dieser Hypothesenebene (sowie auf der Ebene der statistischen Vorhersage) ist die statistische Signifikanz.

 

4. Was versteht man unter einer Effektgröße? Warum ist deren Berücksichtigung bei der Hypothesenentscheidung relevant?

Die Effektgröße drückt aus, inwiefern ein Mittelwertsunterschied nicht nur statistisch, sondern auch psychologisch-inhaltlich (also praktisch) bedeutsam ist. Während die Wahrscheinlichkeit, im Hypothesentest ein signifikantes Ergebnis zu erhalten, mit der Größe der Stichprobe steigt, ist die Effektstärke unabhängig von der Stichprobengröße.

 

5. Was ist mit der Repräsentativität von Stichproben gemeint?

Repräsentativität bezeichnet das Ausmaß in dem die Verteilung (relevanter) Merkmale in der Stichprobe der Verteilung dieser Merkmale in der Population entspricht. Streng genommen kann man nur auf Basis repräsentativer Stichproben Schlüsse auf die Grundgesamtheit ziehen.

 

6. Welche Arten von Zufallsstichproben werden unterschieden?

-           die einfache,

-           die geschichtete und

-           die mehrstufige Zufallsstichprobe sowie

-           die Klumpenstichprobe

 

Kapitel 3.2: Experiment

 

1. Was sind Merkmale des experimentellen Vorgehens?

Unter einem Experiment versteht man die systematische Beobachtung einer abhängigen Variablen unter verschiedenen Bedingungen einer unabhängigen Variablen bei gleichzeitiger Kontrolle der Störvariablen, wobei die zufällige Zuordnung von Probanden und experimentellen Bedingungen gewährleistet sein muss.

 

2. Was sind Störvariablen und weshalb muss man sie kontrollieren?

Es gibt neben der unabhängigen Variablen (UV) weitere Einflussgrößen auf die abhängige Variable (AV), die man Störvariablen nennt. Zu Störvariablen werden andere Einflussgrößen erst dann, wenn sie systematisch mit den Stufen einer UV variieren und auf die AV einwirken. Diesen Sachverhalt nennt man Konfundierung. Zu verhindern ist also die systematische Variation einer potenziellen Einflussgröße mit den Stufen einer oder mehrerer UVn, weil man bei einer vorliegenden Konfundierung nicht eindeutig bestimmen kann, ob ein beobachteter Effekt auf der AV durch die UV, durch Störvariablen oder durch beides bedingt ist und somit keine eindeutige Kausalaussage getroffen werden kann.

 

3. Wie kann man Störvariablen kontrollieren?

Folgende Kontrolltechniken können für die allgemeinen Störeffekte eingesetzt werden:

  • Konstanthaltung,
  • Elimination,
  • systematische Variation,
  • zufällige Variation,
  • Randomisieren,
  • Parallelisieren,
  • Blindversuche.

Die speziellen Störeffekte werden durch Ausbalancieren kontrolliert. Eine vollständige Kontrolle der Sequenzeffekte gewährleistet alleine das vollständige interindividuelle Ausbalancieren.

 

4. Was ist eine Versuchsplananlage?

Unter einer Versuchsplananlage (VPL-A) versteht man eine Menge von bewährten Schemata zur Anordnung von unabhängigen Variablen (Faktoren) und ihren Ausprägungen (Stufen), mit deren Hilfe eine möglichst informationshaltige und gleichzeitig ökonomische symbolische Repräsentation der Variablenausprägungen (Faktorstufen) erreicht werden kann.

 

5. Wie unterscheidet sie sich von einem Versuchsplan?

Unter einem Versuchsplan versteht man eine möglichst konkrete Handlungsanweisung zur Erhebung von Daten zum Zweck der ökonomischen, validen und präzisen experimentellen Hypothesenprüfung. Die Konkretisierung erfolgt auf der Grundlage einer zugehörigen Versuchsplananlage und mithilfe folgender vier Entscheidungen, die die Bedingungen angeben, unter welchen die Vpn beobachtet werden:

  • vollständige oder teilweise Realisierung der angelegten Zellen,
  • Bestimmung der Anzahl der Beobachtungen pro Zelle,
  • interindividuelle oder intraindividuelle Bedingungsvariation,
  • randomisierte oder nichtrandomisierte Zuordnung der Vpn zu den Zellen.

 

6. Geben Sie je ein Beispiel für einen mehrfaktoriellen reinen bzw. gemischten Versuchsplan.

Ein VPL2RR ist ein (reiner) zweifaktorieller, vollrandomisierter Versuchsplan. In diesem Versuchsplan werden die Vpn nur unter einer experimentellen Bedingungskombination beobachtet. Es gibt bspw. den Faktor A “Tageszeit“ und den Faktor B „Pausen“ mit jeweils zwei Stufen. In diesem Plan mit 2x2 Bedingungskombinationen werden die Vpn nur unter einer der vier möglichen Bedingungen erfasst.

Ein VPL2RQ ist ein (gemischter) zweifaktorieller Versuchsplan mit dem randomisierten Faktor A „Tageszeit“ und dem messwiederholten Faktor B „Pausen“. In diesem Versuchsplan werden die Vpn in beiden Stufen des Faktors B beobachtet.

Ein reiner Versuchsplan liegt somit vor, wenn beide (alle) Faktoren eines Plans entweder randomisiert oder messwiederholt sind. Alle anderen Pläne nennt man gemischt.

 

7. Worin unterscheiden sich Haupteffekt und einfacher Haupteffekt?

Ein Haupteffekt (HE) zeigt sich im Vergleich der Mittelwerte der Stufen des Faktors. Sind die Mittelwerte gleich oder nur wenig unterschiedlich, so liegt kein HE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist (Vergleich der Zeilen- bzw. Spaltenmittelwerte)

Ein einfacher Haupteffekt (EHE) zeigt sich im zeilen- bzw. spaltenweisen Vergleich der Zellmittelwerte in einer Stufe des jeweils anderen Faktors. Sind die Zellmittelwerte gleich oder nur wenig unterschiedlich, so liegt kein EHE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist (zeilen- bzw. spaltenweiser Vergleich der Zellmittelwerte).

 

8. Wie hängt die interne Validität mit der Kontrolle von Störvariablen zusammen?

Die interne Validität eines Experiments ist gegeben, wenn Veränderungen in der AV ausschließlich auf die Variation der UV zurückgeführt werden können. Diese Kausalinterpretation versucht man durch die Kontrolle der Störvariablen zu erreichen. Einschränkungen in der internen Validität durch mangelnde Kontrolle der Störvariablen führen dazu, dass die Kausalinterpretationen lediglich vorläufigen Charakter besitzen und weiterer experimenteller Bestätigung bedürfen.

 

9. Wie kann man die Präzision einer experimentellen Hypothesenprüfung erhöhen?

Das Ziel besteht darin, mögliche Fehlerquellen (Sekundärvarianz) zu minimieren (z. B. durch die Kontrolle von Störvariablen) und die Wirkung der experimentellen Variablen (Primärvarianz) zu maximieren (z. B. durch optimale Operationalisierung von UV und AV), damit die Relation von Primär- zu Sekundärvarianz möglichst zu Gunsten der Primärvarianz ausfällt und damit die Möglichkeit gegeben ist (bleibt), die Hypothese realitätsadäquat zu entscheiden.

 

10. Wie unterscheiden sich Labor- und Feldexperiment hinsichtlich der verschiedenen Aspekte der Validität?

Das Ziel des Labor-Experiments besteht in der intern validen Hypothesenprüfung, die eine optimale Kausalinterpretation zwischen UV und AV ermöglicht. Durch die künstliche Untersuchungssituation unter kontrollierten Bedingungen, sind Abstriche hinsichtlich der externen Validität zu machen. Das Feldexperiment findet in einer natürlichen Situation statt, wodurch die Möglichkeiten der Kontrolle von Störvariablen reduziert sind. Hieraus resultiert zwangsläufig eine geringere interne Validität des Feldexperiments im Vergleich zum Laborexperiment. Auf der anderen Seite führt die Nähe zur natürlichen Umgebung zu einer erleichterten Übertragbarkeit der Ergebnisse der Hypothesenprüfung auf andere Situationen und dadurch zu einer erhöhten externen Validität bzw. einem größeren Geltungsbereich.

 

11. Wann ist der experimentelle Ansatz die Methode der Wahl und wann nicht?

Die Auswahl eines Forschungsansatzes sollte immer an den Zielsetzungen der Untersuchung orientiert sein. Die Stärke von (Labor-)Experimenten liegt darin Kausalhypothesen zu überprüfen. Ist dies die Zielsetzung der Untersuchung, ist somit ein experimenteller Untersuchungsansatz angezeigt. Gibt es andere Wege, die Frage zuverlässig und gültig zu beantworten, so kann nach Ökonomieprinzipien entschieden werden, da Experimente häufig sehr aufwändig sind. Steht zudem die externe Validität im Vordergrund, so ist zumindest das Laborexperiment nicht die Methode der Wahl. Schließlich gibt es viele Konstellationen in der Psychologie und den Sozialwissenschaften, in denen der Untersuchungsgegenstand oder die Rahmenbedingungen die Umsetzung relevanter Aspekte des Experiments verhindern. Auch dann müssen Varianten des Experiments oder andere nichtexperimentelle Forschungsansätze zum Einsatz kommen.

 

 

Kapitel 3.3: Nichtexperimentelle Forschungsansätze

 

1. Für welche Art von Fragestellungen sind Korrelationsstudien gut geeignet?

Korrelationsstudien sind die am häufigsten anzutreffende Art quantitativ empirischer Untersuchungen. Sie sind geeignet, um (komplexe) Zusammenhänge zwischen verschiedenen Variablen sowie zeitliche Verläufe zu analysieren und zu beschreiben. Dabei dürfen die Ergebnisse aufgrund der starken Einschränkungen der internen Validität in aller Regel nicht kausal interpretiert werden.

 

2. Wie verhält es sich mit der erkennbaren Tendenz, Korrelationen kausal zu interpretieren?

Die Problematik der fälschlichen Kausalinterpretation von festgestellten Zusammenhängen zwischen zwei Variablen ist nicht als Schwachpunkt der Methode der Korrelationsstudie zu sehen, sondern Ergebnis einer immer wieder beobachtbaren Tendenz von Wissenschaftler*innen oder auch Journalist*innen zum kausalen Denken und Interpretieren. Mit Korrelationsstudien kann man beschreiben, aber nicht erklären. Den Beschreibungsschwerpunkt bilden die Zusammenhänge zwischen den am interessierenden Sachverhalt beteiligten Variablen.

 

3. Welche Aspekte sind bei der Umfrageforschung von besonderer Relevanz?

Die Umfrageforschung sammelt standardisierte Informationen zu einem spezifischen Fragegegenstand (Wahl, Produktbeliebtheit, Klimawandel, Gesundheitszustand usw.), indem eine repräsentative Stichprobe der jeweiligen Population befragt (interviewt) wird. Ziel der Umfrageforschung ist die Erhebung eines zutreffenden Meinungsbilds.

 

4. Was ist ein Panel?

Die Panelforschung ist eine Spezialform der Umfrageforschung. Dabei wird im Panel dieselbe repräsentative Gruppe von Personen wiederholt (in regelmäßigen Abständen) befragt bzw. interviewt.

 

5. Was sind Stärken und Herausforderungen der Panelforschung?

Panels haben den Vorteil, dass eine (bestehende) repräsentative Stichprobe mehrfach befragt werden kann und nicht immer neu zusammengestellt werden muss. Nur so lassen sich echte Entwicklungsverläufe nachzeichnen. Andererseits sind solche längsschnittlichen Erhebungen auch sehr (kosten-)aufwändig und bringen eigene methodische Herausforderungen mit sich (Panelmortalität, Veränderungen der Population, Konstanthaltung vs. Anpassung des Erhebungsinstruments, Störeffekte durch wiederholte Befragung).

 

6. Wie unterscheiden sich Metaanalyse und systematisches Review?

Verschiedene Varianten des Reviews und die Metaanalyse dienen dazu, den Stand der Forschung aufzubereiten. Das Review, stellt einen Überblicksartikel (Sammelreferat) dar, in welchem die vorfindbare Literatur zu einem bestimmten Themenbereich besprochen, bewertet und integriert wird. Dadurch kann ein detailliertes Bild über die bisherigen Forschungsbemühungen in einem bestimmten Themenfeld und deren Ergebnisse entstehen. Als Nachteil dieser Vorgehensweise wird angesehen, dass die Bewertung und Zusammenfassung von Ergebnissen in Textform immer einer gewissen Subjektivität unterliegen. Verschiedene Formen des Reviews unterscheiden sich unter anderem im Ausmaß ihrer Systematik. Der Subjektivität kann durch eine große Systematik (z. B. in Form des „systematic review“) bei der Recherche, Auswahl und Darstellung der Studien und ihrer Ergebnisse zu einem gewissen Maß entgegengewirkt werden. Die Metaanalyse strebt eine noch stärkere Standardisierung und Objektivierung an. Sie ist eine Methode mit deren Hilfe die Ergebnisse bisheriger Studien zu einem Forschungsgebiet in Form statistischer Kennwerte zusammengefasst werden. Im Mittelpunkt steht dabei die Frage, ob in dem untersuchten Themenfeld ein bestimmter Effekt vorliegt und wenn ja, wie groß er ist (Effektstärke).

 

7. Was versteht man unter dem „Müll-rein-Müll-raus“-Problem der Metaanalyse?

Das „Müll-rein-Müll-raus“-Problem thematisiert die unterschiedliche Qualität von Studien. Kann man reliable und valide Ergebnisse der Metaanalyse erwarten, wenn die Primärstudien aus methodischer Sicht (gravierende) Mängel enthalten? Zwei Lösungswege werden beschritten: Das Benutzen von Ausschlusskriterien oder die Einführung einer Moderatorvariablen. Ausschlusskriterien stehen für Mindeststandards, die erfüllt sein müssen, damit die Studie weiter in der Analyse verbleiben kann. Wird die Studienqualität hingegen als Moderatorvariable in die weiteren Analysen einbezogen, bleiben auch methodisch schwächere Arbeite in der Analyse enthalten, erhalten aber gemäß ihrer Codierung entweder ein schwächeres Gewicht oder es erfolgt ein Vergleich der Analyseergebnisse mit und ohne die als schwächer codierten Arbeiten.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 5 - Qualitative Forschungsansätze

 

Kapitel 5.1: Prinzipien qualitativen Forschens

 

1. Nennen Sie fünf (beliebige) Prinzipien qualitativen Forschens!

Fünf beliebige aus den folgenden zehn Prinzipien:

  •  Naturalistische Vorgehensweise
  •  Offene Verfahren
  •  Menschenbild des reflexiven Subjekts
  •  Fallorientierung
  •  Holistische Vorgehensweise
  •  Mehrheitlich induktives / abduktives Vorgehen
  •  Emergente Flexibilität des Designs
  •  Ziel: Beschreibung, Verstehen
  •  Interpretationsbedürftige Daten
  •  Forschende als Messinstrumente
  •  Theoretische Verallgemeinerung
  •  Gütekriterium der Validität

 

2. Weshalb ist es nicht ohne Weiteres möglich, den Gegenstand unverändert in seiner natürlichen Form zu erfassen?

Der Gegenstand existiert nicht in einem Vakuum, sondern ist zumindest zum Teil durch die Untersuchungssituation mit bedingt. In der Psychologie ist die Untersuchungssituation auch eine soziale Situation, in der Menschen miteinander interagieren. Forschende sind daher unvermeidlich an der Erzeugung der eigenen Daten mit beteiligt. Aus qualitativer Sicht ist dies keine Fehlerquelle, die sich ausschließen lässt. Stattdessen berücksichtigen qualitativ Forschende ganz bewusst die Art und Weise, wie ihre eigene Person in den Forschungsprozess eingeht.

 

3. Inwiefern sind qualitativ Forschende selbst „Messinstrumente“? Was folgt daraus?

In der qualitativen Forschung fungiert häufig die Forscherin oder der Forscher selbst als Instrument der Datenerhebung (etwa bei der Durchführung von Interviews oder von Beobachtungen). Daraus folgt erstens, dass die Datenerhebung gerade nicht unabhängig von den beteiligten Personen erfolgt. Stattdessen bemühen sich die Forschenden aktiv um Verstehen, wobei sie in verschiedenen Kontexten und verschiedenen Personen gegenüber manchmal gerade unterschiedlich handeln, ohne dabei die Datenerhebung jedoch in die eine oder die andere Richtung zu lenken. Weiterhin sollten Forschende bei der Auswertung und Interpretation daher eigene Eindrücke und Verhaltensweisen ganz bewusst berücksichtigen und kritisch reflektieren.

 

Kapitel 5.2: Bewusste Stichprobenziehung

 

1. Was versteht man unter bewusster Stichprobenziehung?

Bei der bewussten bzw. absichtsvollen Stichprobenziehung wird die Stichprobe gezielt nach bestimmten Kriterien aus der Grundgesamtheit ausgewählt, so dass sie in Bezug auf die Forschungsfrage möglichst informationshaltig ist. Bei Bottom-up-Strategien der bewussten Stichprobenziehung ergeben sich diese Kriterien erst im Untersuchungsverlauf; bei Top-down-Strategien stehen sie zu Untersuchungsbeginn fest. Ziel der bewussten Stichprobenziehung ist die detaillierte Beschreibung ausgewählter Fälle oder die analytische Verallgemeinerbarkeit von der Stichprobe auf eine Theorie.

 

2. Weshalb ist die Größe der Stichprobe bei der bewussten Stichprobenziehung nicht von Bedeutung? Was ist wichtiger als die Anzahl der Fälle?

Bei der probabilistischen Stichprobenziehung muss die Stichprobe groß genug sein, um mit hinreichender Sicherheit von der Stichprobe auf die Grundgesamtheit schließen zu können. Eine solche statistische Verallgemeinerung ist aber meist nicht das Ziel qualitativer Untersuchungen; daher ist auch die Größe der Stichprobe nicht von zentraler Bedeutung. Wichtiger als die Anzahl der Fälle ist die Zusammensetzung der Stichprobe, also wie die Fälle sich zueinander verhalten, ob sie einander ähnlich oder untereinander verschieden sind.

 

3. Kann man Ergebnisse, die anhand einer bewussten Stichprobe ermittelt wurden, auf die Population verallgemeinern?

In der Regel kann man das nicht. Wie bei den meisten Regeln gibt es aber auch hier Ausnahmen. Eine solche Ausnahme ist der typische Fall: Von einem typischen Fall kann man auf die Grundgesamtheit verallgemeinern. Eine weitere Ausnahme sind homogene Grundgesamtheiten, also Populationen, deren Mitglieder einander sehr ähnlich sind bzw. eine ähnliche Struktur aufweisen. Bei einer solchen homogenen Grundgesamtheit kann man auch von wenigen Fällen auf die Population schließen.

 

4. Inwiefern stellt die theoretische Stichprobenziehung eine induktive bzw. eine Bottom-up-Strategie der bewussten Stichprobenziehung dar?

Die Kriterien, nach denen die Stichprobe zusammengesetzt ist, ergeben sich erst im Untersuchungsverlauf. Dabei werden zunächst Fälle ausgewählt, die einander ähnlich sind. Anschließend werden auch Fälle einbezogen, die zu den bisherigen Fällen in ausgewählten Merkmalen im Kontrast stehen.

 

5. Was versteht man unter einem qualitativen Stichprobenplan?

Bei einem qualitativen Stichprobenplan werden die Kriterien für die Zusammensetzung der Stichprobe vor Untersuchungsbeginn festgelegt. Kriterien und ihre Ausprägungen werden in einer Kreuztabelle kombiniert; für jede Kombination von Kriterienausprägungen wird die angezielte Anzahl von Fällen festgelegt.

 

6. Wie sähe der „typische Fall“ einer Psychologiestudentin aus?

Eine typische Psychologiestudentin weist diejenigen Eigenschaften, Interessen und Motive auf, die sich bei den meisten Psychologiestudentinnen finden. So interessieren sich Studentinnen der Psychologie meist für andere Menschen, möchten anderen Menschen gerne (therapeutisch) helfen, wünschen sich weniger Methodenveranstaltungen im Verlauf ihres Studiums usw. Schauen Sie sich einfach unter Ihren Kommilitoninnen um! Was in einem Gegenstandsbereich als typisch gelten kann, setzt immer entsprechendes Vorwissen voraus, entweder aus früheren oder aus vorgeschalteten eigenen Untersuchungen.

 

Kapitel 5.3: Fallstudie

 

1. Was versteht man unter einer Fallstudie?

Die Fallstudie stellt einen holistischen Forschungsansatz dar, mit dem interessierende Fälle ganzheitlich, unter Einbeziehung ihres Kontextes und unter Verwendung verschiedener Datenquellen und Erhebungsverfahren umfassend untersucht werden.

 

2. Welche Arten der Fallstudie gibt es?

  • Unterscheidung nach Funktion: beschreibende und erklärende Fallstudien
  • Unterscheidung nach der Anzahl der Fälle: Einzelfallstudien und multiple Fallstudien
  • Unterscheidung nach Untergliederung: fallübergreifende und eingebettete Fallstudien

 

3. Angenommen, Sie planen eine Fallstudie zu den Studienbedingungen an deutschen Universitäten. Welche Art der Fallstudie würden Sie realisieren und warum?

Bei dieser Fragestellung bietet sich zunächst eine beschreibende, keine erklärende Fallstudie an – denn Sie wollen wissen, wie die Studienbedingungen aussehen und nicht, wie sich beispielsweise Unterschiede in Studienbedingungen erklären lassen.

Weiterhin sollten Sie eine multiple Fallstudie realisieren, also verschiedene Arten von Universitäten einbeziehen, beispielsweise größere und kleinere, staatliche und private.

Außerdem handelt es sich bei Universitäten um größere Institutionen mit einer Vielzahl von Fachbereichen, an denen sich die Studienbedingungen auch innerhalb einer Universität erheblich unterscheiden können. Daher sollte Ihre Fallstudie möglichst als eingebettete Studie realisiert werden.

Zusammenfassend sollten Sie also eine beschreibende, multiple, eingebettete Fallstudie planen.

 

Kapitel 5.4: Methodologie der Gegenstandsbezogenen Theoriebildung („grounded theory“)

 

1. Was ist das Ziel der gegenstandsbezogenen Theoriebildung?

Ziel der gegenstandsbezogenen Theoriebildung ist es, unter weitgehender Ausblendung von Vorannahmen gesättigte Theorien zu erstellen, die direkt in den Daten verankert sind.

 

2. Sie planen, eine gegenstandsbezogene Theorie zu der Frage zu erstellen, wie Studierende mit chronischer Krankheit im Studium zurechtkommen. Wie gehen Sie vor?

  • Sie beginnen mit einer Leitidee. Beispielsweise könnte es sein, dass Studierende mit chronischer Krankheit, die mit anderen leben, besser zurechtkommen als Studierende mit chronischer Krankheit, die alleine leben.
  • Zu Beginn untersuchen Sie einander ähnliche Fälle. So beginnen Sie vielleicht mit zwei Studierenden mit chronischer Krankheit, die alleine leben.
  • In einer späteren Phase beziehen Sie auch kontrastierende Fälle ein, beispielsweise Daten für zwei Studierende mit chronischer Krankheit, die mit anderen leben.
  • Sie werten die Daten aus und vergleichen, sowohl die je ähnlichen Studierenden untereinander als auch die unähnlichen Studierenden. Auf dieser Grundlage erstellen Sie Vermutungen darüber, welche weiteren Faktoren damit zusammenhängen, wie gut Studierende mit chronischer Krankheit mit dem Studium zurechtkommen (z. B. das Studienfach, der Grad der Beeinträchtigung durch die Krankheit usw.).
  • Sie beziehen nun weitere Fälle in die Untersuchung ein, die sich in Bezug auf diese weiteren Faktoren ähnlich oder unähnlich sind.
  • Sie wiederholen die bisherigen Schritte so lange, bis eine Einbeziehung weiterer Fälle keine neuen Erkenntnisse erbringt, Sie Ihre Theorie also nicht weiter verändern müssen. Ihre Theorie gilt dann als gesättigt.

 

3. Worin unterscheiden sich die erste und die zweite Phase des Kodierens bei der GTM?

In der ersten Phase erfolgt das Kodieren datennah, mit dem Ziel, relevante Konzepte im Material zu identifizieren.

In der zweiten Phase werden die Konzepte zu mehrdimensionalen Kategorien ausdifferenziert und untereinander in Beziehung gesetzt. Dies geschieht auf der Grundlage eines permanenten Vergleichs der Kategorien sowohl mit den Daten als auch der Kategorien untereinander.

 

Kapitel 5.5: Ethnografie/Feldforschung

 

1. Was versteht man unter Feldforschung / Ethnografie?

Ziel der Feldforschung / Ethnografie ist es, eine Kultur aus der Sicht ihrer Mitglieder kennen zu lernen und zu beschreiben. Die Kultur soll durch die Forschungstätigkeit möglichst nicht verändert werden. Wichtigste Methode der Datenerhebung ist die teilnehmende Beobachtung.

 

2. Weshalb gilt der Einstieg ins Feld als die schwierigste Phase der Feldforschung?

In dieser Phase werden die Weichen für die weitere Untersuchung gestellt. Sie gilt als besonders schwierig, weil das Forschungsteam die ungeschriebenen Regeln der fraglichen Kultur noch nicht kennt, eine Verletzung der Regeln aber im schlimmsten Fall ein Scheitern der gesamten Untersuchung nach sich ziehen kann.

 

3. Inwiefern hat die Phase der Verschriftlichung der Ergebnisse ethnografischer Forschung in den letzten Jahren an Bedeutung gewonnen?

Die zunehmende Bedeutung der Verschriftlichung in der Ethnografie steht in engem Zusammenhang mit der sog. Krise der Repräsentation. Das Forschungsfeld wird nicht mehr als etwas quasi Objektives, Außenstehendes gesehen, das es nur zu beschreiben gilt. Stattdessen wird das Ergebnis ethnografischer Forschung zunehmend als Interpretationsprozess unter Berücksichtigung der Rolle der Forschenden aufgefasst. Entsprechend gewinnt auch der Schreib- als Interpretationsprozess an Bedeutung.

 

4. Welches Problem wird im Zusammenhang mit der Feldforschung am häufigsten diskutiert? Wie hängt dieses Problem mit der Spannung zwischen Innensicht und Außensicht zusammen, in der sich die Feldforschung bewegt?

In der Literatur zur Feldforschung / Ethnografie wird das Problem des „going native“ am häufigsten diskutiert. Darunter versteht man den Verlust von Distanz zum Forschungsgegenstand und die Identifikation mit der untersuchten Kultur.

Zielidee der Ethnografie / Feldforschung ist es, die Innensicht einer anderen Kultur möglichst gut kennen zu lernen – eben wie dies in der Regel nur einem Mitglied dieser Kultur möglich ist – und diese Kenntnis aus der Innensicht zugleich mit der Distanz der Außensicht als Forschende oder Forschender zu kombinieren. Beim „going native“ geht die Distanz der Außensicht verloren; es bleibt nur noch die Innensicht.

 

5. In der Autoethnografie liegt der Schwerpunkt auf dem eigenen Erleben, und es werden nicht-akademische Textsorten zur Dokumentation der Ergebnisse verwendet. Was halten Sie davon?

Auf diese Frage gibt es keine eindeutige Antwort. Ihre Antwort wird von Ihrem Wissenschaftsverständnis und Ihrer Definition von Erkenntnis abhängen.
Aus Sicht der Befürworter*innen autoethnografischer Forschung lässt sich anführen, dass der Rückgriff auf eigenes Erleben in der psychologischen Forschung eine lange Tradition hat. Außerdem sollte der Nutzen psychologischer Forschung ein gesamtgesellschaftlicher sein; und daher sollten Forschungsergebnisse auch für die Allgemeinheit zugänglich sein.

Aus der Sicht der Kritiker*innen lässt sich darauf verweisen, dass Selbstauskünfte nicht immer zuverlässig und valide sind. Außerdem sind die Methoden häufig nicht gut von außen nachvollziehbar; dies ist umso mehr der Fall, wenn eine eher literarische Darstellungsform gewählt wird. Dabei geht außerdem die Präzision der wissenschaftlichen Sprache verloren.

 

Kapitel 5.6: Partizipative und emanzipatorische Forschungsansätze

 

1. Nennen Sie jeweils zwei Beispiele für partizipative und für emanzipatorische Ansätze.

Jeweils zwei beliebige unter den folgenden:

  • Partizipative Ansätze: Aktionsforschung, die Praxisforschung, die Participatory Action Research, die Community-basierte partizipative Forschung, das transformative Forschungsparadigma
  • Emanzipatorische Ansätze: feministische, queere, Disability-bezogene oder indigene Forschungsperspektiven

 

2. Wodurch zeichnet sich ein partizipativ-emanzipatorischer Forschungsstil aus?

Partizipativ-emanzipatorische Forschung ist nicht wertneutral, sondern auf die Analyse von Machtstrukturen und auf Veränderung gesellschaftlicher Wirklichkeit ausgerichtet. Dabei werden die Personen im Feld von Untersuchungsteilnehmer*innen zu Mitforschenden. In welchem Ausmaß dies der Fall ist, darin unterscheiden sich die verschiedenen konkreten Ansätze.

 

3. Welches sind die wichtigsten Merkmale der Participatory Action Research (PAR)?

  • Wechselseitige Partizipation: Personen im Feld werden im Rahmen partizipativer Forschung zu Mitforschenden, und die Forscher*innen partizipieren am Feld.
  • Empowerment: Forschung wird als Lern- und Veränderungsprozess sowohl für die Forschenden als auch die Personen im Feld konzipiert. Schlussendliches Ziel ist es, die Kompetenzen der untersuchten Personen so zu erweitern, dass eine vermehrte gesellschaftliche Teilhabe möglich wird.
  • Doppelte Zielsetzung: PAR verfolgt die doppelte Zielsetzung, soziale Wirklichkeit zu verstehen (und somit Wissen zu erweitern) und diese durch Anknüpfung an das Wissen der Personen im Feld zu verändern (indem vermehrte Handlungsoptionen eröffnet werden).

 

4. Was genau bedeutet es, wenn die lebensweltlichen Akteure im Rahmen einer partizipativen Studie über Entscheidungsmacht verfügen? Worüber können sie (mit-)entscheiden?

  • Forschungsziele, sowohl Praxis- als auch wissenschaftliche Ziele
  • Forschungsfragen
  • Methodenauswahl
  • Datenerhebung
  • Auswertung
  • Kommunikation und Verbreitung der Ergebnisse

 

Kapitel 5.7: Performative Sozialforschung

 

1. Was versteht man unter performativer Sozialforschung?   

Performative Sozialforschung umfasst Ansätze, die ihren Ursprung in einem postmodern-kritischen Verständnis von (qualitativer) Forschung haben. Ihnen allen ist gemeinsam, dass sie in irgendeiner Weise im Forschungsprozess oder im Kontext der Darstellung der Forschungsergebnisse auf künstlerische Ausdrucksformen zurückgreifen. Damit wird zugleich die gängige Unterscheidung zwischen Wissenschaft und Kunst in Frage gestellt.

 

2. Was versteht man unter performativer Sozialforschung?       

  • Öffnung gegenüber nicht-propositionalen Ausdrucksformen;
  • Relevanz von Prozessen der Bedeutungskonstruktion seitens der Rezipient*innen von Forschung;
  • Ausrichtung auf gesellschaftliche Veränderung.

 

3. Worin unterscheiden sich Arts-Informed und Arts-Based Research?

           

  • Bei der Arts-Informed Research stehen künstlerische Ausdrucksformen im Dienste wissenschaftlicher (vor allem qualitativer) Forschung; Kunstformen werden vor allem verwendet, um die Ergebnisse einem breiten Publikum zugänglich zu machen.
  • Bei der Arts-Based Research dienen künstlerische Ausdrucksformen im Forschungsprozess als Methoden zur Erzeugung von nicht-diskursivem Wissen.

 

4. In dem Unterkapitel werden einige Untersuchungsbeispiele performativer Sozialwissenschaft beschrieben. Wählen Sie ein Beispiel aus und sehen Sie es sich genauer an. Was meinen Sie: Ist das sozialwissenschaftliche Forschung? Warum (nicht)?

Auf diese Frage gibt es keine eindeutige Antwort – hier kommt es ganz auf das jeweilige Beispiel und auf Ihr Verständnis sozialwissenschaftlicher Forschung an

 

Kapitel 5.8: Narrativer Ansatz und Biografieforschung

 

1. Was ist eine Erzählung?

In einer Erzählung werden Verbindungen zwischen verschiedenen Elementen geschaffen, wodurch diese Elemente in eine zeitliche oder symbolische Ordnung gebracht werden. Dadurch entstehen Ereignis- und Handlungsstrukturen, ein Plot. Typische Elemente einer Erzählung sind Akteure, die versuchen, Handlungsintentionen zu verwirklichen, daran jedoch durch das Auftreten einer Komplikation gehindert werden. Diese Komplikation kann der Anlass sein, überhaupt erst eine Geschichte zu konstruieren und zu erzählen, beispielsweise bei der Bewältigung schwieriger Lebenssituationen.

 

2. Nennen Sie mindestens zwei Funktionen von Erzählungen.

Zwei beliebige unter den folgenden:

Allgemeine psychische Funktionen: Unterstützung von Denk-, Urteils- und Erinnerungsprozessen; die emotionale Bewältigung von Ereignissen; die Bildung und Darstellung eigener Identität;

Kognitive Funktionen: Generieren von Bedeutung und Reduktion von Komplexität;

Kommunikativ-interaktive Funktionen: Überzeugen oder Mobilisieren einer Adressatengruppe; Herstellung von Beziehungen; Erzeugen einer kollektiven Identität.

 

3. Was würden Sie antworten, wenn eine Kollegin Sie auf eine Diskrepanz zwischen erzählter Lebensgeschichte und den Geschichtsbüchern hinweist und schließt, dass man der Interviewpartnerin offensichtlich keinen Glauben schenken kann?

Menschen nehmen die Welt nicht ‚objektiv’ wahr, sondern immer subjektiv, vor dem Hintergrund ihrer eigenen Erfahrungen und kognitiven Schemata. In der biografischen Forschung wird die lebensgeschichtliche Erzählung daher auch nicht als Darstellung ‚objektiver Gegebenheiten’ verstanden, sondern als Prozess der Sinngebung durch das Individuum. Von zentralem Interesse sind in der Biografieforschung daher nicht die objektiven Gegebenheiten und Lebensumstände (also nicht, was sich zu einer bestimmten Zeit ereignet hat), sondern die Art und Weise, wie das Individuum diese Umstände wahrnimmt, mit Sinn versieht und sie in die eigene Lebensgeschichte integriert. Dass die Interviewpartnerin Geschehnisse anders darstellt, als sie in den Geschichtsbüchern vermittelt werden, heißt also keineswegs, dass sie bewusst verzerrt oder gar lügt. Und im Übrigen können Geschichtsbücher auch irren!

 

4. Wie lassen sich biografische Interviews auswerten?

Die Auswertung von biographischen Interviews kann sich auf die Inhalte konzentrieren oder auf die Erzählstruktur. Gergen und Gergen unterscheiden z. B. zwischen progressiven, regressiven und stabilen Erzählstrukturen. Wieder andere Verfahren stellen die Relation zwischen erlebter und erzählter Lebensgeschichte in den Mittelpunkt der Analyse (z. B. das Verfahren von Fischer-Rosenthal und Rosenthal).

 

Kapitel 5.9: Phänomenologie

 

1. Was versteht man unter einem Phänomen?

Ein Phänomen ist etwas, das wir durch die Art und Weise hervorbringen, wie wir in der Welt sind und wie wir mit der Welt in Interaktion treten, z. B. Eifersucht oder Trauer.

 

2. Wodurch zeichnet sich der phänomenologische Ansatz von Husserl aus?

Husserl ging davon aus, dass Bewusstsein nicht als solches existiert, sondern immer als Bewusstsein von etwas. Diese grundsätzliche Gerichtetheit des Bewusstseins bezeichnete er auch als Intentionalität.

 

3. Sie planen eine phänomenologische Untersuchung zum Online-Dating. Welche der typischen Erhebungsmethoden in phänomenologischen Untersuchungen würden Sie anwenden und warum?

In der Phänomenologie kommen besonders häufig zur Anwendung: das (nonstandardisierte) Interview, die Beobachtung (insbesondere der phänomenologische Spaziergang), schriftliche Erfahrungsprotokolle sowie kreative Verfahren aus der performativen Sozialforschung.
Da es sich beim Online-Dating um einen sehr persönlichen Erfahrungsbereich handelt, sind Beobachtungsverfahren hier eher nicht geeignet. Gut geeignet wären dagegen Erfahrungsprotokolle und Interviews, die jeweils einen unmittelbaren Zugang zu dem Erfahrungsbereich bieten. Inwieweit auch kreative Methoden geeignet sind, kommt nicht zuletzt auf die Untersuchungsteilnehmer*innen und deren Affinität zu solchen Verfahren an.

 

Kapitel 5.10: Forschungsprogramm Subjektive Theorien (FST)

 

1. Inwiefern sehen Vertreterinnen und Vertreter des FST eine Parallele zwischen Wissenschaftlerinnen bzw. Wissenschaftlern und dem Menschen im Alltag?

Im FST wird angenommen, dass Menschen im Alltag ebenso wie Wissenschaftler*innen versuchen, sich selbst und die Welt um sich herum zu verstehen, zu erklären und ggf. auch zu verändern.

 

2. Was versteht man unter einer subjektiven Theorie?

Subjektive Theorien bestehen aus Konzepten, die durch Relationen untereinander verknüpft sind. Sie sind definiert als:

  • „Kognitionen der Selbst- und Weltsicht,
  • die im Dialog-Konsens aktualisier- und rekonstruierbar sind;
  • als komplexes Aggregat mit zumindest impliziter Argumentationsstruktur,
  • das auch die zu wissenschaftlichen Theorien parallelen Funktionen
  • der Erklärung, Prognose, Technologie erfüllt und
  • deren Akzeptierbarkeit als ‚objektive’ Erkenntnis zu prüfen ist“.

 

3. Welches sind die zwei Phasen des FST, und wozu dienen sie?

Das FST beinhaltet die beiden Phasen der kommunikativen und der explanativen Validierung.

Die Phase der kommunikativen Validierung dient der Erhebung und Rekonstruktion der subjektiven Theorien. Zunächst werden die Theorieinhalte in einem Leitfadeninterview erhoben. Anschließend erfolgt die Rekonstruktion der Theoriestruktur, indem die Inhalte untereinander durch Relationen verknüpft werden, die in einem Struktur-Lege-Verfahren spezifiziert sind. Diese Strukturrekonstruktion wird von den Forschenden und den Teilnehmenden jeweils gemeinsam erarbeitet.

Die Phase der explanativen Validierung dient dazu, zu prüfen, ob die subjektive Theorie auch als ‚objektive‘, wissenschaftliche Erkenntnis akzeptabel ist. Anders formuliert dient die explanative Validierung dazu, die Gültigkeit der subjektiven Theorie zu überprüfen.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 6 - Qualitative Erhebungsmethoden

 

Kapitel 6.1: Datenarten in der qualitativen Sozialforschung

 

1. Nennen Sie zwei verschiedene Datenarten, die – zusätzlich zu verbalen Daten – in der qualitativen Sozialforschung Verwendung finden.

zwei beliebige unter den folgenden:

visuelle Daten (einschließlich statischer Bilder, bewegter Bilder, Gegenstände), digitale Daten (einschließlich multimodaler Daten)
Dokumente können verbaler oder visueller Art sein; diese Datenart überschneidet sich also teilweise mit verbalen Daten.

In der jüngeren Sozialforschung finden außerdem auch Daten anderer Sinnesmodalitäten Verwendung (z.B. auditive Daten, räumliche Daten); darauf wird aber in diesem Abschnitt im Buch aus Platzgründen nicht weiter eingegangen.

 

2. Um welche Art von Dokument handelt es sich bei einer Geburtsurkunde? Und wie würden Sie den Zugang beschreiben? (Die Informationen zur Zugänglichkeit sind nicht im Buch enthalten, sondern müssen selbst recherchiert werden.)

Eine Geburtsurkunde ist ein offizielles (staatliches) Dokument. Der Zugang ist auf bestimmte Personen beschränkt, nämlich die Person, auf die die Urkunde ausgestellt ist, sowie Verwandte oder Personen, die ein juristisches Interesse geltend machen können. Nach 110 Jahren wird die Urkunde öffentlich und damit für die Allgemeinheit zugänglich.

 

3. Durch welche Merkmale zeichnen sich visuelle Daten aus?

Visuelle Daten sind durch die folgenden Merkmale gekennzeichnet: Gleichzeitigkeit der Elemente, assoziative Logik, Bedeutungsoffenheit und Mehrdeutigkeit.

 

4. Inwiefern sind digitale Daten immer unvollständig?

  • Sie sind immer nur unvollständige Operationalisierungen, repräsentieren nur einen Ausschnitt aus Befindlichkeiten, Tagesabläufen oder Eindrücken.
  • Sie werden permanent überarbeitet und verändert.
  • Forscher*innen haben nie zu dem Gesamt an digitalen Daten Zugang. Insbesondere der Zugang zu sozialen Medien wird von den Plattformen und Konzernen selbst reguliert, und nur ein Teil ist öffentlich verfügbar. Auch nutzen nicht alle Bevölkerungsgruppen gleichermaßen soziale Medien.

 

Kapitel 6.2: Interviewverfahren

 

1. In welchen Hinsichten unterscheidet sich das Interview von einem Gespräch mit guten Freunden?

Das Interview ist eine asymmetrische Form der Kommunikation mit festgelegten Rollen.

Das Interview dient dem Zweck der Informationsermittlung.

 

2. Welches sind die Unterschiede zwischen einem teil- und einem nonstandardisierten Interview? Nennen Sie jeweils ein Beispiel!

  • Dem teilstandardisierten Interview liegt ein Leitfaden zugrunde, der sowohl Themen als auch Fragen zu den verschiedenen Themen enthält. Diese Fragen sollten im Interviewverlauf alle abgedeckt werden, wenn auch nicht notwendig genau in dieser Formulierung und nicht notwendig genau in dieser Reihenfolge. Das problemzentrierte und das fokussierte Interview zählen zu den teilstandardisierten Interviews.
  • Das nonstandardisierte Interview ist wesentlich offener und gibt den Befragten mehr Gelegenheit zum freien Erzählen. In einem Leitfaden werden allenfalls Themenkomplexe zusammengestellt, aber keine Fragen vorformuliert. Das Tiefeninterview, das narrative und das episodische Interview zählen zu den nonstandardisierten Interviews.

 

3. Weshalb eignet sich das Leitfadeninterview besonders gut, um verschiedene Personengruppen miteinander zu vergleichen?

Beim Leitfadeninterview wird ein Kern an Fragen allen Teilnehmer*innen gleichermaßen gestellt. Die Antworten auf diese Fragen lassen sich gut vergleichen.

 

4. Was versteht man unter einem narrativen Interview? Wie geht man dabei vor?

Das narrative Interview dient der Untersuchung lebensgeschichtlich-biografischer Fragestellungen.

Es gliedert sich in folgende Phasen:

  • Der Erzählanstoß soll die Untersuchungsteilnehmerin oder den Teilnehmer dazu anregen, die eigene Geschichte zum Untersuchungsthema zu erzählen. Im ersten Schritt ist daher ein geeigneter Erzählanstoß zu formulieren.
  • Darauf folgt die Erzählung. Sie bildet den Hauptteil des narrativen Interviews. In diesem Abschnitt des Interviews sollten die Befragten frei erzählen können, ohne Unterbrechung durch die Forschenden.
  • In der Nachfragephase stellen die Forschenden Verständnisfragen zur Erzählung; es können auch Fragen zu weiteren Aspekten des Untersuchungsgegenstands gestellt werden, die in der Erzählung nicht spontan zur Sprache gekommen sind.
  • In der Bilanzierungsphase werden die Befragten um eine abschließende Bewertung gebeten. Diese Phase ist kein notwendiger Bestandteil des narrativen Interviews.

 

5. Eine Kommilitonin bittet Sie, sich die Fragen einmal anzusehen, die sie für ein Leitfadeninterview vorbereitet hat. Worauf achten Sie?

  • Die Fragen sollten gut verständlich formuliert sein. Das bedeutet unter anderem, dass immer nur eine Frage auf einmal gestellt werden sollte. Doppelte Verneinungen sollte man vermeiden.
  • Der Leitfaden darf keine Suggestivfragen enthalten, d. h. keine Fragen, die von vornherein eine bestimmte Antwortrichtung nahelegen.
  • Bei Fragen nach Gründen sollten Fragen wie „Warum?“ oder „Weshalb?“ nicht zu oft verwendet werden, da die Befragten sonst leicht unter Rechtfertigungsdruck geraten.
  • Die Fragen sollten so formuliert sein, dass sie nicht einfach mit „ja“ oder „nein“ beantwortet werden können, sondern zu einer ausführlicheren Antwort anregen.
  • Der Leitfaden sollte möglichst keine Begriffe aus der Wissenschaft enthalten. In der Formulierung sollte er sich vielmehr an die Begrifflichkeit der Befragten anlehnen.

 

6. Welche Fähigkeiten muss eine gute Interviewerin bzw. ein guter Interviewer mitbringen?

  • Zuhören Können;
  • Gespür dafür, wenn etwas nicht so verläuft, wie es sollte – und die Fähigkeit, in solchen Situationen nachzufragen;
  • Fähigkeit zum Strukturieren von Gesprächen, z. B. durch Zusammenfassen von Antworten oder Zurückführen zum Thema;
  • Keine Angst vor Pausen haben.

 

Kapitel 6.3: Gruppendiskussion/Fokusgruppe

 

1. Worin unterscheidet sich die Gruppendiskussion von anderen Verfahren zur Erhebung verbaler Daten?

Die Gruppendiskussion liefert nicht nur inhaltliche Daten (also Informationen darüber, was zum Diskussionsthema geäußert wird), sondern auch Information über die Interaktion zwischen den Teilnehmer*innen. Das ist der wesentliche Unterschied zwischen der Gruppendiskussion und anderen Verfahren zur Erhebung verbaler Daten.

 

2. Sie interessieren sich dafür, wie Entscheidungen in der Gruppe über umweltgerechtes Verhalten zustande kommen. Wären Fokusgruppen hier ein geeignetes Erhebungsverfahren? Bitte begründen Sie Ihre Meinung.

Ja, die Fokusgruppe ist u.a. gut geeignet, um Prozesse der Meinungsbildung in Gruppen zu untersuchen. Genau um einen solchen Prozess der Meinungsbildung handelt es sich bei der Frage nach dem Zustandekommen von Entscheidungen in der Gruppe über umweltgerechtes Verhalten.

 

3. In welche Phasen unterteilt sich eine Gruppendiskussion?

  • Theoretische Vorüberlegungen und Erstellung eines Leitfadens
  • Erläuterung der Gesprächsregeln
  • Präsentation eines Grundreizes
  • Freie Gruppendiskussion
  • Ggf. Präsentation von Reizargumenten
  • Ggf. Metadiskussion

 

4. In einer Studie zur Verbesserung der Qualität der Lehre setzen Sie die Gruppendiskussion als Erhebungsmethode ein. An der Studie nehmen sowohl Studierende als auch Lehrende teil. Was ist bei der Zusammensetzung der Gruppen zu beachten?

Sie müssten sich überlegen, ob Sie die Gruppen homogen zusammensetzen wollen (Studierende diskutieren untereinander; Lehrende diskutieren untereinander) oder heterogen (Studierende und Lehrende diskutieren gemeinsam). Bei heterogenen Gruppen und diesem Thema ist sicherlich das Konfliktpotenzial höher; allerdings ‚trauen’ sich gerade Studierende vielleicht nicht immer, Lehrenden gegenüber ihre Ansichten zur Lehrqualität zu äußern. Bei homogenen Gruppen ist vermutlich die Bereitschaft höher, bestimmte Probleme im Zusammenhang mit der Lehrqualität zu thematisieren (z. B. Schwierigkeiten beim Lernen oder Lehren); andererseits sind sich die Teilnehmer*innen vielleicht sehr schnell einig, so dass keine längere Diskussion zustande kommt. Sie müssten überlegen, was Ihnen wichtiger ist – das wiederum wird mit der genauen Fragestellung zusammenhängen.

 

 

Kapitel 6.4: Weitere offene Verfahren zur Erhebung verbaler Daten

 

1. Unter welchen Bedingungen eignet sich die schriftliche Befragung besser zur Datenerhebung als das Interview?

Die schriftliche Befragung eignet sich besser:

  • In Untersuchungen zu Gegenstandsbereichen, die einer starken sozialen Normierung unterliegen; hier ist die potenzielle Anonymität der schriftlichen Befragung von Vorteil;
  • Zur Rekonstruktion von Erinnerungsprozessen über die Zeit; die Erinnerungen können in schriftlicher Form sukzessive ergänzt werden;
  • Zur Befragung von Personen aus größerer räumlicher Entfernung.

 

2. Welches methodische Problem stellt sich bei der Entscheidung zwischen simultanem und retrospektivem lautem Denken?

 

  • Das simultane laute Denken ist näher am Phänomen, ist aber zugleich mit kognitivem Aufwand verbunden. Es beansprucht somit Ressourcen, die nicht mehr für die Aufgabenbearbeitung zur Verfügung stehen. Das Phänomen wird nicht mehr in seiner natürlichen Form erfasst.
  • Das retrospektive laute Denken unterbricht das Phänomen nicht, ist aber zeitlich nachgeordnet, so dass manche Erfahrungen und Gedanken schon nicht mehr wiedergegeben werden können. Auch beim postaktionalen lauten Denken wird das Phänomen somit nicht verzerrungsfrei erfasst.

 

Kapitel 6.5: Beobachtung

 

1. In welchen Hinsichten unterscheidet sich Beobachtung in der qualitativen von Beobachtung in der quantitativen Forschung?

Beobachtung in der quantitativen Forschung ist meist standardisiert: Vor Untersuchungsbeginn wird in einem Beobachtungsschema festgelegt, was genau beobachtet werden soll und in welche Kategorien das Beobachtete fallen kann. Beobachtung in der qualitativen Forschung ist dagegen meist nonstandardisiert, d. h. es werden keine vorab festgelegten Kategorien an den Gegenstandsbereich herangetragen.

Bei der Beobachtung in der quantitativen Forschung sind vor Untersuchungsbeginn auch die Beobachtungseinheiten festzulegen, die meistens eher feinkörning sind (einzelne Äußerungen, Verhaltensweisen). Demgegenüber ist Beobachtung in der qualitativen Forschung zunächst ganzheitlich: Es wird möglichst umfassend beobachtet; erst im Untersuchungsverlauf wird die Beobachtung zunehmend fokussierter.

Beobachtungsstudien in der quantitativen Forschung sind meistens von kürzerer Dauer; in der qualitativen Forschung können sie mehrere Jahre umfassen.

 

2. Eine Kommilitonin plant, für ihre Abschlussarbeit eine verdeckte teilnehmende Beobachtung in der örtlichen Drogenszene durchzuführen. Was würden Sie ihr zu bedenken geben?

  • Eine verdeckte Beobachtung beinhaltet Täuschung und ist daher unethisch – es sei denn, im Untersuchungszweck liegen sehr gute Gründe dafür, die Beobachtung trotzdem verdeckt durchzuführen. Aber ist das hier wirklich der Fall – oder ist Ihre Kommilitonin nur neugierig?
  • Ihre Kommilitonin wird in einer solchen Untersuchung vermutlich zur Mitwisserin bezüglich illegaler Aktivitäten. Eigentlich wäre sie verpflichtet, diese der Polizei zu melden, was aber die Untersuchung gefährden könnte (und auch Ihre Kommilitonin).
  • Gerade die Szene im Umfeld illegaler Drogen ist nicht gut zugänglich. Wie will Ihre Kommilitonin sich Zugang verschaffen?

 

3. Nennen Sie verschiedene Arten von Spuren, die sich im Rahmen nonreaktiver Verfahren in der qualitativen Forschung nutzbar machen lassen. Worauf verweisen diese Spuren?

  • Abnutzungserscheinungen: Diese verweisen auf die Häufigkeit des Gebrauchs und damit z. B. auf Bedeutsamkeit oder Beliebtheit.
  • ‚Aktive’ Spuren: Diese verweisen auf die Art und Weise der Nutzung von Räumen und Gegenständen.

 

Kapitel 6.6: Weitere Verfahren zur Erhebung qualitativer Daten

 

1. Nennen Sie zwei Verfahren zur Eigenproduktion von visuellem Material oder von Beobachtungsdaten.

Zwei beliebige von: Aufforderung zur Produktion eines Videos; zur Erstellung einer Webseite; Photo-Elicitation; Photovoice; szenisches Spiel; Rollenspiel

 

2. Was versteht man unter (ko-)mobilen Verfahren?

Ko-mobile Verfahren dienen der Erfassung der Bewegung von Menschen und Gegenständen im Raum und des Zusammenhangs zwischen Bewegung im Raum und Aneignung von Raum.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 7 - Qualitative Analyseverfahren

 

Kapitel 7.1: Datenaufbereitung: Transkriptionsverfahren

 

1. Muss man in der qualitativen Forschung immer eine Transkriptionsphase einplanen? Warum (nicht)?

Nein. Eine Transkriptionsphase ist nur erforderlich, wenn man Material in auditivem Format aufgezeichnet hat, z. B. wenn man Interviews aufgenommen hat. Auditives Material sollte vor der Auswertung verschriftlicht werden. Die Verschriftlichung erhöht die Systematik der Auswertung.

 

2. Inwiefern beinhaltet eine Transkription immer schon eine Interpretation des Materials?

Ein Transkript kann die konkrete Äußerungssituation nie vollständig wiedergeben, einschließlich aller paraverbalen und nonverbalen Elemente. Die Entscheidung darüber, welche Elemente der Äußerungssituation man in das Transkript aufnimmt, beinhaltet somit bereits eine Interpretation dessen, was wichtig und was nicht so wichtig ist. Außerdem werden Transkripte vielfach mit Satzzeichen versehen. Diese stellen eine Interpretationsleistung beim Transkribieren dar. Und schließlich gibt es in einer Aufnahme immer wieder schwer verständliche Stellen. Was hier ins Transkript aufgenommen wird, ist letztlich ebenfalls eine Frage der Interpretation.

 

3. Wenn Studierende zum ersten Mal Interviews durchführen, möchten sie häufig so viele Informationen wie möglich in das Interviewtranskript aufnehmen. Warum kann das problematisch sein, und wovon sollte die Entscheidung abhängen?

Ein Transkript bewegt sich in einem Spannungsfeld von Authentizität und Lesbarkeit. Je mehr Informationen in das Transkript aufgenommen werden, desto authentischer ist es; zugleich ist es aber auch schwerer lesbar. Außerdem erfordert eine umfangreiche Transkription unter Berücksichtigung von paraverbalen und nonverbalen Aspekten viel Zeit. Daher ist es besser, nur soviel Information in das Transkript aufzunehmen wie nötig. Welche Information jeweils ‚nötig’ ist, hängt mit der Forschungsfrage zusammen: Wenn es darum geht, Meinungen, Einstellungen und die Gründe dafür zu erfassen, dann ist in der Regel die Transkription des Äußerungsinhalts ausreichend. Nur wenn man sozusagen ‚hinter“ die Äußerungen blicken will, dann ist auch die Verschriftlichung paraverbaler und nonverbaler Elemente erforderlich.

 

4. Was versteht man unter einem Transkriptionssystem und wann ist ein solches System hilfreich?

Ein Transkriptionssystem ist ein Regelwerk. Es regelt die Wiedergabe von paraverbalen und nonverbalen Elementen durch Symbole, und es enthält Spezifikationen dafür, wie die Beiträge mehrerer Sprecher*innen auf der Seite angeordnet sind.

 

Kapitel 7.2: Auswertungsmethoden

 

Kapitel 7.2.1: Objektive Hermeneutik

 

1. Nennen Sie drei (beliebige) Grundannahmen der objektiven Hermeneutik!

Drei beliebige aus den folgenden:

  • Verstehen ist immer Verstehen von Sinn.
  • Die sinnhafte Welt konstituiert sich ausschließlich in der Sprache und manifestiert sich in Texten.
  • Menschliches Handeln wird durch soziale Strukturen geregelt und gesteuert.
  • Die Zielsetzung der objektiven Hermeneutik besteht darin, die Sinnstruktur zu rekonstruieren, die einer ausgewählten Handlungsweise zugrunde liegt, und die Regeln herauszuarbeiten, auf denen diese Sinnstruktur basiert.
  • Menschen haben meist keinen Zugang zu den Regeln, die ihrem Handeln zugrunde liegen. Die latente Sinnstruktur, die menschlichem Handeln zugrunde liegt, und der subjektiv gemeinte Handlungssinn stimmen daher vielfach nicht überein.
  • Jeder Fall ist zugleich allgemein und besonders.

 

2. Warum ist es wichtig, sich bei der objektiv-hermeneutischen Analyse genau an den Wortlaut des Materials zu halten?

Die konkreten Hypothesen, die im Verlauf der objektiv-hermeneutischen Analyse aufgestellt werden, ergeben sich aus dem genauen Wortlaut. Für eine sinngemäß vergleichbare, aber vom Wortlaut her andere Äußerung würde sich auch eine andere Hypothese ergeben. Ebenso wichtig ist der genaue Ablauf der Äußerung(ssituation) bzw. die Interaktionssequenz (s. dazu auch Schritte der objektiv-hermeneutischen Analyse).

 

3. Welches sind die Schritte einer objektiv-hermeneutischen Analyse?

Die allgemeinen Schritte sind:

  • Auf der Grundlage eines ersten, sehr kleinen Ausschnitts einer Interaktion werden Hypothesen über die objektiven Sinnstrukturen aufgestellt, die dieser Interaktion zugrunde liegen.
  • Die Hypothesen werden mit dem Material verglichen, d. h. mit dem weiteren Interaktionsverlauf. Dabei werden solche Hypothesen verworfen, die mit dem Interaktionsverlauf nicht vereinbar sind.
  • Es werden nacheinander mehrere solche Analysen durchgeführt, wobei sukzessive immer mehr Textmaterial einbezogen wird.
  • Wenn mehrere Analyseschritte immer wieder eine Strukturhypothese bestätigen, werden die Analysen zu einer Strukturgeneralisierung verdichtet.

Wenn Sie als Antwort speziell die Schritte der Sequenzanalyse genannt haben, ist das auch richtig!

 

Kapitel 7.2.2: Dokumentarische Methode

 

1. Worin besteht das Ziel der dokumentarischen Methode?

Ziel der dokumentarischen Methode ist es, das implizite, kollektive Wissen zu rekonstruieren, das gesellschaftlichen Handlungen zugrunde liegt und diese zugleich orientiert.

 

2. Welche Formen des Wissens werden in der dokumentarischen Methode unterschieden?

In der dokumentarischen Methode unterscheidet man zwischen theoretischem, kommunikativ-begrifflichem Wissen einerseits und atheoretischem, konjunktiv-implizitem Wissen andererseits. Kommunikativ-begriffliches Wissen ist eher abstrakt. Atheoretisches, implizites Wissen wird dagegen in Erfahrugsräumen erworben und manifestiert sich in unserer Handlungspraxis. Dieses implizite Wissen wird mittels der dokumentarischen Methode rekonstruiert.

 

3. Stellen Sie sich vor, Sie haben Gruppendiskussionen dazu erhoben, welche Maßnahmen jede*r einzelne ergreifen kann, um dem Klimawandel entgegenzuwirken. Sie möchten die Diskussionen mit der dokumentarischen Methode auswerden. Wie gehen Sie vor?

  • Im ersten Schritt wählen Sie Passagen für die weitere Analyse aus. Das können inhaltlich besonders relevante Passagen sein oder sprachlich besonders dichte. Auch die Anfangssequenzen von Interaktionen eignen sich gut für die Analyse mittels der dokumentarischen Methode (also die Beiträge die unmittelbar auf eine Frage der Diskussionsleitung folgen).
  • Als nächstes erstellen Sie eine formulierende Interpretation für die gesamte Gruppendiskussion (dieser Schritt ist mit dem ersten verzahnt), d.h. Sie arbeiten die thematische Struktur der Gruppendiskussion heraus.
  • Im dritten Schritt erstellen Sie reflektierende Interpretationen der zuvor ausgewählten Interaktionssequenzen und vergleichen diese untereinander. Dadurch erarbeiten Sie handlungsleitende Orientierungsrahmen.
  • Im nächsten Schritt erfolgt die sinngenetische Typenbildung. Diese baut auf den zuvor identifizierten Orientierungsrahmen auf.
  • Im letzten Schritt erfolgt ggf. di soziogenetische Typenbildung.

 

Kapitel 7.2.3: Kodieren

 

1. Welche Art der Textbedeutung lässt sich durch Kodieren erfassen?

Kodieren dient der Erfassung der tatsächlichen Textbedeutung unter einer bestimmten Perspektive.

 

2. Was versteht man unter datenreduzierendem Kodieren?

Das datenreduzierende Kodieren dient der Zusammenfassung des Materials. Dieses wird auf Bedeutungsaspekte reduziert, die im Rahmen der Fragestellung von besonderer Relevanz sind.

 

3. Was versteht man unter datenerweiterndem Kodieren?

Beim datenerweiternden Kodieren werden neue Gesichtspunkte und Fragestellungen an das Material herangetragen.

 

4. Inwiefern stellt die Offenheit beim Kodieren sowohl einen Vorteil als auch einen Nachteil der Methode dar?

Die Offenheit erlaubt es, bei der Auswertung auch individuelle Bedeutungsaspekte zu berücksichtigen. Allerdings werden so sehr schnell sehr viele Kodes generiert, bei denen man leicht den Überblick verlieren kann. Auch gibt es keine festen Vorgaben für die Durchführung einer Kodierung.

 

Kapitel 7.2.4: Qualitative Inhaltsanalyse

 

1. Inwiefern zeichnet sich die Inhaltsanalyse durch Systematik aus?

Die ausgewählten Bedeutungsaspekte werden erstens in Form eines Kategoriensystems im Detail expliziert; die Kategorien enthalten Anweisungen, unter welchen Bedingungen ein Text(teil) einer Kategorie zuzuordnen ist.

Die Zuordnung von Textstellen zu Bedeutungskategorien erfolgt zweitens meist intersubjektiv durch mindestens zwei voneinander unabhängig Kodierende (oder durch eine Person zu mehreren Zeitpunkten).
Auch sind inhaltsanalytische Kategoriensysteme zwar an das jeweilige Material angepasst; man durchläuft bei der Inhaltsanalyse jedoch immer dieselben Schritte.

 

2. Wie ist ein Kategoriensystem aufgebaut?

Inhaltsanalytische Kategoriensysteme sind hierarchisch aufgebaut. Sie bestehen aus mehreren Oberkategorien und mehreren Unterkategorien pro Oberkategorie. Kategoriensysteme können auch noch weiter ‚geschachtelt’ sein und pro Unterkategorie weitere Unterkategorien enthalten.

 

3. Aus welchen Bestandteilen setzt sich die Definition einer inhaltsanalytischen Kategorie zusammen?

Benennung, Explikation, Beispiel und ggf. Abgrenzung

 

4. Was bedeutet es, wenn ein Kategoriensystem deduktiv-induktiv erstellt wurde?

Ein Teil der Kategorien wurde aus Vorwissen abgeleitet (deduktiv, z. B. aus Theorien oder Forschungsergebnissen), ein anderer Teil wurde an Hand des Materials erstellt (induktiv). Häufig wird eine deduktiv-induktive Vorgehensweise derart realisiert, dass die Oberkategorien deduktiv, die Unterkategorien induktiv aus dem Material heraus entwickelt werden.

 

5. Warum ist die Inhaltsanalyse für die Auswertung eines einzelnen, längeren biografischen Interviews weniger geeignet als das Kodieren?

Die Inhaltsanalyse ist ein datenkomprimierendes, zusammenfassendes Verfahren. In einem biografischen Interview finden sich aller Wahrscheinlichkeit nach nicht viele Wiederholungen, so dass die Grundlage für eine Datenkomprimierung nicht gegeben ist. In einem solchen Fall ist das Kodieren besser geeignet, das es erlaubt, alle geäußerten Aspekte in die Auswertung einzubeziehen, auch wenn die Äußerung nur einmal erfolgt ist – oder auch eine biografische Analyse.

 

6. Nennen Sie Anhaltspunkte, die Aufschluss über die Validität eines Kategoriensystems geben!

Eine hohe Besetzung der Restkategorie zeigt an, dass viele Aspekte des Materials mit dem Kategoriensystem noch nicht erfasst werden.

Eine überproportional hohe Besetzung einer Kategorie im Vergleich zu den anderen Kategorien weist darauf hin, dass der Bedeutungsaspekt, der durch diese Kategorie abgebildet ist, noch vergleichsweise undifferenziert erfasst wird.

 

Kapitel 7.2.5: Diskursanalyse

 

1. Was versteht man unter einem Diskurs?

Ein Diskurs besteht aus einem Set aufeinander bezogener Texte, einschließlich der Verfahren ihrer Produktion, Verbreitung und Rezeption.

 

2. Nennen Sie zwei Kernannahmen der Diskursforschung.

Zwei beliebige unter den folgenden:

  • Intertextualität von Diskursen: Diskurse sind nicht einfach isolierte Texte, sondern sie beziehen ihre Bedeutung wesentlich aus ihrer Beziehung zu anderen Texten.
  • Kontextsensitivität von Bedeutungen: Bedeutungen verändern sich mit jedem Text, der dem Diskursuniversum hinzugefügt wird, und mit jeder Veränderung des Produktions-, Verbreitungs- oder Rezeptionskontextes.
  • Relevanz des Bedeutungskontexts: Die Bedeutungen von Diskursen erschließen sich nicht aus Texten allein, sondern die Bedingungen ihrer Produktion, Verbreitung, Rezeption, und auch deren Konsequenzen sind bei der Bedeutungsanalyse mit zu berücksichtigen.
  • Realitätskonstitutive Funktion von Diskursen: Sprache bildet Realität nicht ab, sondern Sprache konstruiert und konstituiert soziale Realität.

 

3. Handelt es sich bei der Diskursiven Psychologie eher um eine deskriptive oder um eine normativ-kritische Richtung der Diskursforschung? Inwiefern?

Im Rahmen der Diskursiven Psychologie werden Diskurse im Sinne sprachlicher Mittel rekonstruiert, mittels derer Sprecher*innen ihre Interaktionszwecke verfolgen. Damit handelt es sich um eine eher deskriptive Form der Analyse (Beschreibung von Zwecken und Ressourcen).

 

4. Worauf liegt der Schwerpunkt der normativ-kritischen Tradition der Diskursanalyse?

In der kritischen Diskursanalyse liegt der Schwerpunkt auf der Analyse von Diskurssystemen. Diese stellen zwar einerseits eine Ressource dar, derer sich Sprechende bedienen können. Andererseits markieren Diskurse aber auch die Grenzen des Sagbaren: Alles, was gesagt wird, kann nur innerhalb und mit den Mitteln eines Diskurses gesagt werden. Dem Diskurs kommt somit Macht über das Sagbare zu und letztlich auch über die Realität, die vermittels eines Diskurses konstituiert wird. Der Schwerpunkt der normativ-kritischen Diskursanalyse liegt folglich auf der Relation zwischen Diskursen und Macht.

 

Kapitel 7.2.6: Semiotik

 

1. Was versteht man unter einem Zeichen?

Ein Zeichen ist etwas, das für etwas anderes stehen bzw. dieses andere anzeigen oder bedeuten kann.

 

2. Worin besteht der Unterschied zwischen dem dyadischen und dem triadischen Zeichenbegriff?

Mit dem dyadischen Zeichenbegriff wird zwischen dem Zeichen und dem begrifflichen Inhalt des Bezeichneten unterschieden. Der triadische Zeichenbegriff beinhaltet die Unterscheidung zwischen dem Zeichen, dem Bezeichneten und dem Representamen, d. h. der Bedeutung, die dem Zeichen im Prozess des Decodierens zugewiesen wird. Der triadische Zeichenbegriff berücksichtigt somit im Gegensatz zum dyadischen Zeichenbegriff auch die Rezeption des Zeichens.

 

3. Was ist die Denotation von „Frühling“? Was wären einige Konnotationen?

  • Denotation: Jahreszeit zwischen Winter und Sommer; dauert vom 21. März bis zum 21. Juni (Sommeranfang)
  • Konnotationen: Wachstum, Erneuerung, Grün, Schneeglöckchen, Blüten, Ostern, Aufbruch, Jugend, Verliebtsein – von Ihnen fortzusetzen!

 

5. Gibt es zu „Frühling“ einen bedeutungskonstitutiven Gegensatz?

Letztlich kann sich ein bedeutungskonstitutiver Gegensatz nur aus dem Kontext der konkreten Verwendung des Begriffs ‚Frühling’ heraus erschließen; die Frage ist also schwer zu beantworten. ‚Kandidaten’ wären: Herbst, Älterwerden, fallende Blätter, Vergänglichkeit.

 

Kapitel 7.2.7: Analyse visueller Daten – Ikonologie

 

1. Was versteht man unter Ikonologie?

Die Ikonologie stellt eine Methode zur Analyse von visuellem Material dar, die in der Kunstgeschichte entwickelt wurde. Im Mittelpunkt stehen die Analyse von Symbolen und die motivgeschichtliche Einbettung der Darstellung. Die Analyse erfolgt auf drei aufeinander aufbauenden Ebenen: der darstellenden, der ikonografischen und der ikonologischen Ebene.

 

2. Worin unterscheiden sich die Darstellungsebene einerseits und die ikonografische und die ikonologische Ebene andererseits?

  • Auf der Darstellungsebene geht es darum, zu beschreiben was in einem Bild dargestellt ist – möglichst ohne es als etwas zu beschreiben bzw. zu identifizieren.
  • Auf der ikonografischen und der ikonologischen Ebene stehen die Identifikation und die Analyse von Symbolen im Mittelpunkt. Hier wird das Dargestellte unter Rückgriff auf seinen Symbolgehalt interpretiert.

 

3. Worin unterscheiden sich die ikonografische und die ikonologische Ebene?

Auf der ikonografischen Ebene geht es darum, die konventionelle Bedeutung von Symbolen zu analysieren. Auf der ikonologischen Ebene werden Symbol und Symbolgehalt in einen weiteren intertextuellen und motivgeschichtlichen Zusammenhang gestellt.

 

4. Was versteht man unter einem verdeckten Symbol?

Verdeckte Symbole sind Darstellungselemente, bei denen es unklar ist, ob ihnen lediglich eine Abbildungs- oder darüber hinaus eine symbolische Funktion zukommt. Sie sind daher nicht eindeutig als Symbole erkennbar.

 

Kapitel 7.2.8: Computergestützte Auswertung qualitativer Daten (CAQDAS)

 

1. Nennen Sie vier Funktionen qualitativer Software, die in den meisten CAQDAS-Paketen enthalten sind.

Vier beliebige unter den folgenden:

  • Dokumentenmanagement
  • Anlegen und Verwalten von Kategorien und Codes
  • Anlegen und Verwalten von Memos
  • Erstellen von Links
  • Suchfunktionen

 

2. Nennen Sie zwei zentrale Stärken von CAQDAS-Software.

  • Umfangreiche Such- und Retrievalfunktionen
  • Der Auswertungsprozess wird dokumentiert und damit nachvollziehbar.

 

Kapitel 7.3: Verfahren der Systematisierung

 

1. Warum kann es sinnvoll sein, die Ergebnisse einer qualitativen Studie einer weiteren Systematisierung zu unterziehen?

Die Ergebnisse qualitativer Untersuchungen sind oft sehr umfassend und werden dadurch auch schnell unübersichtlich. Systematisierungen der Ergebnisse helfen dabei, sich einen Überblick zu verschaffen.

Gerade wenn die Ergebnisse unübersichtlich sind, wächst die Gefahr, dass Forscher*innen sich bei der Darstellung auf besonders ‚passende’ Ergebnisse beschränken. Auch dieser Gefahr wirkt eine Systematisierung entgegen.

 

2. Was ist der Unterschied zwischen einem Typus und einer Typologie?

Eine Typologie besteht aus mehreren Typen und ihrer Relation untereinander. Ein Typus besteht aus mehreren Fällen, die sich aufgrund von Ähnlichkeit im Hinblick auf verschiedene Merkmale oder Eigenschaften zusammenfassen lassen.

‚Typologie’ ist also quasi der übergeordnete, ‚Typus’ der untergeordnete Begriff.

 

3. Welches sind die zwei Kriterien, nach denen Fälle zu Typen zusammengefasst werden?

  • Interne Homogenität: Die Fälle, die zu einem Typus zusammengefasst werden, sollen untereinander möglichst ähnlich sein.
  • Externe Heterogenität: Die Fälle, die verschiedenen Typen zugeordnet wurden, sollten sich stärker voneinander unterscheiden als die Fälle innerhalb eines Typs.

 

4. Welches sind die vier Schritte der empirisch begründeten Typenbildung?

  • Identifikation von Merkmalen bzw. Vergleichsdimensionen
  • Gruppierung der Fälle und Analyse empirischer Regelmäßigkeiten
  • Analyse inhaltlicher Zusammenhänge und Typenbildung
  • Charakterisierung der gebildeten Typen.

 

5. Wann eignet sich eine Matrix, wann eine Abbildung zur Systematisierung der Ergebnisse?

  • Matrizen eignen sich zur zusammenfassenden Darstellung verbaler Daten, z. B. der Ergebnisse von Inhaltsanalyse oder Codierung.
  • Abbildungen eignen sich zur Darstellung komplexer Zusammenhänge, z. B. zur Darstellung einer gegenstandsbezogenen oder einer subjektiven Theorie.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 8 - Bewertung qualitativer Forschung

 

Kapitel 8.1: Klassische Gütekriterien der qualitativen Forschung

 

1. Was ist unter dem Konzept der inneren Vergleichbarkeit zu verstehen und wie steht es im Zusammenhang mit dem Kriterium der Objektivität?

Das Konzept der inneren Vergleichbarkeit beruht auf der Annahme, dass bei der Datenerhebung nicht die äußere, sondern die innere Entsprechung der Situationen ausschlaggebend ist. Es wird also versucht, bei der Datenerhebung eine Situation herzustellen, die alle Teilnehmer*innen ähnlich erleben. Aber die Art und Weise, wie dieses vergleichbare Erleben hergestellt wird, kann sich von Person zu Person unterscheiden. Die innere Vergleichbarkeit stellt eine Form der Annäherung an das quantitative Gütekriterium der Objektivität aus qualitativer Perspektive dar. Sie wird auch als ‚emergentistische Objektivität‘ bezeichnet – also eine Form der Objektivität, die aus dem Erleben der Untersuchungssituation heraus entsteht.

 

2. Welche vier Ebenen sind bei der Beurteilung der Validität einer Studie in Betracht zu ziehen? Welche unterschiedlichen Perspektiven eröffnen diese Ebenen?

  • Interne Validität i. S. der Frage, inwieweit die Schlussfolgerungen, die aus einer Untersuchung gezogen werden, tatsächlich in den Daten begründet sind (auch als ‚argumentative Interpretationsabsicherung‘ bezeichnet).
  • Externe Validität i. S. der Generalisierbarkeit bzw. der Übertragbarkeit der Ergebnisse auf andere Fälle (oft Personen), andere Situationen und andere Operationalisierungen.
  • Validität der Datenerhebung i. S. der Frage, inwieweit es gelingt, bei der Datenerhebung auch tatsächlich das interessierende Phänomen zu erfassen.
  • Validität der Auswertung i. S. der Frage, inwieweit das gesamte Material in die Auswertung eingegangen ist und ob auch Gegenbeispiele zur bevorzugten Interpretation berücksichtigt wurden.

 

3. Wie können qualitativ Forschende die Validität der Datenerhebung erhöhen?

  • Erhebungsinstrumente wie Interview- oder Beobachtungsleitfäden vor Untersuchungsbeginn erproben und ggf. ändern.
  • Interviewer*innen vor Untersuchungsbeginn schulen – z. B. Probeinterviews führen lassen.
  • Teilnehmer*innen darüber aufklären, worum es bei der Untersuchung geht, soweit dies mit dem Untersuchungsgegenstand vereinbar.
  • Vertraulichkeit zusichern.
  • Eine vertrauensvolle Atmosphäre schaffen.

 

Kapitel 8.2: Alternative Gütekriterien qualitativer Forschung

 

1. Weshalb gibt es für die qualitative Forschung Diskussionen über alternative Gütekriterien?

Die Entwicklung alternativer Gütekriterien für die qualitative Forschung basiert auf dem Zweifel an der Übertragbarkeit und Passung der Gütekriterien quantitativer Forschung zu den wissenschaftstheoretischen, methodologischen und methodischen Besonderheiten qualitativer Forschung.

 

2. Was ist unter dem Konzept der Reflexivität zu verstehen, und weshalb ist diese in der qualitativen Forschung von besonderer Bedeutung?

Das Kriterium der Reflexivität hat das Ziel, die Doppelrolle von Forschenden, als externe Beobachtende und gleichzeitig aktiv Beteiligte in Kommunikation und Untersuchungsgeschehen, kontinuierlich zu reflektieren. Dies beinhaltet die Auseinandersetzung mit grundlegenden sozialen Konstellationen des Forschungskontexts, den damit verbundenen Wahrnehmungen der Forschungssituationen und alle relevanten Interaktions- und Deutungsprozesse. Die Relevanz der Reflexivität für die qualitative Forschung leitet sich daraus her, dass Forschende hier als ‚lebendige Forschungsinstrumente‘ beschrieben werden, welche durch eigene Positionen, Perspektiven, Überzeugungen und Wertvorstellungen ihre je eigenen Forschungszugänge konstituieren. Eben daraus ergibt sich die Doppelrolle qualitativer Forscher*innen.

 

3. Nennen Sie zwei weitere alternative Gütekriterien qualitativer Forschung und erläutern Sie, wie diese zur Sicherung der Qualität qualitativer Forschung beitragen.

Zwei beliebige unter den folgenden:

  • Kommunikative Validierung: Indem die Untersuchungsergebnisse den Teilnehmer*innen vorgelegt werden, lässt sich feststellen, inwieweit die Rekonstruktion der Forschenden mit den subjektiven Sichtweisen der Befragten übereinstimmt.
  • Methodentriangulation: Hier werden verschiedene Methoden auf denselben Gegenstand angewandt. Verschiedene Methoden eröffnen unterschiedliche und ergänzen sich wechselseitig zu einem umfassenderen Bild.
  • Angemessenheit der Methodenwahl: Die Methoden sind so zu wählen, dass sie dem Untersuchungsgegenstand entsprechen, sowohl einzeln als auch im Zusammenspiel untereinander. Dies ist bei qualitativen und quantitativen Studien gleichermaßen von Bedeutung. 
  • Intersubjektive Nachvollziehbarkeit: Die Dokumentation von Verfahrensprozessen und Forschungsschritten ermöglicht es Dritten, die Vorgehensweise, Entscheidungen und Interpretationen nachzuvollziehen. Die Überprüfung der intersubjektiven Nachvollziehbarkeit erfolgt mittels Audit Trails. Die intersubjektive Nachvollziehbarkeit ist gerade in der qualitativen Forschung von Bedeutung, wo die Forschenden selbst die Forschungsinstrumente darstellen.
  • Vertrauenswürdigkeit: Vertrauenswürdigkeit betrifft die Frage, warum Leser*innen eines Forschungsberichts darauf vertrauen können, dass die Darstellungen auch glaubhaft sind. Sie bemisst sich also daran, inwieweit die anderen Gütekriterien qualitativer Forschung erfüllt sind.

 

Kapitel 8.3: Ethische Fragen qualitativen Forschens

 

1. Mit welchen ethischen Problemen müssen sich qualitativ Forschende ganz allgemein auseinandersetzen, unabhängig von der konkreten Methode?

  • Die Reichhaltigkeit qualitativer Daten führt dazu, dass die betreffenden Personen leicht identifizierbar sind. Die Vertraulichkeit der Informationen ist daher in der qualitativen Forschung schwieriger zu gewährleisten als in der quantitativen.
  • Befragte geben manchmal Informationen preis, die ihnen selber oder anderen schaden können.
  • Forschungssituationen beinhalten oft ein asymmetrisches Machtverhältnis. Forscherinnen und Forscher sollten dieses Ungleichgewicht nicht ausnutzen, um sich zusätzliche Informationen zu verschaffen. Sie sollten auch von vornherein klarstellen, wenn es nicht Teil ihrer Forschungsbemühungen ist, in Problemsituationen Hilfe anzubieten.

 

2. Welche ethischen Probleme stellen sich bei der Anwendung der verdeckten teilnehmenden Beobachtung?

  • Wenn die Untersuchung verdeckt stattfindet, haben die Personen im Feld der Untersuchungsteilnahme auch nicht freiwillig zugestimmt.
  • Verdeckte Beobachtung beinhaltet eine Täuschung der Personen im Feld.
  • Bei der verdeckten teilnehmenden Beobachtung in Dunkelbereichen der Gesellschaft kann es sein, dass die Forschenden zu Zeugen krimineller Handlungen werden. Diese müssten sie eigentlich polizeilich melden, damit sie nicht strafrechtlich belangt werden können.
  • Bei der teilnehmenden Beobachtung im Allgemeinen dienen die Handlungen der Forschenden vielfach sowohl Forschungs- als auch persönlichen Zwecken. Die Personen im Feld können sich daher nachträglich ausgenutzt fühlen.

 

3. Welche Besonderheiten sind bei der Nutzung und Erhebung von qualitativen Daten im digitalen Raum gesondert zu bedenken?

  • Im digitalen Raum ist die Grenze zwischen privaten und öffentlichen Informationen oft fließend. Für die Forschung gilt, dass Forscher*innen in erster Linie den Schutz der betroffenen Personen im Blick haben sollten: Nicht alles, was öffentlich zugänglich ist, kann automatisch zu Forschungszwecken verwendet werden.
  • Vor der Verwendung digitaler Daten ist nicht nur die Zustimmung der Verfasser*in einzuholen (sofern es sich nicht eindeutig um öffentliches Material handelt), sondern auch die Zustimmung weiterer Personen, die mit den Daten in Verbindung stehen (z. B. durch Abbildung oder Verlinkung).
  • Das Problem der Anonymisierung qualitativer Daten ist bei digitalen Daten noch verschärft, denn die Verfasser*innen sind durch Suchmaschinen leicht zu ermitteln. Eine bloße Pseudonymisierung oder Anonymisierung ist daher zum Zweck des Datenschutzes nicht ausreichend.

 

 

zurück zur Inhaltsübersicht

 

 

Kapitel 9 - Mixed-Methods-Forschung

 

Kapitel 9.1: Historie und Begriffsklärungen

 

1. Wann begann die Entwicklung der heutigen Mixed Methods-Forschung?

Die Kombination quantitativer und qualitativer Methoden und Ansätze hat in der sozialwissenschaftlichen Forschung eine lange Tradition. Die Anfänge der eigentlichen Mixed Methods-Forschung im heutigen Sinne gehen zurück in die 1980er Jahre. In den frühen 2000er Jahren kam es dann zu einer zunehmenden Institutionalisierung von Mixed Methods.

 

2. Welche beiden Merkmale sind für Mixed Methods-Studien konstitutiv?

  • Die Kombination von Elementen aus der qualitativen und der quantitativen Forschung und
  • Deren Integration

 

3. Wo sehen Sie Überschneidungsbereiche zwischen Mixed Methods und Triangulation?

Wenn in einer Triangulationsstudie sowohl eine quantitative und eine qualitative Erhebungsmethode verwendet und deren Ergebnisse untereinander in Beziehung gesetzt werden, handelt es sich zugleich auch um eine Mixed-Methods-Studie.

 

4. Nennen Sie drei mögliche Funktionen einer Mixed Methods-Studie.

Ganz allgemein kann man sagen, dass sich in einer Mixed Methods-Studie die Nachteile qualitativer und quantitativer Forschung durch die Vorteile der je anderen Tradition ausgleichen lassen.

Greene unterscheidet konkreter vier Funktionen von Mixed Methods-Studien:

  • Triangulation bzw. wechselseitige Validierung von Ergebnissen;
  • Komplementarität bzw. Erfassung von verschiedenen Facetten eines Phänomens durch Methoden aus den unterschiedlichen Forschungsansätzen;
  • Entwicklung, d.h. Verwendung der Ergebnisse aus einer ersten Studie im Rahmen des einen Forschungsansatzes zur Konzipierung von Elementen einer zweiten Studie im Rahmen des zweiten Forschungsansatzes;
  • Initiation, d.h. die bewusste Suche nach Inkonsistenzen und Diskrepanzen zwischen Ergebnissen;
  • Expansion, d.h. die Erweiterung der Befunde einer ersten Studie durch die Anwendung von Methoden aus dem je anderen Forschungsansatz in einer zweiten Studie.

 

Kapitel 9.2: Mixed Method-Designs

 

1. Welches sind Ihrer Ansicht nach die wichtigsten Kriterien bei der Planung einer Mixed Methods-Studie? Begründen Sie Ihre Meinung.

In der Literatur werden üblicherweise die folgenden Kriterien herangezogen: Reihenfolge (mit den Unterpunkten: wechselseitige (Un-)Abhängigkeit der Teilstudien und zeitliche Abfolge), Gewichtung, Untersuchungsziel bzw. –funktion, Schnittstellen (mit den Unterpunkten: was genau wird verknüpft und an welcher Stelle im Design findet das statt). Ich persönlich finde es hilfreich, ein Mixed Methods-Design in Bezug auf all diese Kriterien zu beschreiben. Welche Kriterien Ihrer Ansicht nach die wichtigsten sind – das ist Ihnen überlassen.

 

2. Nennen Sie zwei Kritikpunkte an der vermehrten Verwendung von Typologien zur Klassifikation von Mixed Methods-Designs. Was halten Sie selbst von solchen Typologien?

Zwei unter den folgenden:

  • Die Auswahl eines Designs ist notwendig mit der Planung der Studie verbunden. Dies steht im Gegensatz zu der Emergenz von Designs, wie sie gerade für die qualitative Forschung charakteristisch ist. Typologien gewichten somit den quantitativen Aspekt von Mixed Methods-Studien stärker als den qualitativen.
  • Typologien können die Vielfalt von Mixed Methods-Designs nicht abbilden. Viele Designs lassen sich daher nicht in den Typologien verorten.

In den Typologien werden qualitative und quantitative Designelemente einander konzeptuell gegenübergestellt. Damit ist indirekt eine Fortschreibung des Gegensatzes von ‚quantitativ‘ und ‚qualitativ‘ verbunden, der mit der Mixed Methods-Forschung eigentlich gerade überwunden werden soll.

Diesen Kritikpunkten lässt sich u.a. entgegenhalten, dass Typologien gerade für Noviz*innen in der Mixed Methods-Forschung eine gute Orientierung bieten. Auch sind die Design-Typen lediglich als Orientierung bei der Planung des Designs gedacht. Was Sie persönlich von Typologien halten, ist wiederum Ihnen überlassen. Wichtig ist nur, dass Sie Ihre Meinung begründen können.

 

3. Was versteht man unter einem sequenziellen Mixed Methods-Design? Nennen Sie zwei Beispiele.

Bei einem sequenziellen Design wird zuerst eine Studie aus einer der beiden Forschungstraditionen durchgeführt; daran schließt sich die Durchführung einer Studie aus der anderen Tradition an. Dabei werden die Ergebnisse der ersten Studie für die Planung und Umsetzung der zweiten Studie herangezogen. Die konkreten Formen des sequenziellen Designs hängen davon ab, ob zuerst die quantitative oder die qualitative Studie umgesetzt wird.

  • Beim Vertiefungsdesign steht die quantitative Studie am Anfang; daran schließt sich die qualitative Studie an.
  • Beim Verallgemeinerungsdesign steht die qualitative Studie am Anfang; daran schließt sich die quantitative Studie an.

 

Kapitel 9.3: Weitere Gesichtspunkte bei der Planung von Mixed Methods-Studien

 

1. Nennen Sie zwei mögliche Relationen der Stichproben in einer Mixed Methods-Studie.

Zwei beliebige der folgenden:

  • Identisch: Hier wird eine einzelne Stichprobe angesetzt, für die sowohl qualitative als auch quantitative Daten erhoben werden.
  • Aus derselben Population, aber verschieden: Hier liegt zwar beiden Stichproben dieselbe Population zugrunde, aber die ausgewählten Fälle sind je verschieden.
  • Eingebettet: Bei dieser Strategie wird für die Datenerhebung in der qualitativen Teilstudie eine Auswahl an Fällen aus der quantitativen Teilstudie herangezogen.
  • Mehrebenen: Die Stichproben bestehen aus unterschiedlichen Individuen bzw. Einheiten auf den verschiedenen Ebenen einer Organisation, sind aber durch die Zugehörigkeit zu dieser Organisation untereinander verbunden.

 

2. Weshalb werden Fragebögen mit geschlossenen Fragen und Interviews in der Mixed Methods-Forschung gerne kombiniert? Inwieweit ergänzen sich die beiden Datenerhebungsmethoden?

Eine quantitative Fragebogenstudie mit geschlossenen Fragen erlaubt es, eine Forschungsfrage an Hand von vielen Teilnehmer*innen zu untersuchen (Breite der Informationen). Mittels Interviews für eine kleinere Stichprobe lassen sich ausgewählte Aspekte dieser Antworten weiter vertiefen (Tiefe).

 

3. Welches ist die stärkste Form der Integration qualitativer und quantitativer Elemente in der Mixed Methods-Forschung? Was ist dabei zu beachten?

Die stärkste Form der Integration besteht darin, Daten aus dem einen Format ins andere zu konvertieren, die Daten zu einem Satz zusammenzuführen und gemeinsam auszuwerten. Dabei ist zu beachten, dass hier Daten aus dem einen ins andere Format überführt werden müssen. Dies geschieht meist in Form einer Quantifizierung qualitativer Daten, aber auch die Qualifizierung quantitativer Daten ist eine Option.

 

4. Was versteht man unter Meta-Inferenzen?

Meta-Inferenzen sind Schlussfolgerungen, die aus der Integration der Teilstudien einer Mixed Methods-Studie resultieren.

 

 

zurück zur Inhaltsübersicht

Zurück zur Übersicht