A-Z Navigation
Begriff Erklärung
Abbildungen

sind systematisierende Darstellungen komplexer Zusammenhänge.

Ableitungsvalidität

Die Ableitungsvalidität der Hypothesenprüfung ist gegeben, wenn die Entscheidung auf der Ebene der Testhypothesen tatsächlich die a priori aufgestellte Theoretisch-inhaltliche Hypothese (TIH) prüft, wenn also die Liberalisierungsschritte (von der TIH in Richtung der Empirisch-inhaltliche Hypothese, der Statistischen Vorhersage und der Ebene der Testhypothesen) nicht zu einer inhaltlichen, formalen oder statistischen Veränderung der Ausgangshypothese führen.

Abweichender Fall

Beim diesem weist das interessierende Phänomen eine ungewöhnliche Ausprägung auf.

Ad-hoc-Fragen

sind Interviewfragen, die nicht vorab geplant sind, sondern spontan im Interviewverlauf generiert werden. Sie dienen der Vertiefung unerwarteter Aspekte.

Artefakte bei physiologischen Messungen

sind Signale, die nicht durch den interessierenden physiologischen bzw. biopsychologischen Prozess, sondern durch andere Faktoren (z. B. externe Quellen elektrischer Potenziale wie etwa Radiosender oder Mobiltelefone) verursacht werden. Es handelt sich also um Signale, die einen anderen Ursprung haben als das interessierende Biosignal.

Axiales Codieren

Axiales Codieren ist der zweite Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. In diesem Schritt wird von den offenen Codierungen abstrahiert, wobei die Codes als Grundlage für die Generierung theoretischer Konzepte bzw. axialer Codes dienen. Typisch ist die Zusammenfassung mehrerer offener Codes zu einem Oberbegriff, auch über die Äußerungen mehrerer Personen hinweg. Diese axialen Codes werden auch als Kategorien bezeichnet und dienen der Strukturierung des Datenmaterials.

Beschreiben

Beim Beschreiben werden Angaben über die Erscheinungsformen und Merkmale von mindestens einem Sachverhalt gemacht. Dies geschieht durch Benennen, Ordnen und Klassifizieren, Definieren, Angaben zu Häufigkeit bzw. Ausprägungsgrad.

Bewusste (auch: absichtsvolle) Stichprobenziehung (auch: Fallauswahl)

Diese beinhaltet eine gezielte Auswahl von Fällen nach bestimmten Kriterien, meist ohne eine statistische Verallgemeinbarkeit von der Stichprobe auf die Grundgesamtheit anzustreben. Wichtiger als die Größe ist die Zusammensetzung der Stichprobe. Beispiele für verschiedene Formen sind: theoretische Stichprobenziehung, qualitative Stichprobenpläne, Auswahl von typischen Fällen, von Extremfällen usw.

Biografieforschung

ist eine qualitative Forschungsmethode. Ziel ist die Erhebung und Rekonstruktion lebensgeschichtlicher Erzählungen. Diese fungieren als „Schnittstelle“ zwischen der individuellen Lebenswirklichkeit der Erzählerinnen und Erzähler und der sozialen Wirklichkeit. Lebensgeschichte ist immer individuell erlebte und rekonstruierte Wirklichkeit. Lebensgeschichten sind daher nicht als Abbildung objektiver Gegebenheiten zu sehen und sollten auch nicht im Hinblick auf ihren „Wirklichkeitsgehalt“ bewertet werden.

Blindversuche

Bei Blindversuchen kennt der Versuchsleiter nicht die der Untersuchung zugrunde liegende Hypothese und kann damit keine systematische Erwartungshaltung aufbauen und (unbewusst) an die Vpn weitervermitteln.

Bottom up-Verfahren der bewussten Stichprobenziehung

Dies sind Verfahren der bewussten Fallauswahl, bei denen sich die Kriterien für die Zusammensetzung der Stichprobe erst im Untersuchungsverlauf ergeben, z. B. die theoretische Stichprobenziehung.

Codieren

ist eine sehr flexible Methode zur Analyse des Äußerungsinhalts. Die Bedeutung relevanter Textstellen wird erfasst, indem dem Text ein zusammenfassendes ‚Etikett’ quasi angeheftet wird. Das Codieren kann eher konkret und nahe am Textmaterial oder eher abstrakt erfolgen. Meist werden die Codes induktiv aus dem Datenmaterial heraus entwickelt.

Datenaufbereitung

Die Datenaufbereitung umfasst die Schritte und Prozeduren, mit denen die Rohdaten einer empirischen Untersuchung in eine Form gebracht werden, die eine gezielte Beantwortung der Forschungsfragen und die Überprüfung der Hypothesen mithilfe von Auswertungsverfahren erlaubt. Hierzu gehören im Bereich quantitativer Methoden u. a.: die Überführung von Daten, die noch nicht in quantitativer Form vorliegen, in Zahlen (z. B. quantitative Codierung von Beobachtungen oder verbalem Material; Bildung von Häufigkeiten nominalskalierter Daten); die Übertragung von Daten von Test- oder Befragungsbögen (bei Paper-Pencil-Erhebung) oder Rohdatendateien (bei computergestützter Datenerhebung) in ein analysierbares Datenformat (z. B. für ein Statistikprogramm wie SPSS oder SAS); die Zusammenfassung (Aggregierung) von einzelnen Variablen zu Gesamtwerten (z. B. die Bildung eines Gesamtwerts für eine Skala).

Datenerhebung

bezeichnet den Prozess, mit dem Forscher/innen zu ihren Daten gelangen. Datenerhebung umfasst sowohl die Auswahl aus bereits vorhandenem Material als auch die Erzeugung von Daten im Forschungsprozess (Datengenerierung).

Datengenerierung

bezeichnet die Erzeugung von Daten im Forschungsprozess.

Deduktion

Unter Deduktion versteht man in der Logik die Ableitung des Besonderen und Einzelnen aus dem Allgemeinen (aus Regeln, Gesetzmäßigkeiten, Modellen, Theorien).

Denotation

ist die deskriptive Bedeutung eines Zeichens.

Deskriptive Feldforschung

ist eine qualitative Forschungsmethode. Ziel ist es, eine Kultur aus der Sicht ihrer Mitglieder kennen zu lernen und zu beschreiben. Die Kultur soll durch die Forschungstätigkeit möglichst nicht verändert werden. Wichtigste Methode der Datenerhebung ist die teilnehmende Beobachtung.

Deskriptivstatistik

Die Deskriptivstatistik beinhaltet Verfahren, mit deren Hilfe quantitative Daten zusammenfassend beschrieben und dargestellt werden. Hierzu zählen: die univariate Deskriptivstatistik (Statistik für einzelne Variablen), darunter a) die Bestimmung von Häufigkeiten des Auftretens von Werten und von Häufigkeitsverteilungen, b) die Berechnung von Kennwerten (Parametern), die zusammenfassende Aussagen über die gesamte Stichprobe erlauben (Maße der zentralen Tendenz und Streuungsmaße); die multivariate Deskriptivstatistik (Statistik für Zusammenhänge mehrerer Variablen), darunter Korrelation und Regression; Tabellen; Diagramme und Grafiken.

Dialog-Konsens-Kriterium

Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet das Kriterium, nach dem eine Theoriestruktur als angemessen rekonstruiert gilt. Das Kriterium ist erfüllt, wenn die Teilnehmerin oder der Teilnehmer im Gespräch mit der Forscherin oder dem Forscher zustimmt, dass die rekonstruierte Theoriestruktur die Gedanken zu einem Thema angemessen wiedergibt. Die Gesprächssituation sollte möglichst frei von Zwängen und Asymmetrien sein.

Diskrete Merkmale

Ein Merkmal, das nur die Erfassung der Häufigkeit in ganzen Zahlen zulässt, wird diskret genannt. Diskrete Merkmale wie Anzahl von Geschwistern lassen also das Zählen der Auftretenshäufigkeit zu, nicht jedoch die Feststellung von feinen Ausprägungen zwischen ganzen Zahlen.

Diskurs

Ein Diskurs besteht aus einem Set aufeinander bezogener Texte, einschließlich der Verfahren ihrer Produktion, Verbreitung und Rezeption.

Diskursanalyse

Mit der Diskursanalyse wird untersucht, wie Realität sprachlich erzeugt wird. Es wird zwischen deskriptiven und kritischen (normativen) Verfahren der Diskursanalyse unterschieden.

Effektgröße

Die Effektgröße drückt aus, inwiefern ein Mittelwertsunterschied nicht nur statistisch, sondern auch psychologisch-inhaltlich bedeutsam (relevant) ist.

Eigenproduktion visueller Daten

Hier werden Teilnehmende aufgefordert, Zeichnungen, Fotografien, Videos usw. zu erstellen.

Einfacher Haupteffekt (EHE)

Dieser Effekt zeigt sich im zeilen- bzw. spaltenweisen Vergleich der Zellmittelwerte in einer Stufe des jeweils anderen Faktors. Sind die Zellmittelwerte gleich oder nur wenig unterschiedlich, so liegt kein solcher Effekt vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob dieser Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist.

Eingebettetes Design

ist ein Mixed-Methods-Design, bei dem ein dominierendes und ein untergeordnetes Paradigma mit ihrem jeweiligen Datentyp zur Beantwortung unterschiedlicher, aber verwandter Forschungsfragen miteinander kombiniert werden.

Einzelfallforschung

Von quantitativer Einzelfallforschung spricht man, wenn eine einzelne Untersuchungseinheit (in der Regel eine Person) bezüglich einer oder mehrerer AV unter möglichst kontrollierten Bedingungen wiederholt beobachtet wird, um die Wirkung einer UV messen und bewerten zu können.

Elimination

Durch Elimination werden die Einflüsse einer Variablen auf null gesetzt, ihr Einfluss auf die AV im Sinne einer Störvariablen wird aus dem Bedingungsgefüge genommen.

Emergente Flexibilität des Designs

Annahmen und Instrumente werden im Verlauf der Untersuchung flexibel an den Gegenstand angepasst und entsprechend modifiziert.

Empirische Wissenschaft

ist daran interessiert, Hypothesen und Theorien zu den Fragen zu entwerfen, mit denen man sich gerade beschäftigt. Diese Hypothesen und Theorien werden nun ihrerseits mit der Realität konfrontiert. Man vergleicht also ‒ wie in anderen Naturwissenschaften auch ‒ die gedankliche Antwort auf die Frage mit den in der Realität diesbezüglich vorfindbaren Sachverhalten.

Empirisch-inhaltliche Hypothese (EIH)

entsteht durch die Operationalisierung der theoretisch-inhaltliche Hypothese TIH.

Episodisches Interview

ist ein nonstandardisiertes Interview zur Erhebung von Erzählungen über kürzere Ereignisse.

Erklärungen

sind Angaben über Bedingungsverhältnisse von Sachverhalten bzw. Angaben über Abhängigkeiten zwischen Sachverhalten. Erklärungen setzen die Beschreibung von mindestens zwei Sachverhalten voraus.

Evaluation (Evaluierung)

ist in der allgemeinen Bedeutung des Begriffs die Beschreibung, Analyse und Bewertung von Prozessen und Organisationseinheiten, insbesondere im Bildungsbereich, in den Bereichen Gesundheit und Entwicklungshilfe, der Verwaltung oder der Wirtschaft. Evaluation kann sich sowohl auf den Kontext (Voraussetzungen, Rahmenbedingungen), die Struktur, den Prozess als auch auf das Ergebnis (Produkt) beziehen.

Evozierte Potentiale

Hier handelt es sich um kurzzeitige (d. h. weniger als 1 Sekunde andauernde) Reaktionen auf innere oder äußere Reize, die einen komplexen Verlauf mit interpretierbaren Höhe- und Tiefpunkten aufweisen.

Experiment

Unter einem Experiment versteht man die systematische Beobachtung einer abhängigen Variablen unter verschiedenen Bedingungen einer unabhängigen Variablen bei gleichzeitiger Kontrolle der Störvariablen, wobei die zufällige Zuordnung von Probanden und experimentellen Bedingungen gewährleistet sein muss.

Explanatives Design

ist ein Mixed-Methods-Design, bei dem zunächst eine quantitative, anschließend und darauf aufbauend eine vertiefende qualitative Forschungsphase implementiert wird.

Explanative Validierung

Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet die zweite Phase im Rahmen dieser Forschungsmethode. Hier werden die Subjektiven Theorien hinsichtlich ihrer Geltung überprüft. Dies geschieht im Rahmen einer Korrelations-, Prognose- oder Modifikationsstudie.

Exploratives Design

ist ein Mixed-Methods-Design, bei dem zunächst eine qualitative, anschließend darauf aufbauend eine qualitative Untersuchungsphase realisiert wird.

Externe Validität

eines Experiments ist gegeben, wenn die Ergebnisse der Untersuchung übertragbar sind. Dabei sind drei Aspekte zu unterscheiden, nämlich die Populationsvalidität, die Situationsvalidität und die Variablenvalidität.

Extremfall

Beim Extremfall ist das interessierende Phänomen besonders stark oder besonders schwach ausgeprägt.

Fallstudie

Die Fallstudie stellt eine holistische Forschungsmethode dar, mit der interessierende Fälle ganzheitlich, unter Einbeziehung ihres Kontextes und unter Verwendung verschiedener Datenquellen und Erhebungsverfahren umfassend untersucht werden. Sie kann als Einzel- oder als multiple, als holistische oder eingebettete, als beschreibende oder erklärende Fallstudie realisiert sein.

Fokussiertes Interview

ist ein Leitfadeninterview, mit dem die Reaktionen der Befragten auf ein ‚Objekt’ ermittelt werden (z. B. ein Film, ein Objektdesign o. ä.).

Förderung

Beeinflussen und Verändern als Förderung: Bei dieser Zielsetzung strebt man einen höheren, ‚besseren’ Zustand an, ohne dass der Ausgangszustand als problematisch gilt. Zu denken ist vor allem an Begriffe wie Erziehung, Unterricht, Ausbildung oder Training. Statt von Förderung kann man auch von Optimierung sprechen.

Forschungsprogramm Subjektive Theorien (FST)

ist eine qualitative Forschungsmethode, die von Groeben und Scheele in den 1970er Jahren entwickelt wurde. Sie basiert auf der Annahme, dass Menschen im Alltag ebenso wie Wissenschaftlerinnen und Wissenschaftler versuchen, die Welt um sich herum zu beschreiben, zu erklären und zu verändern. Ziel ist die Erhebung, Rekonstruktion und Geltungsprüfung Subjektiver Theorien. Die Vorgehensweise gliedert sich in die Phasen der Kommunikativen und der Explanativen Validierung. Darunter ist nur die Phase der Kommunikativen Validierung der qualitativen Forschung zuzurechnen.

Gegenstand der Psychologie

ist das Erleben, Verhalten und Handeln des Menschen.

Gegenstandsbezogene Theoriebildung / Grounded Theory

Die qualitative Forschungsmethode wurde von Glaser und Strauss in den 1960er Jahren entwickelt. Ziel ist es, Theorien zu erstellen, die direkt in den Daten verankert sind. Die Fallauswahl erfolgt sukzessive im Untersuchungsverlauf nach dem Prinzip der theoretischen Stichprobenziehung. Zur Datenerhebung können verschiedene Methoden eingesetzt werden. Die Auswertung vollzieht sich in einem Dreischritt von offenem, axialem und selektivem Codieren. In einem Prozess des permanenten Vergleichs werden selektive Kategorien untereinander zu einer Theorie verknüpft. Die Untersuchung ist abgeschlossen, wenn die Einbeziehung neuer Fälle keine weitere Modifikation der Theorie erfordert (Kriterium der theoretischen Sättigung).

Grundgesamtheit (Population)

Darunter versteht man in der Psychologie die Menge aller potenziellen Untersuchungsobjekte für eine gegebene Fragestellung.

Gruppendiskussion (auch Fokusgruppe)

Bei der Gruppendiskussion diskutieren zwischen 5 und 15 Personen zu einem vorgegebenen Thema. Die Gruppendiskussion wird meist von einer Forscherin oder einem Forscher unter Rückgriff auf einen thematischen Leitfaden geleitet. Die Forschenden moderieren, äußern sich aber nicht inhaltlich zum Thema.

Handlungsforschung (auch: Aktionsforschung)

ist eine qualitative Forschungsmethode, die von Lewin in den 1940er Jahren entwickelt wurde. Sie versteht sich als gesellschaftskritische Forschung und zielt auf die Veränderung gesellschaftlicher Praxis ab. Gegenstand sind konkrete soziale Probleme, für die gemeinsam mit den Betroffenen in gleichberechtigter Kommunikation Lösungsmöglichkeiten erarbeitet werden. Die Betroffenen sollen durch die Forschung in die Lage versetzt werden, ihre Interessen selbst zu vertreten.

Haupteffekt(HE)

Dieser zeigt sich also im Vergleich der Mittelwerte der Stufen des Faktors. Sind die Mittelwerte gleich oder nur wenig unterschiedlich, so liegt kein Haupteffekt(HE) vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Haupteffekt(HE) nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist.

Hermeneutik

Ziel der Hermeneutik ist es, zu einem angemessenen und umfassenden Verständnis des Gesagten zu gelangen und dabei die Subjektivität des Verstehens im Alltag zu überwinden. Dies setzt einen Hintergrund geteilter Bedeutung voraus. Grundprinzip des hermeneutischen Verstehens ist die hermeneutische Spirale: Vorverständnis und Textverständnis, Verständnis von Textteilen und Textganzem greifen ineinander. In diesem Prozess wird das Textverständnis sukzessive vertieft.

Heterogene Stichprobe

Diese setzt sich aus unterschiedlichen Fällen zusammen (Gegensatz zur homogenen Stichprobe).

Hintergrundwissen

Unter dem Hintergrundwissen versteht man Wissensbestände, die benötigt werden, um jene Untersuchungssituation zu konstruieren, mit welcher die Hypothese konfrontiert werden soll.

Holistische Vorgehensweise

Diese beinhaltet die Untersuchung des Gegenstandes in seiner Gesamtheit, ohne ihn in einzelne Aspekte (Variablen) zu zerlegen; wird auch als ‚Fallorientierung’ bezeichnet (Gegensatz zur Variablenorientierung).

Homogene Stichprobe

Diese setzt sich aus gleichartigen Fällen zusammen (Gegensatz zur heterogenen Stichprobe).

Hybride Methoden

sind Methoden, die in sich eine Kombination qualitativer und quantitativer Elemente beinhalten.

Hypothese

ist eine vorläufige (vermutete) Antwort, die Forscher auf eine ihrer Fragen geben (Hussy & Jain, 2002). Um Vermutungen handelt es sich solange, als der wissenschaftliche Nachweis noch aussteht.

Ikonologie

ist eine kunstgeschichtliche Methode zur Analyse von visuellem Material. Im Mittelpunkt stehen die Analyse von Symbolen und die motivgeschichtliche Einbettung der Darstellung. Die Analyse erfolgt auf drei aufeinander aufbauenden Ebenen: der darstellenden, der ikonografischen und der ikonologischen Ebene.

Induktion

In der Logik versteht man unter Induktion die Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine und Gesetzmäßige.

Induktives Vorgehen

Es wird versucht, theoretische Vorannahmen über den Gegenstand auszublenden und Schlussfolgerungen über den Gegenstand möglichst nur aus dem Datenmaterial heraus zu ziehen. Theorien stehen nicht am Beginn, sondern am Ende der Untersuchung (Gegensatz zum deduktiven Vorgehen).

Inferenzstatistik

Die Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige Population. Aussagen der Inferenzstatistik gehen damit über das Beobachtbare hinaus und sind mit Unsicherheit behaftet. Parameter für Populationen werden in der Regel mit griechischen Symbolen bezeichnet, am wichtigsten darunter μ (sprich: mü) für den Mittelwert, δ (sprich: sigma) für die Standardabweichung und π (sprich: pi) für die relative Häufigkeit (den Anteil).

Inhaltsanalyse

ist ein systematisches, datenreduzierendes Verfahren zur vergleichenden Analyse von bedeutungshaltigem Material. Die Analyse erfolgt, indem Materialteile (Segmente) den Kategorien eines inhaltsanalytischen Kategoriensystems zugeordnet werden. Diese Zuordnung wird meist von zwei unabhängig Codierenden vorgenommen.

Innere Vergleichbarkeit

ist ein Konzept und stellt eine qualitative Annäherung an das Gütekriterium der Objektivität bei der Datenerhebung dar. Es beruht auf der Annahme, dass bei der Datenerhebung nicht die äußere, sondern die innere Entsprechung der Situationen ausschlaggebend ist. Da verschiedene Menschen dieselbe Situation je anders erleben, lässt sich Objektivität nicht dadurch herstellen, dass Forschende sich verschiedenen Personen gegenüber in identischer Weise verhalten. Erforderlich ist vielmehr ein personenspezifisch je unterschiedliches Verhalten, um aufseiten der Befragten dieselbe innere Situation zu erzeugen. Dieser Auffassung zufolge „emergiert“ Objektivität gerade aus der Subjektivität der Interaktionsrelationen.

Intensiver Fall

Hier ist das interessierende Phänomen stark ausgeprägt, aber nicht so stark wie beim Extremfall.

Interaktion

Unter einer Interaktion versteht man die kombinierte Wirkung der UV auf die AV. Sie umfasst die Wirkungen der einfachen Haupteffekte der UV.

Interne Validität

eines Experiments ist gegeben, wenn Veränderungen in der AV ausschließlich auf die Variation der UV zurückgeführt werden können.

Intervention

Unter einer Intervention versteht man in der Psychologie geplant und gezielt eingesetzte Maßnahmen, um Störungen vorzubeugen (Prävention), sie zu beheben (Psychotherapie) oder deren negative Folgen einzudämmen (Rehabilitation). Wie schon bei der Diagnostik ist auch hier deutlich zu erkennen, dass der Einsatz der Methoden praktischen, in diesem Fall psychologisch-klinischen Belangen dient.

Interview

Das Interview ist ein Gespräch, in dem die Rollen per Konvention meist asymmetrisch verteilt sind, wobei die Forschenden die Fragen stellen und die an der Untersuchung Teilnehmenden antworten. Das Interview dient der Informationsermittlung.

Item

Ein Item ist eine als Frage oder als Urteil formulierte Aussage, zu der die befragte Person ihre Zustimmung oder Ablehnung – ggf. in unterschiedlicher Intensität – äußern kann.

Kommunikative Validierung

Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet die erste Phase im Rahmen dieser Forschungsmethode. Hier werden die Subjektiven Theorien einer Person erhoben und rekonstruiert. In einem ersten Schritt erfolgt die Erhebung der Theorie-Inhalte in einem Leitfadeninterview. In einem zweiten Schritt wird die Theorie-Struktur unter Verwendung eines Struktur-Lege-Verfahrens im Dialog-Konsens zwischen den Teilnehmenden und den Forschenden rekonstruiert.

Komparative Kasuistik

wurde von Jüttemann als spezifisch psychologisches Verfahren zur Auswertung von biografischem Material entwickelt. Ziel ist die Konstruktion von Theorien über entwicklungspsychologische Phänomene. In einem ersten Schritt wird jeder Fall inhaltsanalytisch ausgewertet. Dieser Schritt dient der Beschreibung und Analyse des Phänomens, wie es sich in den einzelnen Fällen manifestiert. In einem zweiten Schritt werden auf der Grundlage der Einzelfallbeschreibungen typische Einzelfallkonstellationen erstellt.

Konfundierung

Zu Störvariablen werden andere Einflussgrößen erst dann, wenn sie systematisch mit den Stufen einer UV variieren und auf die AV einwirken. Diesen Sachverhalt nennt man Konfundierung. Zu verhindern ist also die systematische Variation einer potenziellen Einflussgröße mit den Stufen einer oder mehrerer UV.

Konnotation

bezieht sich auf kulturell zugeschriebene, affektive Bedeutungen von Zeichen.

Konstante

Eine Konstante ist eine Beobachtungsgröße mit nur einer Ausprägung. Diese sind im Gegenstandsbereich der Psychologie kaum vorzufinden (Hussy & Jain, 2002).

Konstanthalten

Zum Konstanthalten zählen alle Maßnahmen der Standardisierung der Untersuchungssituation und damit auch Maßnahmen der Versuchsleiterschulung.

Korrektur

Beeinflussen und Verändern als Korrektur: In diesem Fall gilt der Ausgangszustand als ‚problematisch’, ‚gestört‚, ‚unnormal‚; die Intervention soll folglich in erster Linie etwas Negatives aufheben und nicht so sehr etwas Positives entwickeln. Hier liegt der Schwerpunkt von Aktivitäten, die insbesondere unter Begriffen wie ‚Therapie‚ oder ‚Rehabilitation‚ zu finden sind.

Kritischer Fall

Dieser ist ein besonders einschlägiger Fall (in Abhängigkeit von der Fragestellung), der sich auch für die Prüfung von Theorien eignet.

Lautes Denken

dient der Erfassung kognitiver Prozesse. Die Befragten werden aufgefordert, alles laut zu verbalisieren, was ihnen bei der Bearbeitung einer vorgegebenen Aufgabe durch den Kopf geht. Die Verbalisierung kann während der Aufgabenbearbeitung erfolgen (periaktional) oder unmittelbar im Anschluss (postaktional).

Leitfadeninterview

ist ein halbstandardisiertes Interview. Das bedeutet, dass die Reihenfolge der Fragen dem Gesprächsverlauf angepasst wird und die Fragen in Anlehnung an die Begrifflichkeit der Teilnehmenden formuliert werden. Der Leitfaden dient bei der Gesprächsführung also lediglich als Anhaltspunkt.

Matrizen

Matrizen sind Tabellen, die Text enthalten. Sie eignen sich zur zusammenfassenden Darstellung verbaler Daten.

Memo

Der Begriff stammt aus der Gegenstandsbezogenen Theoriebildung. Ein Memo ist eine Notiz, in der theorierelevante Überlegungen festgehalten werden, häufig im Laufe des Auswertungsprozesses.

Messen

Messen ist die Zuordnung von Zahlen zu Objekten oder Ereignissen bezüglich der Ausprägung eines Merkmals oder einer Eigenschaft, so dass bestimmte Relationen zwischen den Zahlen vorhandene Relationen zwischen den Objekten (oder Ereignissen) homomorph abbilden.

Messwiederholung

Von Messwiederholung spricht man, wenn die Probanden in verschiedenen experimentellen Bedingungen, also mehrfach innerhalb des gleichen Experiments, beobachtet werden.

Metaanalyse

Die Metaanalyse ist eine an den Kriterien empirischer Forschung orientierte Methode zur quantitativen Integration der Ergebnisse empirischer Untersuchungen sowie zur Analyse der Variabilität dieser Ergebnisse. (Drinkmann, 1990, S. 11)

Methodologie

Die Methodologie ist die Theorie der wissenschaftlichen Methoden (Methodenlehre), die sich insbesondere mit der sachgerechten Anwendung von Forschungsmethoden beschäftigt (Wenninger, 2001)

Mixed Methods

bezeichnet eine Forschungsmethode, die eine Kombination von Elementen qualitativer und quantitativer Forschungstraditionen beinhaltet, typischerweise (aber nicht notwendig) innerhalb einer Untersuchung.

Mixed-Model-Designs

sind Mixed-Methods-Untersuchungen, in denen eine Kombination von qualitativen und quantitativen Elementen über verschiedene Phasen derselben Untersuchung hinweg stattfindet. Als Phasen gelten dabei das Design, die Datenerhebung und die –auswertung.

Monomethod-Studien

sind Untersuchungen, in denen nur Methoden aus einer Forschungstradition zur Anwendung kommen (also nur qualitative oder nur quantitative Methoden), und zwar jeweils nur eine Methode in der Phase der Datenerhebung und eine Methode in der Phase der Auswertung.

Multimethod-Designs

sind Mixed-Methods-Studien, in denen zwei relativ eigenständige Untersuchungen nacheinander durchgeführt werden, eine qualitative und eine quantitative (nicht notwendig in dieser Reihenfolge).

Multimethod-Studien

In Multimethod-Studien findet eine Kombination mehrerer Forschungsmethoden in einer Phase derselben Studie statt, wobei die Methoden entweder aus der qualitativen oder aus der quantitativen Forschungstradition stammen. Es werden also entweder mehrere qualitative oder mehrere quantitative Methoden kombiniert.

Narratives Interview

ist ein nonstandardisiertes Interview, das dazu dient, Erzählungen der gesamten Lebensgeschichte oder auch einzelner relevanter Episoden aus dem Leben der befragten Personen zu rekonstruieren. Es gliedert sich in die Phasen: Erzählanstoß, Haupterzählung, Nachfrage- und Bilanzierungsphase.

Naturalistische Vorgehensweise

Naturalistische Vorgehensweise wird in der qualitativen Forschung realisiert, indem der Gegenstand in seiner natürlichen Umgebung und in seinem natürlichen Erscheinungsbild untersucht wird, ohne ihn aktiv zu verändern.

Nichtexperimentelle Forschungsmethoden

Das Hauptmerkmal nichtexperimenteller Forschungsmethoden besteht in ihrem Ziel, einen Sachverhalt möglichst genau beschreiben zu wollen (▶ Abschn. 1.3.1 und 2.2). Es werden die beteiligten Variablen identifiziert und beschrieben. Häufig wird auch nach deren Zusammenhang gefragt. Numerische Daten bilden die Grundlage von Hypothesengenerierung und Hypothesenentscheidung. Der Hauptunterschied zu den experimentellen Forschungsmethoden besteht darin, dass in der Regel keine Kausalhypothesen im Sinne der Erklärung von Wirkzusammenhängen geprüft werden.

Nonreaktive Beobachtungsverfahren

sind dadurch gekennzeichnet, dass zwischen den Beobachtenden und den beobachteten Personen kein Kontakt besteht. Gegenstand der Beobachtung sind die Spuren, die Menschen mit ihren Handlungen hinterlassen.

Nonstandardisierte Beobachtung

Hier wird nicht vorab festgelegt, was genau beobachtet werden soll; was von Bedeutung ist, ergibt sich im Verlauf der Untersuchung. Der Gegenstand der Beobachtung wird dabei möglichst in seiner Ganzheit und in seinen verschiedenen Facetten erfasst.

Nonstandardisiertes Interview

ist diejenige Form des Interviews, die sowohl den Befragenden als auch den befragten Personen den größten Spielraum lässt. Es werden vorab lediglich Themenkomplexe festgelegt, aber keine Fragen vorformuliert.

Objektive Hermeneutik

ist eine sozialwissenschaftliche Variante der Hermeneutik. Zielsetzung ist es, unter Heranziehung des Wissens über soziale Regeln die Sinnstruktur herauszuarbeiten, die einer sprachlichen Äußerung zugrunde liegt. Zu den verschiedenen Formen zählen die Feinanalyse, die Sequenzanalyse und die Interpretation der objektiven Sozialdaten.

Objektivität (intersubjektive Vergleichbarkeit)

Hier handelt es sich um ein allgemeines Gütekriterium wissenschaftlicher Untersuchungen: Verschiedene Forscher müssen unter den gleichen (Versuchs-) Bedingungen zu den gleichen Ergebnissen gelangen (Unabhängigkeit der Resultate von Versuchssituation und Versuchsleitern).

Offenes Codieren

Offenes Codieren ist der erste Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. Erste relevante Konzepte im Datenmaterial werden als Codes festgehalten. Es erfolgt datennah und Zeile für Zeile. Codes können unmittelbar in der Begrifflichkeit der Teilnehmenden formuliert sein (in vivo-Codes).

Offene Verfahren

Dies sind Verfahren (der Datenerhebung oder –auswertung), bei denen keine vorgegebenen Kategorien an den Gegenstand herangetragen werden (Gegensatz zu geschlossenen Verfahren, geschlossenen Fragen).

Organismische UV

nennt man eine UV, wenn die Vpn deren Ausprägung als Merkmal mit in die Untersuchung einbringen und von daher den Stufen nicht zufällig zuzuordnen sind.

Operationalisierung

Wenn eine Hypothese mit abstrakten und/oder komplexen Variablen geprüft, also mit der Realität konfrontiert werden soll, müssen diese Variablen der Beobachtung und Erfassung zugänglich gemacht werden, d. h., sie müssen operationalisiert werden. Dies geschieht dadurch, dass ihnen auf der Basis des vorliegenden Hintergrundwissens empirische Sachverhalte (d. h. konkret mess- bzw. beobachtbare Größen) zugeordnet werden. Dadurch wird entscheidbar, ob und in welcher Ausprägung die abstrakten (theoretischen) Begriffe in der (empirischen) Realität vorliegen.

Pädagogische oder klinische Signifikanz

(je nach dem betroffenen Inhaltsbereich) liegt vor, wenn zwischen den Messwerten aus der Basisratenphase und der Interventionsphase keine Überlappungen (Überschneidungen) existieren und wenn der Unterschied zwischen dem Mittelwert aus diesen beiden Phasen mindestens 2 Standardabweichungen beträgt. Man geht auch dann von ihr aus, wenn der Prozentsatz nicht überlappender Daten 85% beträgt. Nähere Informationen zur Berechnung dieses Indexes finden sich ebenfalls bei Kern (1997).

Panel

Eine Stichprobe, die wiederholt zu einer bestimmten Thematik (Fernsehgewohnheiten, Konsumgewohnheiten etc.) oder auch zu verschiedenen Themen befragt wird, bezeichnet man als ein Panel (Bortz & Döring, 1995, S. 421).

Parallelisieren

Beim Parallelisieren wird die interessierende Variable vor dem Experiment gemessen und die Probanden werden bezüglich ihrer Ergebnisse in eine Rangreihe gebracht. Liegen zwei Versuchsbedingungen vor, so nimmt man aus dieser Rangfolge jeweils zwei aufeinander folgende Personen und teilt sie per Zufall den beiden Bedingungen zu.

Präzision

Unter Präzision versteht man die Wahrscheinlichkeit, dass ein in der Population tatsächlich vorhandener Zusammenhang bzw. Unterschied durch die Untersuchung auch wirklich nachgewiesen werden kann.

Prävention

Beeinflussen und Verändern als Prävention: Hier geht es darum, das Eintreten eines schlechten Zustands zu verhindern. Man greift ein, damit bestimmte Risiken sich nicht erfüllen. Beispiele hierfür sind das Erlernen von Stressbewältigung zur Prävention psychischer Probleme (auch Psychohygiene genannt) oder die Mitarbeiterschulung zwecks Unfallverhütung am Arbeitsplatz. (Nolting & Paulus, 2008).

Prinzip der maximalen strukturellen Variation

liegt dem qualitativen Experiment zugrunde. Es besagt, dass alle relevanten Aspekte eines Gegenstandes auf Ähnlichkeiten und Unterschiede hin analysiert werden sollen.

Problemzentriertes Interview

ist ein Leitfadeninterview, das an einem konkreten gesellschaftlichen Problem ansetzt.

Psychologische Diagnostik

repräsentiert Vorgehensweisen, welche eine Erfassung von Charakteristika von Personen, Personengruppen, Institutionen, Situationen etc. zur Folge haben. Die Erfassung und Gewinnung von Charakteristika erfolgt zielgerichtet und systematisch mit wissenschaftlich fundierten Methoden, wie Testverfahren, Fragebogen, Verhaltensbeobachtungen und Anamnesen. Mit der Diagnostik wird das Ziel verfolgt, Erkenntnisse über die Merkmalsträger (Probanden, Klienten, Patienten) zu gewinnen und für eine Entscheidung über eine nachfolgende Maßnahme, wie Beratung, Therapie, Training etc., zu nutzen.

Psychologische Methoden

Darunter verstehen wir Vorgehensweisen, mit deren Hilfe wir Antworten auf Fragen aus dem Gegenstandsbereich der Psychologie erhalten können. Im Lexikon der Psychologie (Wenninger, 2001, Bd. 3) finden wir die etwas abstraktere Definition: „Methode, griechisch ‚meta hodos’, der Weg zu etwas hin, das wissenschaftliche Vorgehen bzw. auf einem Regelsystem aufbauendes Verfahren, das zur Erlangung von wissenschaftlichen Erkenntnissen dient.“ Methoden sind folglich eingebunden in einen wissenschaftlichen Problemlöseprozess mit dem Ziel der Generierung von Erkenntnissen.

Qualitative Methoden

werden im Rahmen der qualitativen Forschung angewendet, unter der Sozialwissenschaften eine sinnverstehende, interpretative wissenschaftliche Verfahrungsweise bei der Erhebung und Aufbereitung sozial relevanter Daten verstehen.

Qualitativer Ansatz

Hier kommen eher sinnverstehende (unstandardisierte) Verfahren zum Einsatz.

Qualitatives Experiment

ist eine Forschungsmethode und wurde von Kleining entwickelt. Es ist der nach wissenschaftlichen Regeln vorgenommene Eingriff in einen (sozialen) Gegenstand nach dem Prinzip der maximalen strukturellen Variation. Dabei kommen nur solche Verfahren zur Anwendung, die dem Gegenstand gerecht werden. Ziel ist es, die Struktur des Gegenstandes aufzudecken.

Qualitative Stichprobenpläne

Diese sind Top down-Verfahren der bewussten Fallauswahl, bei denen die Ausprägungen relevanter Merkmale miteinander kombiniert und jede Zelle mit einer kleinen Anzahl von Fällen besetzt wird (meist n=1).

Quantitative Methoden

werden im Rahmen der quantitativen Forschung eingesetzt und repräsentieren eine Vorgehensweise zur numerischen Darstellung empirischer Sachverhalte.

Quantitativer Ansatz

Hier kommen objektiv messende (standardisierte) Verfahren zum Einsatz.

Randomisieren

heißt das zufällige Zuteilen der Versuchspersonen zu den Versuchsbedingungen und bewirkt im Idealfall die statistische Äquivalenz (Vergleichbarkeit) der Versuchsgruppen hinsichtlich aller denkbaren Störvariablen: Die Mittelwerte und Verteilungen aller möglichen Einflussgrößen sind in den realisierten experimentellen Bedingungen vergleichbar.

Reaktivität

Reaktivität bei psychologischen Datenerhebungen bedeutet die Veränderung bzw. Verzerrung der erhobenen Daten alleine aufgrund der Kenntnis der untersuchten Personen darüber, dass sie Gegenstand einer Untersuchung sind. Aufgrund von Reaktivität verändert sich die Beschaffenheit des zu erforschenden Gegenstands in der Psychologie des menschlichen Erlebens bzw. psychischer Vorgänge.

Reliabilität (Zuverlässigkeit)

bezeichnet die Zuverlässigkeit und Beständigkeit einer Untersuchung. Reliabel ist ein Instrument dann, wenn es bei einem relativ gleich bleibenden Verhalten gleiche oder ähnliche Ergebnisse liefert.

Schneeballverfahren

Das Schneeballverfahren ist ein Verfahren der Fallauswahl, bei dem zunächst ein Mitglied der interessierenden Gruppe kontaktiert und nach weiteren Personen aus derselben Gruppe gefragt wird; diese werden ihrerseits ebenfalls nach weiteren Personen gefragt, bis eine hinreichende Stichprobengröße erreicht ist. Das Verfahren ist besonders gut zur Fallauswahl bei schwer erreichbaren Populationen geeignet.

Schriftliche offene Befragung

Hier werden die Teilnehmenden aufgefordert, Fragen in ihren eigenen Worten schriftlich zu beantworten.

Schwierigkeit von Testitems

ist der Prozentsatz aller untersuchten Personen, die das Item gelöst bzw. positiv beantwortet haben. Obwohl der Begriff einen engen Bezug zu Leistungstests aufweist, kann er doch auch auf Persönlichkeitstests angewendet werden – obgleich er in diesem Fall nicht mit dem Alltagsverständnis von Schwierigkeit übereinstimmt. Bei der Testkonstruktion wird oft eine breitere Streuung der Schwierigkeiten angestrebt, damit der Testwert über das gesamte Spektrum zwischen Personen mit verschiedenen Merkmalsausprägungen differenziert.

Selbstbeobachtung

Bei der Selbstbeobachtung sind Beobachter/in und beobachtete Person identisch.

Selektives Codieren

ist der dritte Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. Dabei werden die axialen Kategorien untereinander in Beziehung gesetzt und zu einem Gesamtmodell bzw. einer Theorie integriert. Im Mittelpunkt steht dabei die Basis- bzw. Kernkategorie, um die herum sich die anderen Kategorien gruppieren. Hier findet also die eigentliche Theorienbildung statt.

Semiotik

ist die Lehre von den Zeichen. Sie eignet sich zur Analyse von verbalen und visuellen Daten.

Spontanaktivität

Bei der Spontanaktivität handelt es sich um ständig auftretende rhythmische Potenzialänderungen mit einer Frequenz von 0,5 bis maximal 100 Hz und Amplituden von 1 bis 100 µV (Mikrovolt).

Standardisiertes Interview

in dieser Art von Interview sind Wortlaut und Reihenfolge der Interviewfragen vorab festgelegt und für alle Teilnehmenden gleich. Wenn dabei offene Fragen gestellt werden, die in eigenen Worten beantwortet werden sollen, handelt es sich um ein qualitatives standardisiertes Interview

Statistische Validität

beurteilt die Güte der Auswahl und Anwendung statistischer Verfahren und die Interpretation ihrer Ergebnisse. Sie wird u. a. durch die Verletzung der Anwendungsvoraussetzungen der statistischen Tests beeinträchtigt.

Stetige Merkmale

Ein Merkmal, das prinzipiell unendlich viele Ausprägungen annehmen kann und keine Erfassung der Häufigkeit in ganzen Zahlen zulässt, wird als stetig bzw. kontinuierlich bezeichnet. Kontinuierliche Merkmale wie z. B. die Körpergröße können nicht gezählt, wohl aber gemessen werden.

Stichprobe

Unter einer Stichprobe versteht man eine Teilmenge aus einer Grundgesamtheit, die unter bestimmten Gesichtspunkten (gemäß der Fragestellung) ausgewählt wurde.

Struktur-Lege-Verfahren

dienen der Rekonstruktion subjektiver Theoriestrukturen. Sie beinhalten Relationen, mit denen sich Theorieinhalte untereinander verbinden lassen, und Regeln zur grafischen Darstellung der Theoriestruktur. Es existieren verschiedene Struktur-Lege-Verfahren für unterschiedliche Wissensbereiche: Verfahren zur Rekonstruktion von Definitions- und empirischem Wissen (z. B. Heidelberger Struktur Lege-Technik, SLT), von Handlungswissen (z. B. Weingartener Appraisal Legetechnik, WAL) und von Bewertungen (Ziel-Mittel-Argumentation, ZMA).

Subjektive Theorien

stammen als Begriff aus dem Forschungsprogramm Subjektive Theorien. Sie bestehen aus Konzepten und Relationen zwischen den Konzepten und weisen zumindest eine implizite Argumentationsstruktur auf. Sie sind im Dialog-Konsens aktualisier- und rekonstruierbar (Phase der Kommunikativen Validierung) und erfüllen die Funktionen der Erklärung, Prognose und Technologie. Ob sie auch als ‚objektive’ Erkenntnis akzeptierbar sind, ist jeweils gesondert zu prüfen (Phase der explanativen Validierung).

Systematische Variation

Eine potenzielle Störvariable dadurch kontrolliert, dass sie zu einer weiteren UV gemacht wird (Kontrollfaktor).

Teilnehmende Beobachtung

ist das wichtigste Verfahren der Datenerhebung im Rahmen der deskriptiven Feldforschung. Dabei wird das Forschungsteam selbst Teil des Feldes, nimmt also im Feld eine aktive Rolle innerhalb der untersuchten Kultur ein. Diese Methode dient dazu, das Feld aus der Innenperspektive kennen zu lernen.

Teilnehmende Beobachtung

ist eine Form der nonstandardisierten Beobachtung. Dabei übernehmen die Forschenden aktiv eine Rolle im Feld, werden also selbst zu einem Mitglied des Feldes, das den Forschungsgegenstand darstellt.

Test

Ein Test ist ein wissenschaftliches Routineverfahren zur Untersuchung eines oder mehrerer empirisch unterscheidbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst genauen quantitativen Aussage über den relativen Grad der individuellen Merkmalsausprägung. Ein Test besteht in der Regel aus mehreren Aufgaben oder Fragen (Items), die von verschiedenen Menschen mit unterschiedlichen Fähigkeiten oder Eigenschaften unterschiedlich gelöst bzw. beantwortet werden. In einem abstrakteren methodischen Sinn wird ein Test auch als eine standardisierte Verhaltensstichprobe definiert, die aus Antworten auf eine Mehrzahl von Items besteht. Aus den Antworten wird der Testwert der untersuchten Person aggregiert.

Theoretische Sättigung

Theoretische Sättigung ist das Abbruchkriterium im Rahmen der Gegenstandsbezogenen Theoriebildung. Die Untersuchung wird beendet, wenn eine Einbeziehung zusätzlicher Fälle keine weitere Modifikation der Theorie erfordert. Die Theorie gilt dann als gesättigt.

Theoretische Stichprobenziehung

Es handelt sich um ein Bottom-up-Verfahren der bewussten Fallauswahl, das in der Grounded Theorie entwickelt wurde. Ziel ist es, einen Gegenstandsbereich in seiner Variabilität abzubilden. Die Fallauswahl erfolgt nach den Prinzipien der maximalen Ähnlichkeit und der maximalen Differenz, bis eine gesättigte Theorie erreicht ist.

Theoretisch-inhaltliche Hypothese (TIH)

nennt man eine Hypothese, bei welcher noch keine Operationalisierung ihrer abstrakten Variablen vorgenommen wurde.

Tiefeninterview (auch Intensivinterview)

ist ein nonstandardisiertes Interview mit dem Ziel, unbewusste Prozesse und Motive der befragten Personen aufzuklären.

Top down-Verfahren der bewussten Stichprobenziehung

Dies sind Verfahren der bewussten Fallauswahl, bei denen die Kriterien für die Zusammensetzung der Stichprobe vor Untersuchungsbeginn festgelegt werden, z. B. qualitative Stichprobenpläne, Auswahl bestimmter Arten von Fällen.

Transkription

von Datenmaterial bedeutet, es von einer auditiven in eine schriftliche Form zu überführen. Die Transkription kann vollständig oder selektiv erfolgen; sie kann sich auf die Inhalte beschränken oder auch para- und nonverbale Elemente enthalten.

Transkriptionssysteme

regeln die Wiedergabe paraverbaler Elemente durch Symbole. Sie legen außerdem fest, wie die Beiträge mehrerer Sprecher/innen auf der Seite angeordnet sind.

Trennschärfe von Testitems

ist zu entnehmen, wie gut das gesamte Testergebnis aufgrund der Beantwortung dieses einzelnen Items vorhersagbar ist. Damit gibt diese an, wie gut ein einzelnes Item den gesamten Test repräsentiert. Somit erreichen Personen, die einen hohen (niedrigen) Gesamttestwert aufweisen, auf einem trennscharfen Einzelitem ebenfalls einen hohen (niedrigen) Wert.

Triangulation

Unter Triangulation im weiteren Sinne versteht man das Einnehmen unterschiedlicher Perspektiven auf denselben Forschungsgegenstand. In der Methodenliteratur bezeichnet Triangulation die Erhebung von Daten zu einem Gegenstand unter Anwendung von (mindestens) zwei verschiedenen Methoden.

Triangulationsdesign

ist ein Mixed-Methods-Design. Es ist dadurch gekennzeichnet, dass zeitgleich qualitative und quantitative Verfahren der Datenerhebung zur Anwendung kommen; die Daten beziehen sich auf denselben Untersuchungsgegenstand, und es kommt ihnen dasselbe Gewicht zu.

Türhüter (auch: Gatekeeper)

Der Begriff stammt aus der deskriptiven Feldforschung und bezeichnet eine Person aus einer anderen Kultur, die bereit ist, die Forschenden in diese Kultur einzuführen.

Typenbildung

Ziel der Typenbildung ist es, einander ähnliche Fälle zu identifizieren und so zu Gruppen bzw. Typen zusammenzufassen, dass die Fälle innerhalb eines Typus einander möglichst ähnlich sind und die Typen untereinander sich dagegen möglichst stark unterscheiden.

Typischer Fall

Bei diesem weist das interessierende Phänomen eine Ausprägung auf, wie sie auch für die anderen Fälle in der Grundgesamtheit charakteristisch ist.

Typologie

Eine Typologie besteht aus mehreren Typen und ihrer Relation untereinander. Eine Typologie ist eine bestimmte Art und Weise, einen Gegenstandsbereich im Hinblick auf Ähnlichkeit und Unterschiede zu strukturieren.

Typus

Ein Typus besteht aus mehreren Fällen, die sich aufgrund von Ähnlichkeit im Hinblick auf verschiedene Merkmale oder Eigenschaften zusammenfassen lassen.

Umfrageforschung

Die Umfrageforschung sammelt standardisierte Informationen zu einem spezifischen Fragegegenstand (Wahl, Produktbeliebtheit, Irakkrieg usw.) indem eine repräsentative Stichprobe der jeweiligen Population befragt (interviewt) wird.

Validität (Gültigkeit)

beurteilt eine quantitative Untersuchung danach, ob sie auch gemessen hat, was sie messen wollte. Ursprünglich beurteilte dieser Qualitätsmaßstab ein diagnostisches Messinstrument, z. B. einen Intelligenztest, danach, ob es misst, was es zu messen vorgibt, also ob ein Intelligenztest tatsächlich Intelligenz und nicht etwa Frustrationstoleranz misst.

Variable

Eine Variable ist eine veränderliche Beobachtungsgröße. Diese veränderlichen Beobachtungsgrößen sind aus dem Bereich des menschlichen Erlebens, Verhaltens und Handelns. Jede Variable hat mindestens zwei, in der Regel viele Ausprägungen (Hussy & Jain, 2002).

Verdeckte Beobachtung

Hier wissen die beobachteten Personen nicht, dass sie Gegenstand einer Beobachtung sind. Die verdeckte Beobachtung wirft erhebliche ethische Probleme auf.

Versuchsplan

Unter einem Versuchsplan versteht man eine möglichst konkrete Handlungsanweisung zur Erhebung von Daten zum Zweck der ökonomischen, validen und präzisen experimentellen Hypothesenprüfung. Die Konkretisierung erfolgt auf der Grundlage einer zugehörigen Versuchsplananlage und mithilfe folgender vier Entscheidungen, die die Bedingungen angeben, unter welchen die Vpn beobachtet werden: 1. vollständige oder teilweise Realisierung der angelegten Zellen, 2. Bestimmung der Anzahl der Beobachtungen pro Zelle, 3. interindividuelle oder intraindividuelle Bedingungsvariation, 4. randomisierte oder nichtrandomisierte Zuordnung der Vpn zu den Zellen.

Versuchsplananlage (VPL-A)

Darunter wollen wir eine Menge von bewährten Schemata zur Anordnung von unabhängigen Variablen (Faktoren) und ihren Ausprägungen (Stufen) verstehen, mit deren Hilfe eine möglichst informationshaltige und gleichzeitig ökonomische symbolische Repräsentation der Variablenausprägungen (Faktorstufen) erreicht werden kann. (Hager, 1987, S. 56)

Vollständiges interindividuelles Ausbalancieren

Hier werden alle möglichen Reihenfolgen der experimentellen Bedingungen realisiert. Man ordnet jeder denkbaren Abfolge mindestens eine Versuchsperson per Zufall zu.

Vorhersagen (Prognosen)

Vorhersagen (Prognosen) sind vorwärts gerichtete Erklärungen. Derselbe Bedingungszusammenhang, den man annimmt, um einen Sachverhalt zu erklären, dient dazu, das Eintreten eines zukünftigen Sachverhalts zu prognostizieren (Nolting & Paulus, 2008).

Wissenschaft

Unter einer Wissenschaft versteht man die Gesamtheit von Erkenntnissen, die auf einen Erkenntnisgegenstand bezogen sind und in einem Begründungszusammenhang stehen. Einzelwissenschaften beziehen sich auf umgrenzte Themenbereiche: z. B. Neurologie, Psychologie, Soziologie. Kennzeichnend für Wissenschaften sind methodisch begründete Vorgehensweisen, d. h. intersubjektiv nachvollziehbare Prozesse des Forschens und Erkennens (Wenninger, 2001).

Wissenschaftliche Beobachtung

ist die systematische und regelgeleitete Registrierung des Auftretens bzw. der Ausprägung von ausgewählten, psychologisch relevanten Merkmalen oder Ereignissen. Sie folgt einem zuvor festgelegten Beobachtungsplan, der festlegt, 1. was beobachtet werden soll (Kategorien für das/die interessierende/n Ereignis/se oder Merkmal/e); 2. welche Aspekte weniger oder nicht relevant sind; 3. welchen Interpretationsspielraum der Beobachtende bei der Beobachtung hat; 4. wann, wie lange und wo die Beobachtung erfolgt (Zeitpunkte, Zeiträume, Situationen); 5. auf welche Weise das Beobachtete registriert und protokolliert wird.

Wissenschaftliches Handeln als Problemlösen

Aus allgemeinpsychologischer Sicht stellt wissenschaftliches Handeln somit ein Beispiel für einen Problemlöseprozess dar. Nach Hussy (1998) liegt ein Problem vor, wenn ein gegebener Ausgangszustand (eine vorläufige Antwort auf eine Frage) in einen Zielzustand (geprüfte Aussage) überführt werden soll, wobei eine Barriere diese Überführung erschwert.

Wissenschaftstheorie

Bei der Wissenschaftstheorie handelt es sich um jene Disziplin, die sich mit dem Begriff und der Einteilung von Wissenschaften, ihren Erkenntnisprinzipien und Methoden, sowie ihrer Sprache beschäftigt (Wenninger, 2001).

Zeichen

Ein Zeichen ist etwas, das für etwas anderes stehen bzw. dieses andere anzeigen oder bedeuten kann.

Ziel jeder wissenschaftlichen Tätigkeit

ist, allgemein gesagt, das Generieren von beständigem Wissen. Psychologie als Wissenschaft möchte Erkenntnisse zu ihrem Gegenstandsbereich schaffen, möchte Antworten auf Fragen geben, die das menschliche Erleben, Verhalten und Handeln betreffen.

Zufällige Variation

Hier realisiert der Versuchsleiter möglichst viele Ausprägungsgrade der potenziellen Störvariablen und ordnet die Probanden diesen per Zufall zu, damit es nicht zu einer systematischen Variation mit den Stufen der UV und damit auch nicht zu einer Konfundierung kommt.

Zurück zur Übersicht