A-Z Navigation
Begriff Erklärung
Abhängige Messungen

Abhängige Messungen entstehen durch Messwiederholung an derselben Stichprobe oder durch gepaarte (gematchte) Stichproben. Sie zeichnen sich durch eine kleinere Fehlervarianz aus, da Störvariablen hier weniger Einfluss haben als bei unabhängigen Messungen.

Allgemeines Lineares Modell (ALM)

Das ALM spannt sich wie eine Art mathematischer Schirm über fast alle Arten von Signifikanztests und vereint die in verschiedenen Tests auftauchenden Berechnungen. Es führt alle Testverfahren auf lineare Zusammenhänge zwischen Variablen zurück, welche sich durch eine Regressionsgerade beschreiben lassen. Die Gleichung des ALM sagt aus, dass sich der konkrete Messwert einer Person aus einer Regressionskonstante, dem Einfluss einer Reihe von Prädiktoren und einem Fehler zusammensetzt.

Alpha-Fehler (Fehler erster Art)

Der Alpha-Fehler ist die Wahrscheinlichkeit, mit der man beim Signifikanztesten aufgrund eines Stichprobenergebnisses fälschlicherweise die Alternativhypothese annimmt und die Nullhypothese verwirft (obwohl diese eigentlich in der Population gilt).

Alternativhypothese

Die Alternativhypothese (auch als H1 bezeichnet) als Teil des Signifikanztests beschreibt den Effekt (Unterschied, Zusammenhang), den man als mindesten oder interessanten Effekt für die Population annimmt.

Anpassungstest

Der Anpassungstest prüft, ob eine empirische Häufigkeitsverteilung mit einer theoretisch zu erwartenden Häufigkeitsverteilung übereinstimmt. Die zu erwartende Verteilung kann einer Gleichverteilung, einer Normalverteilung oder einer beliebigen anderen Form von Verteilung entsprechen, welche sich aus theoretischen Überlegungen oder praktischen Erfahrungen ergeben kann.

Beta-Fehler (Fehler zweiter Art)

Der Beta-Fehler ist die Wahrscheinlichkeit, mit der man beim Signifikanztest aufgrund eines Stichprobenergebnisses fälschlicherweise die Nullhypothese annimmt und die Alternativhypothese verwirft (obwohl diese eigentlich in der Population gilt).

Boxplot

Ein Boxplot ist eine Form der grafischen Darstellung von Daten. Es bildet die Verteilung einer einzelnen Variable ab. Im Boxplot sind Median und Interquartilsabstand abgetragen. Es bietet eine gute Möglichkeit, die Rohdaten unverzerrt darzustellen und Ausreißer zu identifizieren. Das Boxplot ist Teil der explorativen Datenanalyse.

Chi-Quadrat-Tests

Chi-Quadrat-Tests sind non-parametrische Tests zur Analyse von Häufigkeiten oder Verteilungen.

Deskriptive Statistik

Die deskriptive (beschreibende) Statistik vereint alle Methoden, mit denen empirische Daten zusammenfassend dargestellt und beschrieben werden können. Dazu dienen Kennwerte, Grafiken und Tabellen.

Determinationskoeffizient

Der Determinationskoeffizient r² gibt das Ausmaß der Varianzaufklärung einer Variable Y durch eine Variable X an. Er kann maximal 1 betragen, was einer Varianzaufklärung von 100 Prozent entspricht.

Effekt

Als Effekt bezeichnet man die Wirkung einer unabhängigen Variable auf eine abhängige Variable. Effekte lassen sich in Form von Unterschieden oder Zusammenhängen beschreiben.

Effektgröße (Effektstärke)

Effektgrößen sind standardisierte Maße für die Größe eines Effektes. Sie sind über Stichproben und Themenbereiche hinweg vergleichbar. Man kann Abstandmaße (z.B. d und g) und Zusammenhangsmaße (z.B. r) unterscheiden.

Einseitige Tests

Von einseitigem Testen spricht man, wenn man eine Hypothese testet, die eine Annahme über die Richtung des Effektes beinhaltet (z.B., Gruppe A sollte höhere Werte haben als Gruppe B; der Zusammenhang zwischen X und Y sollte negativ sein).

Einzelvergleiche (Post-hoc-Tests)

Im Anschluss an Varianzanalysen prüfen Einzelvergleiche, welche Faktorstufen sich signifikant voneinander unterscheiden. Sie funktionieren im Prinzip wie einzelne t-Tests. Allerdings wird hier die Alpha-Fehler-Kumulation berücksichtigt, indem diese Einzelvergleiche eine sogenannte Alpha-Korrektur erhalten.

Erwartungswert

Der Erwartungswert einer bestimmten Variable ist der Wert, den man in der Population erwarten würde, also eine Schätzung des Populationsparameters. Beispielsweise wird der Mittelwert einer Stichprobe als Erwartungswert für den Mittelwert in der Population benutzt.

Experiment

Experimente sind künstliche Eingriffe in die natürliche Welt mit dem Ziel, systematische Veränderungen in einer unabhängigen Variable (UV) herzustellen, die ursächlich zu einer Veränderung in einer abhängigen Variable (AV) führen sollen. Alternativerklärungen werden dabei ausgeschlossen.

Explorative Statistik

Die explorative Statistik untersucht Daten mit Hilfe geeigneter Darstellungen und Berechnungen nach besonderen Mustern, Auffälligkeiten oder Zusammenhängen.

F-Test

Der F-Test ist der Signifikanztest der Varianzanalyse. Er prüft das Verhältnis von aufgeklärter zu nicht aufgeklärter Varianz. Er wird auch dafür verwendet Regressionsmodelle inferenzstatistisch zu prüfen.

Gesetz der großen Zahl

Das Gesetz der großen Zahl beschreibt folgenden Zusammenhang: Je größer eine Stichprobe ist, desto stärker nähert sich die Verteilung einer Variable der wahren Verteilung in der Population an.

Haupteffekt

Im Zuge der mehrfaktoriellen Varianzanalyse beschreiben Haupteffekte neben der Interaktion zwischen verschiedenen UVs den isolierten Effekt der einzelnen UVs auf die AV.

Inferenzstatistik

Ziel der Inferenzstatistik sind Schlüsse von einer Stichprobe auf eine Population sowie Aussagen über die Güte dieser Schlüsse. Typische interenzstatistische Verfahren sind Standardfehler, Konfidenzintervalle und Signifikanztests.

Interaktion

Im Zuge der mehrfaktoriellen Varianzanalyse beschreibt die Interaktion neben den Haupteffekten der einzelnen UVs die Wechselwirkung zwischen verschiedenen UVs auf die AV. Man spricht auch von bedingten Mittelwertsunterschieden.

Irrtumswahrscheinlichkeit (Alpha, Signifikanzniveau)

Die Irrtumswahrscheinlichkeit ist die Wahrscheinlichkeit eines Ergebnisses (unter Annahme der Nullhypothese), ab der man nicht mehr bereit ist, die Nullhypothese zu akzeptieren. Empirisch gefundene Ergebnisse, deren Wahrscheinlichkeiten kleiner als diese festgelegte Irrtumswahrscheinlichkeit sind (p < ?), werden als signifikant bezeichnet und führen zur Ablehnung der Nullhypothese. Die Irrtumswahrscheinlichkeit entspricht damit auch der Wahrscheinlichkeit, mit der man beim Ablehnen der Nullhypothese einen Fehler (Alphafehler) macht.

Konfidenzintervall

Ein Konfidenzintervall im Rahmen der Inferenzstatistik ist ein Wertebereich, bei dem man darauf vertrauen (konfident sein) kann, dass er den wahren Wert in der Population mit einer gewissen Wahrscheinlichkeit (der Vertrauenswahrscheinlichkeit) beinhaltet.

Korrelation (auch Pearson-Korrelation oder Produkt-Moment-Korrelation)

Die Korrelation beschreibt das Ausmaß des linearen Zusammenhangs zweier Variablen. Man spricht auch von einem bivariaten Zusammenhang bzw. von einer bivariaten Korrelation. Die Größe des Zusammenhangs wird in standardisierter Form ausgedrückt, ist daher unabhängig von der ursprünglichen Skalierung der Variablen und kann Werte zwischen -1 und +1 annehmen. Man erhält die Korrelation durch Standardisierung der Kovarianz.

Kovarianz

Die Kovarianz gibt das Ausmaß des Zusammenhangs zweier Variablen in deren natürlicher Maßeinheit an, also nicht in standardisierter Form. Sie beschreibt das Ausmaß, in welchem zwei Variablen gemeinsam variieren.

Kreuztabelle (Kontingenztafel)

Kreuztabellen oder Kontingenztafeln bilden die verschiedenen Kombinationen der Ausprägungen nominalskalierter Variablen ab. Die Zellen enthalten die Häufigkeiten, mit denen die Merkmalskombinationen auftreten.

Latente Variablen (Konstrukte)

Variablen, die man nicht direkt messen kann, sondern erst mithilfe anderer Variablen erschließen muss, heißen latente Variablen. Die meisten Variablen in der Psychologie sind latent (etwa Intelligenz, Lernen, Aggression).

Manifeste Variablen

Variablen, die man direkt messen kann, heißen manifeste Variablen (z. B. Alter, Geschlecht).

Median (Md)

Der Median ist ein Maß zur Beschreibung der Lage einer Verteilung. Er ergibt sich, wenn man alle Werte einer Verteilung der Größe nach aufschreibt und den Wert sucht, der genau in der Mitte steht. Liegt die Mitte zwischen zwei Werten, so wird von diesen beiden Werten der Mittelwert gebildet.

Messen

Messen besteht im Zuordnen von Zahlen zu Objekten, Phänomenen oder Ereignissen – und zwar so, dass die Beziehungen zwischen den Zahlen die analogen Beziehungen der Objekte, Phänomene oder Ereignisse repräsentieren.

Mittelwert (M)

Der Mittelwert (auch arithmetisches Mittel, Durchschnitt, Mean genannt) ist ein Maß zur Beschreibung der Lage einer Verteilung. Er ist die Summe aller Einzelwerte der Daten, geteilt durch die Anzahl dieser Werte.

Modus (Modalwert)

Der Modalwert ist ein Maß zur Beschreibung der Lage einer Verteilung. Er gibt diejenige Merkmalsausprägung an, die am häufigsten vorkommt.

Multiple Regression

Die multiple Regression ist ein Analyseverfahren, welches direkt aus dem ALM folgt. Sie schätzt mithilfe der Ausprägungen auf mehreren Prädiktorvariablen den Wert einer Person auf einer Kriteriumsvariable. Die Formel für die multiple Regression besteht aus der Regressionskonstante und den Prädiktoren mit ihren Regressionskoeffizienten.

Multipler Determinationskoeffizient

Der multiple Determinationskoeffizient gibt den Anteil von Varianz des Kriteriums wieder, der im Zuge der multiplen Regression durch alle Prädiktoren gemeinsam erklärt wird. Er kann maximal 1 sein, was einer Varianzaufklärung von 100 Prozent entspricht.

Nonparametrische (verteilungsfreie) Testverfahren

Nonparametrische oder verteilungsfreie Testverfahren testen Zusammenhänge von Variablen oder Unterschiede zwischen Gruppen. Sie machen jedoch im Gegensatz zu parametrischen Testverfahren keine Annahmen, die sich auf die Verteilung der Messwerte in der Population beziehen, und eignen sich daher auch für Daten auf Nominal- und Ordinalskalenniveau.

Normalverteilung

Die Normalverteilung ist die Form, mit der sich die Verteilung vieler Merkmale in der Population (sowohl physiologische als auch mentale Merkmale) beschreiben lässt. Diese Verteilungsform ist symmetrisch und ähnelt einer Glocke, weshalb sie auch als Gauss’sche Glocke bezeichnet wird.

Nullhypothese

Die Nullhypothese (auch als H0 bezeichnet) als zentrale Idee des Signifikanztests behauptet, dass es in der Population keinen Effekt (Unterschied, Zusammenhang) gibt.

Operationalisierung

Die Operationalisierung gibt die Art und Weise an, wie ein Begriff oder eine psychologische Größe definiert, beobachtet und gemessen werden soll.

Parametrische Testverfahren

Parametrische Testverfahren testen Zusammenhänge von Variablen oder Unterschiede zwischen Gruppen. Sie setzen im Gegensatz zu nonparametrischen Testverfahren eine bestimmte Verteilung – meist eine Normalverteilung – der Messwerte in der Population voraus.

Population (Grundgesamtheit)

Die Begriffe Grundgesamtheit und Population beziehen sich auf die Gruppe von Menschen, für die eine bestimmte Aussage zutreffen soll (also entweder auf alle Menschen oder auf eine spezifische Subgruppe wie etwa Depressive oder Studierende).

Power

Siehe Teststärke

p-Wert

Der p-Wert ist die Wahrscheinlichkeit dafür, dass der in einer Stichprobe gefundene oder ein noch größerer Effekt auftreten konnte unter der Annahme, dass die Nullhypothese gilt. Er ist das zentrale Ergebnis des Signifikanztests.

Quadratsumme

Die Quadratsumme QS ist die Bezeichnung für die Summe quadrierter Differenzen. Sie ist ein Maß für die Streuung von Messwerten, welches noch nicht an der Größe der Stichprobe relativiert ist.

Quasiexperiment

Quasiexperimente sind Experimente, bei denen die Gruppeneinteilung von Natur aus vorgegeben und daher keine Randomisierung möglich ist (z.B. Raucher und Nichtraucher).

Randomisierung

Bei der Randomisierung werden die Versuchspersonen zufällig den verschiedenen Versuchsbedingungen (z.B. den Gruppen eines Experimentes) zugeteilt.

Rangkorrelationen

Rangkorrelationen sind die non-parametrischen Entsprechungen zur herkömmlichen Pearson-Korrelation. Sie korrelieren nicht die Rohwerte, sondern den Rohwerten zugewiesene oder echte Ränge. Die einzige Bedingung ist dabei, dass die Beziehung der beiden zu korrelierenden Variablen einer monotonen Steigung folgt.

Regression

Die Regression ist eine Vorhersageanalyse. Sie macht sich die Korrelation von Variablen zunutze, um die Werte der einen Variablen aus den Werten der anderen Variable vorherzusagen (zu schätzen). Die vorhersagende Variable wird dabei als Prädiktor, die vorhergesagte Variable als Kriterium bezeichnet.

Regressionsgewichte

In der Regression beschreiben die Regressionsgewichte den Einfluss eines Prädiktors auf die Vorhersage des Kriteriums. Bei der multiplen Regression gibt es mehrere Prädiktoren, und jeder Prädiktor erhält ein eigenes Regressionsgewicht, welches um den Einfluss anderer Prädiktoren bereinigt ist.

Robustes Testverfahren

Ein robustes Testverfahren ist zwar an bestimmte Voraussetzungen geknüpft (z.B. Normalverteilung der Daten), ist gegen Verletzungen dieser Voraussetzungen jedoch so unempfindlich, dass es trotzdem sehr gute Ergebnisse (man sagt auch erwartungstreue Schätzungen) liefert.

Signifikanz

Signifikanz heißt statistische Bedeutsamkeit und bezieht sich immer auf einen Effekt, den man in einer Stichprobe gefunden hat und auf die Population verallgemeinern möchte. Signifikante Ergebnisse werden als systematisch und nicht als zufällig erachtet. Signifikanz hat nichts mit inhaltlicher Bedeutsamkeit zu tun.

Signifikanztest

Der Signifikanztest als Methode der Inferenzstatistik liefert die Grundlage für eine Entscheidung zwischen gegensätzlichen Hypothesen. Auf der Grundlage von theoretischen Stichprobenverteilungen gibt er Auskunft darüber, ob die statistische Bedeutsamkeit eines Effektes groß genug ist, um ihn auf die Population zu verallgemeinern.

Skala

Der Begriff Skala beschreibt die Beschaffenheit des empirischen und des numerischen Relativs sowie eine Abbildungsfunktion, die die beiden verbindet. Dabei geht es um die Frage, wie das empirische Relativ (also das zu beschreibende Phänomen) durch ein numerisches Relativ (also durch Zahlen) sinnvoll repräsentiert werden kann.

Stamm-und-Blatt Diagramm

Ein Stamm-und-Blatt Diagramm ist eine Form der grafischen Darstellung von Daten. Es bildet die Verteilungen einer einzelnen Variable mit allen Rohwerten ab. Da jede Person in der Abbildung mit ihrem konkreten Wert auftaucht, gibt es keinerlei Informationsverlust. Es dient zum Erkennen von schiefen oder untypischen Verteilungen. Das Stamm-und-Blatt Diagramm ist Teil der explorativen Datenanalyse.

Standardabweichung

Die Standardabweichung s (oder auch SD für standard deviation) ist ein Maß zur Beschreibung der Streuung einer Verteilung. Sie ist die Wurzel aus der Varianz.

Standardfehler

Der Standardfehler ist die Standardabweichung der Stichprobenverteilung eines Kennwertes. Er quantifiziert die Ungenauigkeit bei der Schätzung von Populationsparametern mithilfe von Stichprobenkennwerten.

Standardnormalverteilung

z–Werte verteilen sich immer in einer ganz bestimmten Form, die als Standardnormalverteilung (z–Verteilung) bezeichnet wird. Sie ist durch die Form der Glockenkurve (Normalverteilung) gekennzeichnet und besitzt stets einen Mittelwert von 0 sowie eine Standardabweichung von 1.

Stichprobenverteilung

In einer Stichprobenverteilung als wichtigste Grundlage der Inferenzstatistik sind die Kennwerte (z.B. Mittelwerte, Anteile, Mittelwertsunterschiede, Korrelationen) vieler Stichproben bzw. Studien abgetragen. Sie bildet ab, wie sich die einzelnen Ergebnisse verteilen und wie oft bzw. mit welcher Wahrscheinlichkeit ein bestimmtes Ergebnis zu erwarten wäre. Während eine empirische Stichprobenverteilung die Ergebnisse einer endlichen Anzahl realer Studien abbildet, zeigt eine theoretische Stichprobenverteilung, wie sich die Ergebnisse verteilen würden, wenn man theoretisch unendlich viele Stichproben ziehen würde.

Streudiagramm (Scatterplot)

Das Streudiagramm ist eine Form der grafischen Darstellung von Zusammenhängen zwischen zwei Variablen. Im Streudiagramm ist jede Person durch einen Punkt vertreten und zwar an der Stelle, wo sich ihre Werte auf beiden Variablen kreuzen. Das Streudiagramm ist Teil der explorativen Datenanalyse.

Testen

Unter dem Begriff Testen versteht man die Untersuchung von Merkmalen einer Person. Mithilfe einer Zusammenstellung von Fragen oder Aufgaben (Items) sollen dabei die individuellen Merkmalsausprägungen möglichst quantitativ erfasst werden. Man kann grob zwischen Persönlichkeits- und Leistungstests unterscheiden.

Teststärke (Power)

Die Teststärke oder Power gibt die Wahrscheinlichkeit an, mit der ein in der Population tatsächlich vorhandener Effekt mithilfe eines Testverfahrens identifiziert werden kann, also zu einem signifikanten Ergebnis führt.

t-Tests

t-Tests sind eine Gruppe von Tests, die für verschiedene Fragestellungen verwendet werden können, bei denen Mittelwerte verglichen werden. Das Prinzip des t-Tests ist immer der Vergleich zweier Mittelwerte (aus unabhängigen oder abhängigen Stichproben oder ein Mittelwert, der gegen einen theoretisch zu erwartenden Mittelwert getestet wird).

Unabhängige Messungen

Unabhängig sind Messungen dann, wenn die Versuchsteilnehmer rein zufällig den verschiedenen Gruppen, die verglichen werden sollen, zugeordnet wurden und sich daher nicht gegenseitig beeinflussen.

Unabhängigkeitstest

Der Unabhängigkeitstest prüft für nominalskalierte Daten, ob die Ausprägung einer Variable unabhängig von der Ausprägung einer anderen Variable ist.

Variable

Variable ist eine Bezeichnung für eine Menge von Merkmalsausprägungen, wobei es mindestens zwei Ausprägungen geben muss.

Varianz

Die Varianz s² ist ein Maß zur Beschreibung der Streuung einer Verteilung. Sie ist die durchschnittliche quadrierte Abweichung aller Werte von ihrem gemeinsamen Mittelwert.

Varianzanalyse

Die Varianzanalyse (ANOVA = Analysis of Variance) untersucht die Unterschiede (Variation) der Mittelwerte von zwei oder mehr Gruppen. Sie prüft das Verhältnis zwischen erklärter Varianz (zwischen den Gruppen) und nicht erklärter Varianz (innerhalb der Gruppen) in den Daten. Ist die erklärte Varianz in diesem Verhältnis groß genug, führt das zu einem signifikanten Gruppenunterschied. Anstelle von verschiedenen Gruppen kann es sich dabei auch um verschiedene Messwiederholungen handeln.

Vertrauenswahrscheinlichkeit

Die Vertrauenswahrscheinlichkeit (Konfidenz) ist die Wahrscheinlichkeit, mit der man darauf vertrauen kann, dass ein bestimmtes Konfidenzintervall den wahren Wert in der Population beinhaltet.

Wissenschaftstheorie

Die Wissenschaftstheorie beschäftigt sich mit unterschiedlichen Weltbildern, deren verschiedenen Auffassungen über die Fähigkeit der Wissenschaft die Wahrheit aufzudecken, sowie den damit verbundenen Herangehensweisen an wissenschaftliche Fragestellungen.

Zentraler Grenzwertsatz

Der zentrale Grenzwertsatz besagt, dass die Verteilung einer großen Anzahl von Stichprobenergebnissen einer Normalverteilung folgt. Dies ist umso eher der Fall, je größer die einzelnen Stichproben sind.

z-Standardisierung

Mit Hilfe der z–Standardisierung lassen sich Messwerte von verschiedenen Skalen bzw. aus verschiedenen Stichproben vergleichbar machen, indem alle Ergebnisse auf eine einheitliche standardisierte z–Skala transformiert (umgerechnet) werden. Jedem Rohwert wird ein z–Wert zugeordnet, indem man vom Rohwert den Mittelwert aller Werte abzieht und die Differenz anschließend an der Streuung aller Rohwerte standardisiert.

Zweiseitige Tests

Von zweiseitigem Testen spricht man beim Testen von Hypothesen, die keine Annahme über die Richtung des Effektes enthalten (z.B., es gibt einen Unterschied zwischen Gruppe A und Gruppe B; es gibt einen Zusammenhang zwischen X und Y).

Zurück zur Übersicht