A-Z Navigation
Begriff Erklärung
α-Fehler

Der α-Fehler, auch Fehler 1. Art, bezeichnet die Fehlentscheidung, die H1 anzunehmen, obwohl in Wirklichkeit die H0 gilt

α-Fehler-Kumulierung

Erhöhung des Gesamt-α-Fehlers durch die statistische Überprüfung einer Hypothese mittels mehrerer einzelner Tests

Abhängige Variable

Die gemessene Variable, deren Abhängigkeit von einer oder mehreren unabhängigen Variablen untersucht werden soll

Alternativhypothese (H1)

Die Alternativhypothese nimmt einen systematischen Effekt an. Sie umfasst all das, was die Nullhypothese nicht enthält

Alternativhypothese, gerichtete

Vorhersage eines systematischen Unterschieds zwischen Gruppen in eine bestimmte Richtung. Die Nullhypothese umfasst in diesem Fall auch die Unterschiede in die nicht vorhergesagte Richtung

Alternativhypothese, ungerichtete

Vorhersage eines systematischen Unterschieds zwischen Gruppen, unabhängig von der Richtung des Unterschieds

A posteriori

Berechnung von Kennwerten nach der Durchführung einer Untersuchung

A priori

Berechnung von Kennwerten vor der Durchführung einer Untersuchung

Arithmetisches Mittel

Das arithmetische Mittel gibt den Durchschnitt der Messwerte einer Verteilung an. Es ist das gebräuchlichste Maß der zentralen Tendenz

β-Fehler

Der β-Fehler, auch Fehler 2. Art, bezeichnet die Fehlentscheidung, die H0 anzunehmen, obwohl in Wirklichkeit die H1 gilt

b-Gewicht

Parameter der linearen Regressionsgleichung, der die Steigung der Geraden angibt. Er ist definiert als der Quotient aus der Kovarianz der untersuchten Merkmale und der Streuung der Prädiktorvariable

β-Gewicht

Standardisierung des b-Gewichts einer Regression an den Streuungen von Prädiktor und Kriterium. Das Gewicht gibt an, um wie viele Standardabweichungen sich das Kriterium pro Standardabweichung des Prädiktors verändert

Deskriptive Statistik

Statistische Methoden zur Beschreibung von Daten in Form von Grafiken, Tabellen oder einzelnen Kennwerten. Weitere Bezeichnung: beschreibende Statistik

Determinanten des t-Tests

α-Fehler, β-Fehler, Effekt und Stichprobenumfang bedingen sich gegenseitig in einem t-Test. Sind drei von ihnen festgelegt, ergibt sich der vierte Wert automatisch

Determinationskoeffizient

Der Determinationskoeffizient ist ein anschauliches Maß für die Stärke des Zusammenhangs zweier Variablen. Er gibt an, welcher Anteil der Variabilität der y-Werte (Kriteriumsvariable) durch die Verteilung der x-Werte (Prädiktor) aufgeklärt werden kann. Aus regressionsanalytischer Sicht ist der Determinationskoeffizient der Quotient aus Regressionsvarianz und Gesamtvarianz der y-Werte. Er kann aber ebenso durch Quadrierung der Korrelation gewonnen werden

Erwartungswert

Der Erwartungswert ist (in den hier besprochenen Fällen) der Mittelwert einer Stichprobenkennwerteverteilung. Bei erwartungstreuen Schätzungen ist er identisch mit dem Populationsparameter

Empirischer Effekt

Aus Daten berechneter Effekt, dient als Schätzer für Populationseffekte

Eta-Quadrat (η2)

Effektstärkenmaß. Gibt den Anteil der aufgeklärten Varianz an der Gesamtvarianz auf der Stichprobenebene mittels Quadratsummen an

Fehlervarianz

Siehe Residualvarianz, unsystematische Varianz oder Varianz „innerhalb“

Fishers Z-Transformation

Transformation, die Korrelationen auf Intervallskalenniveau überführt. Dadurch wird eine Mittelung mehrerer Korrelationen möglich

Freiheitsgrade

Freiheitsgrade bestimmen die Genauigkeit von Populationsschätzern und damit die Form von Verteilungen, die auf Schätzern basieren wie z. B. der t-Verteilung. Die Zahl der Freiheitsgrade gibt an, wie viele Werte theoretisch frei variieren können, wenn das Ergebnis bereits feststeht

G Power

Computerprogramm zur Berechnung von Teststärken, optimalen Stichprobenumfängen und empirischen Effektgrößen. ▶ Link zum Download auf www.lehrbuch-psychologie.de.

Inferenzstatistik

Teilbereich der Statistik, der sich mit der Überprüfung von Hypothesen durch Schlüsse von Stichproben auf Populationen beschäftigt. Weitere Bezeichnung: „schließende Statistik“

Inhaltliche Hypothese

Vorhersage auf der Basis von Theorien, dass ein (oder kein) Unterschied zwischen Gruppen/Bedingungen oder ein (oder kein) Zusammenhang zwischen verschiedenen Merkmalen besteht

Konfidenzintervall

Ein Konfidenzintervall gibt die Präzision eines Stichprobenergebnisses an. Es wird anhand des Standardfehlers und eines festgelegten Fehlerniveaus konstruiert

Korrelation

Standardisiertes Maß für den Zusammenhang zweier Variablen

Kovarianz

Unstandardisiertes Maß, welches das gemeinsame Abweichungsprodukt zweier intervallskalierter Variablen erfasst. Die theoretisch maximale Kovarianz ist durch das Produkt der beiden Merkmalsstreuungen bestimmbar

Kriteriumsvariable

Die abhängige Variable bei der Regression, d. h. das Merkmal, dessen Ausprägung vorhergesagt werden soll

Levene-Test der Varianzgleichheit

F-Test, testet die Varianzen der betrachteten Gruppen auf Varianzhomogenität, wird signifikant, wenn keine Varianzhomogenität vorliegt

Messwiederholung

Wiederholte Erhebung von Daten an denselben Personen. Untersucht die Frage, ob sich die Ausprägung eines Merkmals zu verschiedenen Messzeitpunkten unterscheidet. Statistische Verfahren mit Messwiederholung haben in der Regel eine höhere Teststärke im Vergleich zu entsprechenden Verfahren ohne Messwiederholung

Nonzentrale Verteilung

Verteilung eines Stichprobenkennwerts unter der Annahme der Alternativhypothese, meist nicht symmetrisch

Nonzentralitätsparameter λ (Lambda)

bestimmt die Form der nonzentralen Verteilung. Wird bei der Berechnung der Teststärke und bei der Stichprobenumfangsplanung benötigt

Normalverteilung

Eine unimodale Verteilung mit glockenförmigem Verlauf. Sie ist symmetrisch und nähert sich der x-Achse asymptotisch an. Dadurch sind die Werte für Median, Modus und arithmetisches Mittel identisch

Nullhypothese (H0)

Die Nullhypothese stellt die Basis bei der statistischen Bewertung eines Ergebnisses dar. Der Test der Nullhypothese liefert eine Entscheidung darüber, ob die Nullhypothese verworfen und damit die Alternativhypothese angenommen werden kann oder nicht. Beim t-Test und der ANOVA besagt die Nullhypothese im Regelfall, dass kein Unterschied zwischen den untersuchten Gruppen existiert.

Omega-Quadrat (Ω2, ω2)

Effektstärkenmaß auf Populationsebene. Gibt den Anteil der von einem bestimmten Effekt aufgeklärten Varianz auf der Populationsebene an. Ω2 ist der Populationseffekt, ω2 der Schätzer dieses Populationseffekts

Parameter

Ein statistischer Kennwert wie das arithmetische Mittel oder die Varianz, für deren Berechnung die Intervallskaliertheit der Daten Voraussetzung ist. Parameter beziehen sich immer auf die Population

Parametrische Verfahren

Diese arbeiten mit Merkmalsverteilungen und können nur bei mindestens intervallskalierten Daten mit bestimmten Verteilungseigenschaften angewendet werden

Partialkorrelation

Korrelationstechnik, die es gestattet, den Einfluss einer Dritt- bzw. Störvariable aus dem Zusammenhang zweier Merkmale heraus zu rechnen

Phi-Koeffizient

Korrelationskoeffizient zweier dichotomer Variablen und Effektstärkenmaß für den Vierfelder Chi-Quadrat-Test

Population

Die klar definierte Menge aller Personen, die für einen Forscher von Interesse sind. Sie kann sehr weitläufig (alle lebenden Menschen) oder sehr eng definiert sein (alle Studierenden in der ersten Reihe des Hörsaals)

Prädiktorvariable

Die unabhängige Variable bei der Regression, die zur Vorhersage der abhängigen Variable (Kriterium) eingesetzt werden soll

Produkt-Moment-Korrelation

Standardisiertes Maß der bivariaten Deskriptivstatistik, das den Zusammenhang zweier intervallskalierter Variablen beschreibt. Gibt den Anteil der empirischen Kovarianz an der theoretisch maximalen Kovarianz an. Der Wertebereich der Korrelation reicht von –1 bis +1

Punktbiseriale Korrelation

Gibt den Zusammenhang zwischen einer nominalskalierten, zweistufigen Variable und einer intervallskalierten Variable an

Punkteschwarm, -wolke

Siehe Streudiagramm

Rangkorrelation

Korrelation für ordinalskalierte Variablen. Die Rangkorrelation nach Spearman liefert einen Wert zwischen –1 und +1, der angibt, inwiefern sich zwei Rangreihen entsprechen

Regression(sanalyse), einfache

Mathematisches Verfahren, welches die empirischen Verteilungen eines Prädiktormerkmals x und eines Kriteriumsmerkmals y dergestalt miteinander in Beziehung setzt, dass eine Regressionsgleichung resultiert, welche die Vorhersage von y aus x ermöglicht. Die Güte einer Regression ist abhängig vom tatsächlichen Zusammenhang zweier Merkmale

Regression(sanalyse), multiple

Eine Erweiterung der einfachen Regression um mindestens einen weiteren Prädiktor. Mit diesem Verfahren kann der eigenständige Einfluss der einzelnen Prädiktoren im Kontext der anderen ermittelt werden

Regressionsgerade

Die Regressionsgleichung y = b · x + a einer linearen Regression kann grafisch in Form einer Geraden veranschaulicht werden. Anhand dieser lässt sich für jeden x-Wert der von der Regression vorhergesagte y-Wert ablesen

Regressionsgewicht, Regressionskoeffizient

Die Steigung einer Regressionsgeraden. Man unterscheidet unstandardisierte und standardisierte Regressionsgewichte. Letztere sind von der Skalierung der untersuchten Merkmale unabhängig

Regressionsvarianz

Varianz der vorhergesagten Kriteriumswerte einer Regression. Regressionsvarianz und Fehlervarianz summieren sich zur Gesamtvarianz der empirischen y-Werte auf

Residualvarianz

Siehe auch unsystematische Varianz oder Varianz „innerhalb“. In der Regression: Gemittelte Abweichung der empirischen Werte von den von der Regression vorhergesagten Werte. Die Residualvarianz ist derjenige Varianzanteil, welcher nicht durch die Regressionsgleichung abgedeckt werden kann

Robustheit

Ein statistischer Test ist umso robuster, je weniger Einfluss die Verletzung der mathematischen Voraussetzungen auf die Güte des Ergebnisses hat

Scheinkorrelation

Zusammenhang zweier Variablen, der darauf beruht, dass beide Variablen von einer dritten Variable kausal beeinflusst werden. Zwischen den interessierenden Variablen herrscht aber keine Kausalität

Signifikanz

Ein Ergebnis ist signifikant, wenn seine Auftretenswahrscheinlichkeit unter der Nullhypothese kleiner ist als ein gewähltes Signifikanzniveau. Bei einem signifikanten Ergebnis erfolgt eine Entscheidung für die Alternativhypothese und gegen die Nullhypothese

Signifikanzniveau

Entscheidungsgrenze in einem statistischen Auswertungsverfahren; gibt an, wie groß die α-Fehlerwahrscheinlichkeit eines Ergebnisses höchstens sein darf, um sich für die Alternativhypothese zu entscheiden. Es liegt meistens bei α = 0,05

Skala

Ein Set von Regeln, das die Zuordnung von Zahlen zur Qualität oder Quantität einer Variable regelt. Dieses Buch behandelt vier verschiedene Skalentypen: Nominalskala, Ordinalskala, Intervallskala und Verhältnisskala

Standardabweichung oder Streuung

Die Standardabweichung oder Streuung ist die positive Wurzel aus der Varianz und somit die korrigierte durchschnittliche quadrierte Abweichung jedes einzelnen Werts vom Mittelwert

Standardfehler

Maß für die Güte eines Populationsparameters durch einen Stichprobenkennwert. Die Schätzung wird umso präziser, je größer die Stichprobe ist

Standardnormalverteilung

Normalverteilung mit dem Mittelwert µ = 0 und der Streuung σ = 1

Standardschätzfehler

Die Wurzel aus der Fehlervarianz einer Regression. Er ist ein (unstandardisiertes) Maß für die Güte und Genauigkeit einer Regression

Statistische Hypothese

Übersetzung der inhaltlichen Hypothese in eine mathematische Schreibweise

Stichprobe

Teilmenge einer Population. Der größte Teil psychologischer Forschung findet an Stichproben statt

Stichproben, abhängige

Die Elemente zweier Stichproben sind paarweise einander zugeordnet und beeinflussen sich gegenseitig. Ein typischer Fall für abhängige Stichproben ist die Messwiederholung

Stichprobenkennwerteverteilung

Wahrscheinlichkeitsverteilung aller möglichen Ausprägungen eines Stichprobenkennwerts

Stichprobenumfangsplanung

Bestimmt die optimalen Stichprobenumfänge eines Tests nach Festlegung eines Effekts und einer Teststärke mithilfe des Nonzentralitätsparameters λ. Nach einer solchen Planung ist jedes Ergebnis des Tests eindeutig interpretierbar

Stochastischer Zusammenhang

Unvollständiger Zusammenhang, der nur annäherungsweise durch eine Funktion ersetzt werden kann. Bei der Vorhersage anhand der Regression treten Vorhersagefehler auf, d. h., empirische Werte und theoretische Werte weichen voneinander ab

Streudiagramm

Grafische Darstellung aller Messwertepaare (xi/yi) zweier Merkmalsverteilungen in einem Koordinatensystem. Die sich ergebende Punktwolke gibt grobe Auskunft über einen eventuellen Zusammenhang zwischen den beiden Variablen

Streuung

Siehe Standardabweichung

Systematischer Effekt

Größe des Unterschieds zwischen untersuchten Gruppen oder Ausmaß des Einflusses der experimentellen Variation

Systematische Varianz

Anteil der Gesamtvarianz, dem ein systematischer Einfluss zugrunde liegt. Maß für die Variation von Stichprobenmittelwerten

Transformation

Mathematische Umformung nach einer bestimmten Formel

Teststärke

Wahrscheinlichkeit, ein signifikantes Testergebnis zu erhalten, falls ein Effekt einer bestimmten Größe in der Population tatsächlich existiert. Sie ist die Gegenwahrscheinlichkeit zur β-Fehlerwahrscheinlichkeit

t-Test

Statistisches Auswertungsverfahren für den Vergleich zweier Gruppenmittelwerte. Der t-Test prüft mithilfe des t-Werts, ob eine empirische Mittelwertsdifferenz signifikant von null verschieden ist oder ob sie auf Zufall beruht. Er ist ein parametrischer Test (siehe parametrische Verfahren). Es gibt einen t-Test für unabhängige und abhängige Stichproben sowie für eine einzige Stichprobe.

t-Verteilung

Verteilung des t-Werts, dient zur Bestimmung der Wahrscheinlichkeit des t-Werts unter der Nullhypothese. Ihre Form ist von der Anzahl ihrer Freiheitsgrade abhängig, bei hohen Freiheitsgraden geht sie in eine Standardnormalverteilung über

t-Wert

Standardisierte Differenz zweier Stichprobenmittelwerte

t-Wert, empirischer

Der t-Wert wird für eine empirische Mittelwertsdifferenz berechnet und ordnet dieser Differenz eine Auftretenswahrscheinlichkeit zu. Die Größe des t-Werts ist abhängig von der Größe der Differenz, der Streuung des Merkmals in der Population und der Stichprobengröße

t-Wert, kritischer

Der kritische t-Wert schneidet die Fläche unter der Kurve der t-Verteilung ab, die dem gewählten Signifikanzniveau entspricht. Er erlaubt eine direkte Einordnung des empirischen t-Werts

Unabhängige Stichproben

Die Werte der einen Stichprobe haben in keiner Weise Einfluss auf die Werte der zweiten Stichprobe

Unabhängige Variable

Die vom Forscher manipulierte Variable (Gruppiervariable) bzw. die zur Vorhersage herangezogene Prädiktorvariable

Unsystematische Varianz

Variation der Werte innerhalb einer Bedingung, die nicht auf die experimentelle Manipulation zurückzuführen ist. Auch als Residualvarianz oder Varianz „innerhalb“ bezeichnet

Varianz

Wichtigstes Dispersionsmaß in der Statistik. Sie berechnet sich aus der Summe der quadrierten Abweichungen aller Messwerte vom arithmetischen Mittel, dividiert durch die Anzahl aller Messwerte minus eins

Varianzhomogenität

Die Varianzen eines Merkmals oder Fehlers in einer Bedingung bzw. Gruppe werden in der Population als gleich angenommen. Sie ist Voraussetzung für viele statistische Verfahren wie z. B. für den t-Test und die Varianzanalyse

Zentrale Verteilung

Verteilung eines Stichprobenkennwerts unter der Annahme der Nullhypothese

Zurück zur Übersicht