A-Z Navigation
Begriff Erklärung
α-Fehler-Kumulierung

Erhöhung des Gesamt-α-Fehlers durch die statistische Überprüfung einer Hypothese mittels mehrerer einzelner Tests

Abhängige Variable

Die gemessene Variable, deren Abhängigkeit von einer oder mehreren unabhängigen Variablen untersucht werden soll

Alternativhypothese (H1)

Die Alternativhypothese nimmt einen systematischen Effekt an. Sie umfasst all das, was die Nullhypothese nicht enthält

Alternativhypothese, gerichtete

Vorhersage eines systematischen Unterschieds zwischen Gruppen in eine bestimmte Richtung. Die Nullhypothese umfasst in diesem Fall auch die Unterschiede in die nicht vorhergesagte Richtung

Alternativhypothese, ungerichtete

Vorhersage eines systematischen Unterschieds zwischen Gruppen, unabhängig von der Richtung des Unterschieds

A posteriori

Berechnung von Kennwerten nach der Durchführung einer Untersuchung

A priori

Berechnung von Kennwerten vor der Durchführung einer Untersuchung

Arithmetisches Mittel

Das arithmetische Mittel gibt den Durchschnitt der Messwerte einer Verteilung an. Es ist das gebräuchlichste Maß der zentralen Tendenz

β-Fehler

Der β-Fehler, auch Fehler 2. Art, bezeichnet die Fehlentscheidung, die H0 anzunehmen, obwohl in Wirklichkeit die H1 gilt

b-Gewicht

Parameter der linearen Regressionsgleichung, der die Steigung der Geraden angibt. Er ist definiert als der Quotient aus der Kovarianz der untersuchten Merkmale und der Streuung der Prädiktorvariable

β-Gewicht

Standardisierung des b-Gewichts einer Regression an den Streuungen von Prädiktor und Kriterium. Das Gewicht gibt an, um wie viele Standardabweichungen sich das Kriterium pro Standardabweichung des Prädiktors verändert

Deskriptive Statistik

Die deskriptive (beschreibende) Statistik vereint alle Methoden, mit denen empirische Daten zusammenfassend dargestellt und beschrieben werden können. Dazu dienen Kennwerte, Grafiken und Tabellen.

Determinanten des t-Tests

α-Fehler, β-Fehler, Effekt und Stichprobenumfang bedingen sich gegenseitig in einem t-Test. Sind drei von ihnen festgelegt, ergibt sich der vierte Wert automatisch

Determinationskoeffizient

Der Determinationskoeffizient r² gibt das Ausmaß der Varianzaufklärung einer Variable Y durch eine Variable X an. Er kann maximal 1 betragen, was einer Varianzaufklärung von 100 Prozent entspricht.

Erwartungswert

Der Erwartungswert einer bestimmten Variable ist der Wert, den man in der Population erwarten würde, also eine Schätzung des Populationsparameters. Beispielsweise wird der Mittelwert einer Stichprobe als Erwartungswert für den Mittelwert in der Population benutzt.

Empirischer Effekt

Aus Daten berechneter Effekt, dient als Schätzer für Populationseffekte

Eta-Quadrat (η2)

Effektstärkenmaß. Gibt den Anteil der aufgeklärten Varianz an der Gesamtvarianz auf der Stichprobenebene mittels Quadratsummen an

Fehlervarianz

Siehe Residualvarianz, unsystematische Varianz oder Varianz „innerhalb“

Fishers Z-Transformation

Transformation, die Korrelationen auf Intervallskalenniveau überführt. Dadurch wird eine Mittelung mehrerer Korrelationen möglich

Freiheitsgrade

Freiheitsgrade bestimmen die Genauigkeit von Populationsschätzern und damit die Form von Verteilungen, die auf Schätzern basieren wie z. B. der t-Verteilung. Die Zahl der Freiheitsgrade gibt an, wie viele Werte theoretisch frei variieren können, wenn das Ergebnis bereits feststeht

G Power

Computerprogramm zur Berechnung von Teststärken, optimalen Stichprobenumfängen und empirischen Effektgrößen. ▶ Link zum Download auf www.lehrbuch-psychologie.de.

Inferenzstatistik

Ziel der Inferenzstatistik sind Schlüsse von einer Stichprobe auf eine Population sowie Aussagen über die Güte dieser Schlüsse. Typische interenzstatistische Verfahren sind Standardfehler, Konfidenzintervalle und Signifikanztests.

Inhaltliche Hypothese

Vorhersage auf der Basis von Theorien, dass ein (oder kein) Unterschied zwischen Gruppen/Bedingungen oder ein (oder kein) Zusammenhang zwischen verschiedenen Merkmalen besteht

Konfidenzintervall

Das Konfidenzintervall („confidence intervall“, CI) kennzeichnet denjenigen Bereich von Merkmalsausprägungen, in dem sich 95% (99%) aller möglichen Populationsparameter befinden, die den empirisch ermittelten Stichprobenkennwert erzeugt haben können.

Korrelation

Bezeichnet ganz allgemein das gemeinsame Auftreten von zwei Merkmalen oder Ereignissen z.B. Prüfungsangst und Testleistung. Der Korrelationskoeffizient ist ein statistisches Maß für die Enge und die Richtung dieses Zusammenhangs (nehmen beide Merkmale jeweils gemeinsam zu oder ab bzw. nimmt eines ab, während das andere zunimmt?).

Kovarianz

Die Kovarianz gibt das Ausmaß des Zusammenhangs zweier Variablen in deren natürlicher Maßeinheit an, also nicht in standardisierter Form. Sie beschreibt das Ausmaß, in welchem zwei Variablen gemeinsam variieren.

Kriteriumsvariable

Die abhängige Variable bei der Regression, d. h. das Merkmal, dessen Ausprägung vorhergesagt werden soll

Levene-Test der Varianzgleichheit

F-Test, testet die Varianzen der betrachteten Gruppen auf Varianzhomogenität, wird signifikant, wenn keine Varianzhomogenität vorliegt

Messwiederholung

Wiederholte Erhebung von Daten an denselben Personen. Untersucht die Frage, ob sich die Ausprägung eines Merkmals zu verschiedenen Messzeitpunkten unterscheidet. Statistische Verfahren mit Messwiederholung haben in der Regel eine höhere Teststärke im Vergleich zu entsprechenden Verfahren ohne Messwiederholung

Nonzentrale Verteilung

Verteilung eines Stichprobenkennwerts unter der Annahme der Alternativhypothese, meist nicht symmetrisch

Nonzentralitätsparameter λ (Lambda)

bestimmt die Form der nonzentralen Verteilung. Wird bei der Berechnung der Teststärke und bei der Stichprobenumfangsplanung benötigt

Normalverteilung

Die Normalverteilung ist die Form, mit der sich die Verteilung vieler Merkmale in der Population (sowohl physiologische als auch mentale Merkmale) beschreiben lässt. Diese Verteilungsform ist symmetrisch und ähnelt einer Glocke, weshalb sie auch als Gauss’sche Glocke bezeichnet wird.

Nullhypothese (H0)

Die Nullhypothese stellt die Basis bei der statistischen Bewertung eines Ergebnisses dar. Der Test der Nullhypothese liefert eine Entscheidung darüber, ob die Nullhypothese verworfen und damit die Alternativhypothese angenommen werden kann oder nicht. Beim t-Test und der ANOVA besagt die Nullhypothese im Regelfall, dass kein Unterschied zwischen den untersuchten Gruppen existiert.

Omega-Quadrat (Ω2, ω2)

Effektstärkenmaß auf Populationsebene. Gibt den Anteil der von einem bestimmten Effekt aufgeklärten Varianz auf der Populationsebene an. Ω2 ist der Populationseffekt, ω2 der Schätzer dieses Populationseffekts

Parameter

Ein statistischer Kennwert wie das arithmetische Mittel oder die Varianz, für deren Berechnung die Intervallskaliertheit der Daten Voraussetzung ist. Parameter beziehen sich immer auf die Population

Parametrische Verfahren

Diese arbeiten mit Merkmalsverteilungen und können nur bei mindestens intervallskalierten Daten mit bestimmten Verteilungseigenschaften angewendet werden

Partialkorrelation

Korrelationstechnik, die es gestattet, den Einfluss einer Dritt- bzw. Störvariable aus dem Zusammenhang zweier Merkmale heraus zu rechnen

Phi-Koeffizient

Korrelationskoeffizient zweier dichotomer Variablen und Effektstärkenmaß für den Vierfelder Chi-Quadrat-Test

Population

Die klar definierte Menge aller Personen, die für einen Forscher von Interesse sind. Sie kann sehr weitläufig (alle lebenden Menschen) oder sehr eng definiert sein (alle Studierenden in der ersten Reihe des Hörsaals)

Prädiktorvariable

Die unabhängige Variable bei der Regression, die zur Vorhersage der abhängigen Variable (Kriterium) eingesetzt werden soll

Produkt-Moment-Korrelation

Standardisiertes Maß der bivariaten Deskriptivstatistik, das den Zusammenhang zweier intervallskalierter Variablen beschreibt. Gibt den Anteil der empirischen Kovarianz an der theoretisch maximalen Kovarianz an. Der Wertebereich der Korrelation reicht von –1 bis +1

Punktbiseriale Korrelation

Gibt den Zusammenhang zwischen einer nominalskalierten, zweistufigen Variable und einer intervallskalierten Variable an

Punkteschwarm, -wolke

Siehe Streudiagramm

Rangkorrelation

Korrelation für ordinalskalierte Variablen. Die Rangkorrelation nach Spearman liefert einen Wert zwischen –1 und +1, der angibt, inwiefern sich zwei Rangreihen entsprechen

Regression(sanalyse), einfache

Mathematisches Verfahren, welches die empirischen Verteilungen eines Prädiktormerkmals x und eines Kriteriumsmerkmals y dergestalt miteinander in Beziehung setzt, dass eine Regressionsgleichung resultiert, welche die Vorhersage von y aus x ermöglicht. Die Güte einer Regression ist abhängig vom tatsächlichen Zusammenhang zweier Merkmale

Regression(sanalyse), multiple

Eine Erweiterung der einfachen Regression um mindestens einen weiteren Prädiktor. Mit diesem Verfahren kann der eigenständige Einfluss der einzelnen Prädiktoren im Kontext der anderen ermittelt werden

Regressionsgerade

Die Regressionsgleichung y = b · x + a einer linearen Regression kann grafisch in Form einer Geraden veranschaulicht werden. Anhand dieser lässt sich für jeden x-Wert der von der Regression vorhergesagte y-Wert ablesen

Regressionsgewicht, Regressionskoeffizient

Die Steigung einer Regressionsgeraden. Man unterscheidet unstandardisierte und standardisierte Regressionsgewichte. Letztere sind von der Skalierung der untersuchten Merkmale unabhängig

Regressionsvarianz

Varianz der vorhergesagten Kriteriumswerte einer Regression. Regressionsvarianz und Fehlervarianz summieren sich zur Gesamtvarianz der empirischen y-Werte auf

Residualvarianz

Siehe auch unsystematische Varianz oder Varianz „innerhalb“. In der Regression: Gemittelte Abweichung der empirischen Werte von den von der Regression vorhergesagten Werte. Die Residualvarianz ist derjenige Varianzanteil, welcher nicht durch die Regressionsgleichung abgedeckt werden kann

Robustheit

Ein statistischer Test ist umso robuster, je weniger Einfluss die Verletzung der mathematischen Voraussetzungen auf die Güte des Ergebnisses hat

Scheinkorrelation

Zusammenhang zweier Variablen, der darauf beruht, dass beide Variablen von einer dritten Variable kausal beeinflusst werden. Zwischen den interessierenden Variablen herrscht aber keine Kausalität

Signifikanz

Signifikanz heißt statistische Bedeutsamkeit und bezieht sich immer auf einen Effekt, den man in einer Stichprobe gefunden hat und auf die Population verallgemeinern möchte. Signifikante Ergebnisse werden als systematisch und nicht als zufällig erachtet. Signifikanz hat nichts mit inhaltlicher Bedeutsamkeit zu tun.

Signifikanzniveau

Entscheidungsgrenze in einem statistischen Auswertungsverfahren; gibt an, wie groß die α-Fehlerwahrscheinlichkeit eines Ergebnisses höchstens sein darf, um sich für die Alternativhypothese zu entscheiden. Es liegt meistens bei α = 0,05

Skala

Unter einer Skala („scale“) versteht man im Kontext der Messtheorie ein empirisches Relativ, ein numerisches Relativ und eine die beiden Relative verknüpfende, homomorphe Abbildungsfunktion.

Standardabweichung oder Streuung

Die Standardabweichung oder Streuung ist die positive Wurzel aus der Varianz und somit die korrigierte durchschnittliche quadrierte Abweichung jedes einzelnen Werts vom Mittelwert

Standardfehler

Der Standardfehler ist die Standardabweichung der Stichprobenverteilung eines Kennwertes. Er quantifiziert die Ungenauigkeit bei der Schätzung von Populationsparametern mithilfe von Stichprobenkennwerten.

Standardnormalverteilung

z–Werte verteilen sich immer in einer ganz bestimmten Form, die als Standardnormalverteilung (z–Verteilung) bezeichnet wird. Sie ist durch die Form der Glockenkurve (Normalverteilung) gekennzeichnet und besitzt stets einen Mittelwert von 0 sowie eine Standardabweichung von 1.

Standardschätzfehler

Die Wurzel aus der Fehlervarianz einer Regression. Er ist ein (unstandardisiertes) Maß für die Güte und Genauigkeit einer Regression

Statistische Hypothese

Übersetzung der inhaltlichen Hypothese in eine mathematische Schreibweise

Stichprobe

Teilmenge einer Population. Der größte Teil psychologischer Forschung findet an Stichproben statt

Stichproben, abhängige

Die Elemente zweier Stichproben sind paarweise einander zugeordnet und beeinflussen sich gegenseitig. Ein typischer Fall für abhängige Stichproben ist die Messwiederholung

Stichprobenkennwerteverteilung

Wahrscheinlichkeitsverteilung aller möglichen Ausprägungen eines Stichprobenkennwerts

Stichprobenumfangsplanung

Bestimmt die optimalen Stichprobenumfänge eines Tests nach Festlegung eines Effekts und einer Teststärke mithilfe des Nonzentralitätsparameters λ. Nach einer solchen Planung ist jedes Ergebnis des Tests eindeutig interpretierbar

Stochastischer Zusammenhang

Unvollständiger Zusammenhang, der nur annäherungsweise durch eine Funktion ersetzt werden kann. Bei der Vorhersage anhand der Regression treten Vorhersagefehler auf, d. h., empirische Werte und theoretische Werte weichen voneinander ab

Streudiagramm

Grafische Darstellung aller Messwertepaare (xi/yi) zweier Merkmalsverteilungen in einem Koordinatensystem. Die sich ergebende Punktwolke gibt grobe Auskunft über einen eventuellen Zusammenhang zwischen den beiden Variablen

Streuung

Siehe Standardabweichung

Systematischer Effekt

Größe des Unterschieds zwischen untersuchten Gruppen oder Ausmaß des Einflusses der experimentellen Variation

Systematische Varianz

Anteil der Gesamtvarianz, dem ein systematischer Einfluss zugrunde liegt. Maß für die Variation von Stichprobenmittelwerten

Transformation

Mathematische Umformung nach einer bestimmten Formel

Teststärke

Die Teststärke („power“) hat das Symbol 1 - ? und ist definiert als die Wahrscheinlichkeit, mit der ein Signifikanztest einen in der Population vorhandenen „wahren“ Effekt bestimmter Größe durch ein statistisch signifikantes Ergebnis tatsächlich aufdeckt. Bei hoher Teststärke weist ein Signifikanztest eine hohe Sensitivität auf, kann also auch kleine Populationseffekte mit großer Sicherheit aufdecken. Konventionell wird in Anlehnung an Cohen (1988) eine Teststärke von mindestens 80% gefordert. Das heißt umgekehrt, es wird eine ?-Fehlerwahrscheinlichkeit (Wahrscheinlichkeit, die H? fälschlich anzunehmen bzw. die H? fälschlich zu verwerfen) von maximal 20% akzeptiert. Man beachte, dass die Konventionen für das ?-Fehler-Niveau (.05), das ?-Fehler-Niveau (.20) sowie die Teststärke (.80) nicht mechanisch anzuwenden, sondern inhaltlich begründet festzulegen sind. Wenn also z. B. inhaltlich ein ?-Fehler nicht 4-mal gravierender ist als ein ?- Fehler, sollten ?- und ?-Fehler-Niveau entsprechend ausgewogen festgelegt werden.

t-Test

Statistisches Auswertungsverfahren für den Vergleich zweier Gruppenmittelwerte. Der t-Test prüft mithilfe des t-Werts, ob eine empirische Mittelwertsdifferenz signifikant von null verschieden ist oder ob sie auf Zufall beruht. Er ist ein parametrischer Test (siehe parametrische Verfahren). Es gibt einen t-Test für unabhängige und abhängige Stichproben sowie für eine einzige Stichprobe.

t-Verteilung

Verteilung des t-Werts, dient zur Bestimmung der Wahrscheinlichkeit des t-Werts unter der Nullhypothese. Ihre Form ist von der Anzahl ihrer Freiheitsgrade abhängig, bei hohen Freiheitsgraden geht sie in eine Standardnormalverteilung über

t-Wert

Standardisierte Differenz zweier Stichprobenmittelwerte

t-Wert, empirischer

Der t-Wert wird für eine empirische Mittelwertsdifferenz berechnet und ordnet dieser Differenz eine Auftretenswahrscheinlichkeit zu. Die Größe des t-Werts ist abhängig von der Größe der Differenz, der Streuung des Merkmals in der Population und der Stichprobengröße

t-Wert, kritischer

Der kritische t-Wert schneidet die Fläche unter der Kurve der t-Verteilung ab, die dem gewählten Signifikanzniveau entspricht. Er erlaubt eine direkte Einordnung des empirischen t-Werts

Unabhängige Stichproben

Die Werte der einen Stichprobe haben in keiner Weise Einfluss auf die Werte der zweiten Stichprobe

Unabhängige Variable

Variable, die ein Wissenschaftler systematisch verändert (manipuliert), um ihren Einfluss auf eine oder mehrere > abhängige Variablen zu untersuchen.

Unsystematische Varianz

Variation der Werte innerhalb einer Bedingung, die nicht auf die experimentelle Manipulation zurückzuführen ist. Auch als Residualvarianz oder Varianz „innerhalb“ bezeichnet

Varianz

Die Varianz s² ist ein Maß zur Beschreibung der Streuung einer Verteilung. Sie ist die durchschnittliche quadrierte Abweichung aller Werte von ihrem gemeinsamen Mittelwert.

Varianzhomogenität

Die Varianzen eines Merkmals oder Fehlers in einer Bedingung bzw. Gruppe werden in der Population als gleich angenommen. Sie ist Voraussetzung für viele statistische Verfahren wie z. B. für den t-Test und die Varianzanalyse

Zentrale Verteilung

Verteilung eines Stichprobenkennwerts unter der Annahme der Nullhypothese

Zurück zur Übersicht