A-Z Navigation
Begriff Erklärung
A posteriori Kontrast

Der Unterschied zwischen zwei Gruppen wird im Nachhinein auf Signifikanz geprüft (Varianzanalyse)

A priori Kontrast

Über den Unterschied zwischen zwei Gruppen besteht bereits vor der Untersuchung eine (meist gerichtete) Hypothese

abhängige Variable

Merkmal, das in einem Quasi-Experiment erfasst wird, um zu überprüfen, wie sich systematisch variierte unabhängige Variablen auf die abhängige Variable auswirken

Ähnlichkeitsmaße

Sie werden im Rahmen der Clusteranalyse benötigt, um die Ähnlichkeit der zu gruppierenden Objekte zu ermitteln

Allgemeines Lineares Modell (ALM)

Verfahren, das die Varianzanalyse sowie die lineare Regressionsrechnung integriert

Alternativhypothese

Gegenhypothese zur Nullhypothese. Man unterscheidet gerichtete und ungerichtete sowie spezifische und unspezifische Alternativhypothesen

Axiome

Aussagen, die nicht bewiesen werden, sondern deren Gültigkeit vorausgesetzt wird

Bayes-Statistik

Eine Variante der statistischen Entscheidungstheorie, bei der Wahrscheinlichkeiten für verschiedene Hypothesen unter der Voraussetzung eines empirisch ermittelten Untersuchungsergebnisses berechnet werden

bimodale Verteilung

Verteilung mit zwei Gipfeln

Binomialverteilung

Wahrscheinlichkeitsverteilung, die aussagt, wie wahrscheinlich x Erfolges bei n Wiederholungen eines Zufallsexperiments sind. Ein Erfolg tritt dabei in jedem Versuch mit der Wahrscheinlichkeit π ein, ein Misserfolg mit Wahrscheinlichkeit (1 − π). Beispiel Münzwurf: Erfolg = Zahl, Misserfolg = Kopf

biseriale Korrelation

Korrelationskoeffizient rbis für ein metrisches und ein künstlich dichotomes Merkmal

biseriale Rangkorrelation

Korrelationskoeffizient für ein (echt oder künstlich) dichotomes und ein rangskaliertes Merkmal

bivariate Normalverteilung

Verteilung, die sich ergibt, wenn zwei Merkmale gemeinsam erhoben werden und dabei nicht nur die Verteilung jedes Merkmals für sich allein, sondern auch deren gemeinsame Verteilung normal ist; in diesem Fall ergibt die grafische Darstellung der gemeinsamen Verteilung eine (dreidimensionale) Glockenform

bivariate Verteilung

Verteilung zweier gemeinsam erhobener Variablen; grafische Darstellung als Punktwolke oder dreidimensional

Bonferroni-Korrektur

Korrektur des festgelegten Fehlers 1. Art bei mehreren Einzelhypothesen zur Überprüfung einer Gesamthypothese

Bootstrap-Technik

Der Monte-Carlo-Methode ähnliche Computersimulationstechnik, mit der die Verteilung eines Stichprobenkennwertes erzeugt wird

Box-Test

Verfahren zur Überprüfung der Homogenität einer Varianz-Kovarianz-Matrix. Wird bei multivariaten Mittelwertvergleichen benötigt

Chi-Quadrat-Methoden

Signifikanztests zur Analyse von Häufigkeiten

Chi-Quadrat-Unabhängigkeitstest

Verfahren, mit dem die Nullhypothese überprüft werden kann, nach der ein k-fach und ein l-fach gestuftes Merkmal voneinander unabhängig sind

Clusteranalyse

Heuristisches Verfahren zur systematischen Klassifizierung der Objekte einer gegebenen Objektmenge

Cochran-Test

Verfahren zur Überprüfung von Veränderungen eines dichotomen Merkmals bei Wiederholungsuntersuchungen. Es wird die H0 überprüft, dass sich die Verteilung der Merkmalsalternativen nicht verändert

Dendrogramm

Eine grafische Darstellung des Ergebnisses einer hierarchischen Clusteranalyse, die über die Anzahl der bedeutsamen Cluster informiert

deskriptive Statistik

Statistik, die die Daten einer Stichprobe z. B. durch Grafiken oder Kennwerte (Mittelwert, Varianz etc.) beschreibt

Determinationskoeffizient

Anteil der Variabilität des Kriteriums, der durch einen oder mehrere Prädiktoren vorhergesagt werden kann

Dichotomisierung

Künstliche Einteilung eines Merkmals, das von Natur aus eigentlich mehrere Ausprägungen besitzt (z.B. Körpergröße - im Gegensatz zum Geschlecht), in nur zwei Ausprägungen, z.B. bei metrischen Daten durch Teilung am Median (>178 cm vs.

disjunkt

Zwei einander ausschließende (d. h. keine gemeinsamen Elementarereignisse beinhaltende) Ereignisse sind disjunkt. Ihr Durchschnitt (A∩B) ist die leere Menge

diskret

Ein Merkmal ist diskret, wenn es nur bestimmte Werte annehmen kann. Beispiel: Die Anzahl der Freunde einer Person lässt sich nur in ganzen Zahlen angeben

Diskriminanzanalyse

Verfahren, das aufgrund der linearen Gewichtung eines Satzes abhängiger Variablen zu einer maximalen Trennung der untersuchten Gruppen führt

Diskriminanzraum

Er besteht aus einer bestimmten Anzahl von Diskriminanzfaktoren, deren Reihenfolge so festgelegt wird, dass die verglichenen Stichproben sukzessiv maximal getrennt werden

Effektgröße

Um eine spezifische Alternativhypothese formulieren zu können, muss man die erwartete Effektgröße im Voraus angeben. Die Festlegung einer Effektgröße ist auch notwendig, um den für die geplante Untersuchung benötigten Stichprobenumfang zu bestimmen bzw. die Teststärke eines Signifikanztests angeben zu können. Da sich bei großen Stichproben auch sehr kleine (für die Praxis unbedeutende) Effekte als statistisch signifikant erweisen können, sollte ergänzend zur statistischen Signifikanz immer auch die Effektgröße betrachtet werden

Effizienz

Kriterium der Parameterschätzung: Je größer die Varianz der Stichprobenverteilung eines Kennwertes, desto geringer ist seine Effizienz

Eigenwert

Gesamtvarianz der Indikatoren, die durch einen Faktor aufgeklärt wird (Faktorenanalyse)

Eigenwertediagramm

Grafische Darstellung der Eigenwerte einer PCA in einem Diagramm (Faktorenanalyse)

eindimensionaler Chi-Quadrat-Test

χ2-Methode zur Signifikanzprüfung der Häufigkeiten eines k-fach gestuften Merkmals; hierbei kann getestet werden, ob die untersuchten Daten gleich verteilt sind oder ob sie einer bestimmten Verteilungsform (z. B. Normalverteilung) folgen

einfacher Haupteffekt

Unterschiedlichkeit der Stufen des Faktors A für eine Stufe des Faktors B (und umgekehrt). Unterschiedlichkeit der Stufen des Faktors A für eine Stufe des Faktors B (und umgekehrt)

einseitiger Test

Statistischer Test, der eine gerichtete Hypothese überprüft

Einzelvergleich

Alternative Bezeichnung für Kontrast

Elementarereignis

Ein einzelnes Ergebnis eines Zufallsexperiments (z. B. beim Würfeln eine bestimmte Augenzahl würfeln)

empirisches Relativ

Aus empirischen Objekten bestehendes Relationensystem (im Gegensatz zu einem numerischen Relativ)

Epsilon-Korrektur

Korrektur der Freiheitsgrade im Rahmen einer Varianzanalyse mit Messwiederholungen, die erforderlich wird, wenn bestimmte Voraussetzungen dieses Verfahrens verletzt sind

Ereignis

Mehrere Elementarereignisse werden zu einem Ereignis zusammengefasst (z.B. beim Würfeln das Ereignis „alle geraden Zahlen“)

Erwartungstreue

Eigenschaft eines statistischen Kennwertes im Hinblick auf die Schätzung eines Populationsparameters, wenn das Mittel der Stichprobenverteilung bzw. deren Erwartungswert dem Populationsparameter entspricht

Erwartungswert

Mittelwert einer theoretischen (nicht empirischen) Verteilung einer Zufallsvariablen; bezeichnet durch den Buchstaben μ bzw. durch E(X)

Eta

Korrelationskoeffizient, der die linearen und nonlinearen Zusammenhänge zwischen unabhängiger und abhängiger Variable erfasst (Varianzanalyse)

Exhaustion

Modifikation oder Erweiterung einer Theorie aufgrund von Untersuchungsergebnissen, die die ursprüngliche Form der Theorie falsifizieren

Experiment

Untersuchung mit randomisierten Stichproben, um die Auswirkung einer oder mehrerer unabhängigen Variablen auf die abhängige Variable zu überprüfen

externe Validität

Liegt vor, wenn das Ergebnis einer Untersuchung über die untersuchte Stichprobe und die Untersuchungsbedingungen hinaus generalisierbar ist. Sie sinkt, je unnatürlicher die Untersuchungsbedingungen sind und je weniger repräsentativ die untersuchte Stichprobe für die Grundgesamtheit ist

Faktor

Im Rahmen der Varianzanalyse ist ein Faktor eine unabhängige Variable, deren Bedeutung für eine abhängige Variable überprüft wird

Faktorenanalyse

Datenreduzierendes Verfahren zur Bestimmung der dimensionalen Struktur korrelierter Merkmale

Faktorladung

Korrelation zwischen einer Variablen und einem Faktor (Faktorenanalyse)

Faktorwert

Der Faktorwert kennzeichnet die Position einer Person auf einem Faktor (Faktorenanalyse)

Fehler 1. Art

In der statistischen Entscheidungstheorie die fälschliche Entscheidung zugunsten der H1, d. h., man nimmt an, die Alternativhypothese sei richtig, obwohl in Wirklichkeit die Nullhypothese richtig ist

Fehler 2. Art

In der statistischen Entscheidungstheorie die fälschliche Entscheidung zugunsten der H0, d. h., man nimmt an, die Nullhypothese sei richtig, obwohl in Wirklichkeit die Alternativhypothese richtig ist

Fehlerquadratsumme

Kennzeichnet im Rahmen der Varianzanalyse die Unterschiedlichkeit der Messwerte innerhalb der Stichproben

Felduntersuchung

Untersuchung, die in einem natürlichen Umfeld stattfindet

Feste Effekte

Systematische Auswahl der Faktorstufen, über die letztlich Aussagen gemacht werden sollen (Varianzanalyse)

Fisher Z-Transformation

Transformation von Korrelationen in sog. Z-Werte (nicht verwechseln mit standardisierten Werten (z-Transformation) oder z-Werten der Standardnormalverteilung); die Fisher Z-Transformation ist z. B. erforderlich, wenn Korrelationen gemittelt werden sollen

Fmax-Test

Verfahren zur Überprüfung der Varianzhomogenitäts-Voraussetzung im Rahmen der Varianzanalyse. Lässt nur gleich große Stichprobenumfänge zu

Freiheitsgrade

Die Anzahl der bei der Berechnung eines Kennwerts frei variierbaren Werte. Beispiel: Die Summe der Differenzen aller Werte von ihrem Mittelwert ergibt null. Sind von zehn Werten neun bereits zufällig gewählt, steht fest, wie groß die zehnte Differenz sein muss. Die Varianz – deren Formel diese Differenzen vom Mittelwert beinhaltet – hat daher neun Freiheitsgrade. Anwendung bei der Bestimmung der für verschiedene statistische Tests adäquaten Prüfverteilung

Fusionskriterien

Kriterien, nach denen entschieden wird, welche Objekte oder Cluster zu einem neuen Cluster zusammengefasst werden (z.B. Single Linkage, Complete Linkage oder Average Linkage) (Clusteranalyse)

gerichtete Alternativhypothese

Annahme (statistische Hypothese), die nicht einen irgendwie gearteten Unterschied oder Zusammenhang behauptet, sondern die eine bestimmte Richtung vorgibt. Beispiel: Männer sind im Durchschnitt größer als Frauen

geschachtelte Faktoren

Ein Faktor, dessen Stufen nur unter bestimmten Stufen eines anderen Faktors auftreten (Varianzanalyse)

geschichtete Stichprobe

Stichprobe, in der sich ausgewählte Merkmale (Alter, Geschlecht, Einkommen etc.) nach bestimmten Vorgaben verteilen; liegt eine proportional geschichtete Stichprobe vor, entspricht die prozentuale Verteilung der Schichtungsmerkmale in der Stichprobe der prozentualen Verteilung in der Grundgesamtheit

Griechisch-lateinische Quadrate

Erweiterung eines lateinischen Quadrats um einen Faktor (Varianzanalyse).

Haupteffekt

In Abgrenzung zu einem Interaktionseffekt in der mehrfaktoriellen Varianzanalyse kennzeichnet ein Haupteffekt die Wirkungsweise eines bestimmten Faktors bzw. einer bestimmten unabhängigen Variablen

Hauptkomponentenanalyse

Wichtigstes Verfahren zur Extraktion von Faktoren. Faktoren einer Hauptkomponentenanalyse sind voneinander unabhängig und erklären sukzessiv maximale Varianzanteile (Faktorenanalyse)

Helmert-Kontraste

Regeln zur Erzeugung eines vollständigen Satzes orthogonaler Einzelvergleiche (Varianzanalyse)

Hierarchische Versuchspläne

Versuchspläne, bei denen durch Schachtelung je eines Faktors unter den vorherigen eine Hierarchie der Faktoren entsteht (Varianzanalyse)

Histogramm

Trägt man in einer Grafik die empirische Häufigkeitsverteilung einer diskreten Variablen in Form von Balken ab, erhält man ein Histogramm

Holm-Korrektur

Technik zur Korrektur des Fehlers 1. Art beim multiplen Testen. Sie ist weniger konservativ als die Bonferroni-Korrektur

homomorph

Lässt sich ein empirisches durch ein numerisches Relativ so abbilden, dass eine bestimmte Relation im empirischen Relativ der Relation im numerischen Relativ entspricht, bezeichnet man diese Abbildung als homomorph. Beispiel: empirisches Relativ: Mathekenntnisse der Schüler einer Klasse; numerisches Relativ: Mathenoten. Bilden die Mathenoten die Kenntnisse der Schüler „wirklichkeitsgetreu“ ab, ist diese Abbildung homomorph

Homoskedastizität

Liegt vor, wenn bei einer bivariaten Verteilung zweier Variablen x und y die zu jedem beliebigen Wert xi gehörenden y-Werte gleich streuen. Beispiel: Erhebt man Körpergröße (x) und Schuhgröße (y), sollten die Schuhgrößen von Menschen, die 180 cm groß sind, die gleiche Varianz aufweisen wie die Schuhgrößen von Menschen, die 170 cm groß sind

Hotellings T2-Test

Verfahrensgruppe zur Überprüfung multivariater Unterschiedshypothesen, d. h. Unterschiedshypothesen auf der Basis mehrerer abhängiger Variablen

Inferenzstatistik

Statistik, die auf der Basis von Stichprobenergebnissen induktiv allgemeingültige Aussagen formuliert. Zur Inferenzstatistik zählen die Schätzung von Populationsparametern (Schließen) und die Überprüfung von Hypothesen (Testen)

Interaktion

Effekt der Kombination mehrerer Faktoren. Man unterscheidet zwischen ordinaler, hybrider und disordinaler Interaktion (Varianzanalyse)

interne Validität

Liegt vor, wenn das Ergebnis einer Untersuchung eindeutig interpretierbar ist. Sie sinkt mit der Anzahl plausibler Alternativerklärungen für das Ergebnis

Intervallskala

Eine Intervallskala erlaubt Aussagen über Gleichheit (Äquivalenzrelation), Rangfolge (Ordnungsrelation) und Größe des Unterschieds der Merkmalsausprägung von Objekten. Eine Intervallskala hat keinen empirisch begründbaren Nullpunkt. Beispiel: Temperaturskalen; mit Fahrenheit- und Celsiusskala lassen sich die gleichen Aussagen machen; ihr Nullpunkt ist verschieden. Intervallskala und Verhältnisskalen bezeichnet man zusammenfassend als metrische Skalen

K-means-Methode

Ein Verfahren der nichthierarchischen Clusteranalyse

Kaiser-Guttmann-Kriterium

Nur Faktoren mit einem Eigenwert größer 1 sind als bedeutsam einzustufen. Überschätzt in der Regel die Anzahl bedeutsamer Faktoren (Faktorenanalyse)

kanonische Korrelation

Erfasst den Zusammenhang zwischen mehreren Prädiktorvariablen und mehreren Kriteriumsvariablen

Kappa-Maß

Verfahren, mit dem man die Übereinstimmung von zwei Klassifikationen derselben Objekte erfassen und überprüfen kann

Klassifikation

Verfahren, mit dem man überprüfen kann, zu welcher von k Gruppen ein Individuum aufgrund eines individuellen Merkmalsprofils am besten passt (Diskriminanzanalyse)

Klumpenstichprobe

Als Klumpen (Cluster) bezeichnet man eine definierte Teilgruppe einer Population (z.B. die Schüler einer Schulklasse, die Patienten eines Krankenhauses etc.). Eine Klumpenstichprobe besteht aus allen Individuen, die sich in einer Zufallsauswahl von Klumpen befinden. Beispiel: Alle Alkoholiker aus zufällig ausgewählten Kliniken

Kommunalität

Ausmaß, in dem die Varianz einer Variablen durch die Faktoren aufgeklärt wird (Faktorenanalyse)

Konfidenzintervall

Wertebereich, in dem sich der Populationsparameter mit einer vorgegebenen Sicherheit (z.B. 95% oder 99%) befindet

Konfigurationsfrequenzanalyse

Verallgemeinerung der Kontingenztafelanalyse auf eine mehrdimensionale „Tafel“, mit der die Häufigkeiten mehrerer nominalskalierter Merkmale mit mehreren Stufen verglichen werden können. Geprüft wird die stochastische Unabhängigkeit der Merkmale voneinander

konservative Entscheidung

Wenn ein statistischer Signifikanztest aufgrund von Voraussetzungsverletzungen eher zugunsten von H0 entscheidet

Konsistenz

Kriterium der Parameterschätzung: Eigenschaft eines Schätzwertes, wenn er sich mit wachsendem Stichprobenumfang dem zu schätzenden Parameter nähert

Kontingenzkoeffizient

Maß zur Charakterisierung des Zusammenhangs zweier nominalskalierter Merkmale

Kontingenztabelle

Tabellarische Darstellung der gemeinsamen Häufigkeitsverteilung mehrerer kategorialer Merkmals

Kontrast

Dienen der Überprüfung von Unterschieden zwischen einzelnen Stufen eines Treatments im Rahmen der Varianzanalyse. Man unterscheidet a priori und a posteriori Kontraste. Eine andere Bezeichnung für Kontrast ist Einzelvergleich

Korrelationskoeffizient

Zusammenhangsmaß, welches einen Wert zwischen −1 und +1 annimmt. Ein positiver Korrelationskoeffizient besagt, dass hohe x-Werte häufig mit hohen y-Werten auftreten. Ein negativer Korrelationskoeffizient besagt, dass hohe x-Werte häufig mit niedrigen y-Werten auftreten

Kovarianz

Maß für den Grad des Miteinander-Variierens zweier Messwertreihen x und y. Eine positive Kovarianz besteht, wenn viele Versuchspersonen bei einem hohen x-Wert auch einen hohen y-Wert haben; eine negative Kovarianz besteht, wenn viele Versuchspersonen bei einem hohen x-Wert einen niedrigen y-Wert haben. Die Kovarianz z-transformierter Variablen entspricht der Produkt-Moment-Korrelation

Kovarianzanalyse

Verfahren zur Überprüfung der Bedeutsamkeit einer Kovariaten für eine Untersuchung. Der Einfluss dieser Variablen wird „neutralisiert“ (Varianzanalyse)

Kovariate

Merkmal, das weder abhängige noch unabhängige Variable ist, sondern nur miterhoben wird, um prüfen zu können, ob es einen Einfluss auf das Untersuchungsergebnis hatte

Kreuzvalidierung

Verfahren, bei dem zwei Regressionsgleichungen aufgrund von zwei Teilstichproben bestimmt werden, deren Vorhersagekraft in Bezug auf die Kriteriumswerte der anderen Stichprobe geprüft wird

Kriteriumsrotation

Eine Rotationstechnik, mit der eine empirische Faktorenstruktur einer vorgegebenen Kriteriumsstruktur maximal angenähert wird (Faktorenanalyse)

Kriteriumsvariable

Variable, die mittels einer oder mehrerer Prädiktorvariablen und einer Regressionsgleichung vorhergesagt werden kann

Lateinisches Quadrat

Besondere Variante unvollständiger Versuchspläne mit drei Faktoren, die alle dieselbe Stufenzahl aufweisen (Varianzanalyse)

LISREL

Computerprogramm von Jöreskog und Sörbom (1993) zur Überprüfung linearer Strukturgleichungsmodelle

Mann-Whitney-U-Test

Verteilungsfreier Signifikanztest für den Vergleich zweier unabhängiger Stichproben auf der Basis rangskalierter Daten

Matched Samples

Strategie zur Erhöhung der internen Validität bei quasi-experimentellen Untersuchungen mit kleinen Gruppen. Zur Erstellung von Matched Samples wird die Gesamtmenge der Untersuchungsobjekte hinsichtlich bestimmter Merkmale in möglichst ähnliche Paare gruppiert. Die beiden Untersuchungsgruppen werden anschließend so zusammengestellt, dass jeweils in Paarling zufällig der einen Gruppe, der andere Paarling der anderen Gruppe zugeordnet wird. Man beachte, dass Matched Samples Beobachtungspaaren führen, die auch mit entsprechenden Signifikanztests (z.B. t-Test für Beobachtungspaare) auszuwerten sind

Maximum-Likelihood-Methode

Methode, nach der Populationsparameter so geschätzt werden, dass die Wahrscheinlichkeit bzw. Likelihood des Auftretens der beobachteten Daten maximiert wird

McNemar-Test

χ2-Methode zur Signifikanzprüfung der Häufigkeiten eines dichotomen Merkmals, das bei derselben Stichprobe zu zwei Zeitpunkten erhoben wurde (vorher – nachher)

Median

Derjenige Wert einer Verteilung, der die Gesamtzahl der Fälle halbiert, sodass 50% aller Werte unter dem Median und 50% aller Fälle über ihm liegen

Messwiederholung

An einer Stichprobe wird dasselbe Merkmal bei jeder Versuchsperson mehrmals gemessen (z. B. zu zwei Zeitpunkten, vorher – nachher); solche Stichproben bezeichnet man als verbunden

Methode der kleinstenQuadrate

Methode zur Schätzung unbekannter Parameter. Hierbei wird die Summe der quadrierten Abweichungen der beobachteten Messungen vom gesuchten Schätzwert minimiert. Wird z. B. in der Regressionsrechnung angewendet

metrische Skala

Zusammenfassender Begriff für Intervall- und Verhältnisskalen

Mittelwert

Ergibt sich, wenn die Summe aller Werte einer Stichprobe durch die Gesamtzahl der Werte geteilt wird

Modalwert

Wert einer Verteilung, der am häufigsten vorkommt. In einer grafischen Darstellung der Verteilung deren Maximum. Eine Verteilung kann mehrere Modalwerte (und somit Maxima) besitzen (bimodale Verteilung)

Monte-Carlo-Methode

Mittels Computer werden aus einer festgelegten Population viele Stichproben gezogen (Computersimulation), um anhand dieser Simulation zu erfahren, wie sich statistische Kennwerte (z.B. Mittelwerte) verteilen oder wie sich Verletzungen von Testvoraussetzungen auf die Ergebnisse des Tests auswirken

Multikollinearität

Wechselseitige Abhängigkeit von Variablen im Kontext multivariater Verfahren

multiple Korrelation

Bestimmt den Zusammenhang zwischen mehreren Prädiktorvariablen und einer Kriteriumsvariablen

multiple Regression

Vorhersage einer Kriteriumsvariablen mittels eines linearen Gleichungsmodells aufgrund mehrerer Prädiktorvariablen

Multivariate Verfahren

Gruppe statistischer Verfahren, mit denen die gleichzeitige, natürliche Variation von zwei oder mehr Variablen untersucht wird

nicht-orthogonaleVarianzanalysen

Varianzanalysen mit ungleichen Stichprobenumfängen; auch unbalancierte Varianzanalyse genannt

Nominalskala

Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit gleicher Merkmalsausprägung gleiche Zahlen, Objekte mit verschiedener Merkmalsausprägung verschiedene Zahlen erhalten. Eine Nominalskala erlaubt nur Aussagen über Gleichheit von Objekten (Äquivalenzrelation), nicht aber über deren Rangfolge. Beispiel: Zuweisung des Wertes 0 für männliche, 1 für weibliche Versuchspersonen

Normalverteilung

Wichtige Verteilung der Statistik; festgelegt durch die Parameter μ (Erwartungswert) und σ (Streuung); glockenförmig, symmetrisch, zwischen den beiden Wendepunkten (μ±1σ) liegen ca. 68% der gesamten Verteilungsfläche

Nullhypothese

Behauptung über einen oder mehrere Populationsparameter, die besagt, dass der von der Alternativhypothese behauptete Unterschied bzw. Zusammenhang nicht besteht

numerisches Relativ

Aus Zahlen bestehendes Relationensystem (z.B. Menge der reellen Zahlen), mit dem sich ein empirisches Relativ homomorph abbilden lässt

oblique Rotation

Faktorenrotation, die zu schiefwinkligen bzw. korrelierten Faktoren führt (Faktorenanalyse)

Operationalisierung

Umsetzung einer eher abstrakten Variable bzw. eines theoretischen Konstruktes in ein konkret messbares Merkmal; Beispiel: Operationalisierung der Variable „mathematische Begabung“ durch die Variable „Mathematiknote“. Wichtig ist, dass die operationalisierte Variable die abstrakte Variable tatsächlich widerspiegelt

Ordinalskala

Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass von jeweils zwei Objekten das Objekt mit der größeren Merkmalsausprägung die größere Zahl erhält. Eine Ordinalskala erlaubt Aussagen über die Gleichheit (Äquivalenzrelation) und die Rangfolge (Ordnungsrelation) von Objekten. Sie sagt aus, ob ein Objekt eine größere Merkmalsausprägung besitzt als ein anderes, nicht aber, um wie viel größer diese Ausprägung ist. Beispiel: Rangfolge für die Schönheit dreier Bilder: 1=am schönsten; 3=am wenigsten schön. Bild 2 muss nicht „mittelschön“ sein, sondern kann fast so schön sein wie Bild 1

orthogonale Faktoren

Unkorrelierte Faktoren (Faktorenanalyse)

P-Wert

Wahrscheinlichkeit, dass das gefundene Ergebnis oder ein extremeres Ergebnisse bei Gültigkeit von H0 eintritt.Wahrscheinlichkeit, dass das gefundene Ergebnis oder ein extremeres Ergebnisse bei Gültigkeit von H0 eintritt

Parameter

Kennwerte einer theoretischen Verteilung oder Grundgesamtheit (im Gegensatz zu Stichprobenkennwerten) wie z. B. Erwartungswert, Streuung etc. Bezeichnung durch griechische Buchstaben

partielle Korrelation

Gibt den Zusammenhang zweier Variablen an, aus dem der lineare Einfluss einer dritten Variable eliminiert wurde. Sie stellt eine bivariate Korrelation zwischen den Regressionsresiduen dar

PCA

Principal Components Analysis (s. Hauptkomponentenanalyse)

Permutation

Werden in einem Zufallsexperiment (z.B. Urne, Kartenspiel) alle Objekte gezogen und nicht zurückgelegt, bezeichnet man die bei einer Durchführung dieses Experiments aufgetretene Reihenfolge der Objekte als eine Permutation. Bei n Objekten gibt es n! Permutationen

Perzentil

Das p-te Perzentil ist derjenige Skalenwert, welcher die unteren p% einer Verteilung abschneidet. In einer Grafik werden die unteren p% der Verteilungsfläche abgeschnitten

Pfadanalyse

Mit ihrer Hilfe werden anhand empirischer Daten a priori formulierte „Kausalhypothesen“ zur Erklärung von Merkmalszusammenhängen geprüft

Pfaddiagramm

Grafische Veranschaulichung eines Kausalmodells

Phi-Koeffizient

Korrelationskoeffizient für zwei natürlich dichotome Merkmale; diese werden im Allgemeinen in einer 2 × 2-Tabelle dargestellt

Polygon

Grafik zur Veranschaulichung einer empirischen Häufigkeitsverteilung einer metrischen Variablen. Auf den Kategorienmitten werden Lote errechnet, deren Länge jeweils der Kategorienhäufigkeit (absolut oder prozentual) entspricht. Verbindet man die Endpunkte der Lote, erhält man das Polygon

Population

Alle untersuchbaren Objekte, die ein gemeinsames Merkmal aufweisen. Beispiel: Bewohner einer Stadt, Frauen, dreisilbige Substantive

Prädiktorvariable

Variable, mittels derer unter Verwendung der Regressionsgleichung eine Vorhersage über eine andere Variable (Kriteriumsvariable) gemacht werden kann

progressive Entscheidung

Wenn ein statistischer Signifikanztest aufgrund von Voraussetzungsverletzungen eher zugunsten von H1 entscheidet

punktbiseriale Korrelation

Verfahren zur Berechnung eines Korrelationskoeffizienten rpbis für ein metrisches und ein natürlich dichotomes Merkmal

Punktschätzung

Schätzung des Wertes eines Parameters (im Unterschied zur Intervallschätzung)

Quadratsumme

Summe der quadrierten Abweichungen aller Messwerte einer Verteilung vom Mittelwert

Quasi-Experiment

Untersuchung, bei der auf Randomisierung verzichtet werden muss, weil natürliche bzw. bereits bestehende Gruppen untersucht werden; Beispiel: Raucher vs. Nichtraucher, männliche vs. weibliche Personen (man kann nicht per Zufall entscheiden, welcher Gruppe eine Person angehören soll)

Quasi-F-Brüche

Nach dem theoretischen Erwartungsmodell gebildete F-Brüche, um nicht direkt zu testende Effekte approximativ zu testen (Varianzanalyse)

Rand-Index

Ein Index zur Evaluation clusteranalytischer Lösungen mit ungleicher Clusteranzahl

Randomisierung

Zufällige Zuordnung der Versuchsteilnehmer bzw. -objekte zu den Versuchsbedingungen

Rangkorrelation nach Spearman

Verfahren zur Berechnung eines Korrelationskoeffizienten welches auf den Rängen der Merkmale basiert

Redundanz

In der Korrelationsrechnung der prozentuale Anteil der Varianz der y-Werte, der aufgrund der x-Werte erklärbar bzw. redundant ist

Regressionsgleichung

Beschreibt den Mittelwert eines Kriteriums in Abhängigkeit eines oder mehrerer Prädiktoren. Mit Hilfe der Regressionsgleichung kann ein Vorhersagewert für die Kriteriumsvariable berechnet werden

Regressionsresiduum

Kennzeichnet die Abweichung eines empirischen Werts von seinem durch die Regressionsgleichung vorhergesagten Wert. Es enthält Anteile der Kriteriumsvariablen, die durch die Prädiktorvariable nicht erfasst werden

rekursive Systeme

Systeme, in denen nur einseitig gerichtete kausale Wirkungen angenommen und in denen die Variablen bezüglich ihrer kausalen Priorität hierarchisch angeordnet werden (Pfadanalyse)

Relationensystem

Menge von Objekten und einer oder mehrerer Relationen (z.B. Gleichheitsrelation, die besagt, dass zwei Objekte gleich sind; Ordnungsrelation, die besagt, dass sich Objekte in eine Rangreihe bringen lassen) (empirisches bzw. numerisches Relativ)

relative Häufigkeit

Wird ein Zufallsexperiment n-mal wiederholt, besagt die relative Häufigkeit, wie oft ein Ereignis in Relation zu n aufgetreten ist. Die relative Häufigkeit liegt daher immer zwischen 0 und 1,0

robuster Test

Ein Signifikanztest ist robust, wenn er trotz verletzter Voraussetzungen das festgelegte Signifikanzniveau α einhält

Scheffé-Test

Mit diesem Test wird der gesamte, mit allen möglichen Einzelvergleichen verbundene Hypothesenkomplex der Varianzanalyse auf dem festgelegten Niveau eines Fehlers 1. Art abgesichert

Schiefe

Eigenschaft einer Verteilung, wenn diese auf einer Seite steiler ansteigt als auf der anderen, also asymmetrisch ist

Schrumpfungskorrektur

Korrektur, die erforderlich wird, wenn ein bestimmter Kennwert den wahren Wert in der Population überschätzt (z.B. bei der multiplen Korrelation)

Scree-Test

Identifikation der bedeutsamen Faktoren in der Faktorenanalyse anhand des Eigenwertediagramms

Sequenzeffekte

Effekte, die bei wiederholter Untersuchung von Versuchspersonen auftreten und die Treatmenteffekte überlagern können (z. B. Lerneffekte; Varianzanalyse)

Signifikanzniveau

Vom Versuchsleiter festgelegter Wert für α. Im Allgemeinen spricht man von einem signifikanten Ergebnis, wenn der ermittelte p-Wert höchstens α = 0,05, von einem sehr signifikanten Ergebnis, wenn er höchstens α = 0,01 beträgt

spezifische Alternativhypothese

Annahme, die nicht nur einen Unterschied oder Zusammenhang generell, sondern auch dessen Mindestgröße voraussagt. Beispiel: Männer sind im Durchschnitt mindestens 5 cm größer als Frauen (im Gegensatz zur unspezifischen Alternativhypothese: Männer sind im Durchschnitt größer als Frauen). Spezifische Hypothesen werden meistens in Verbindung mit Effektgrößen formuliert

Standardabweichung

Wurzel aus der Varianz; bezeichnet durch s für Stichproben, durch σ für theoretische Verteilungen (z.B. Population)

Standardfehler

Standardabweichung einer Stichprobenverteilung. Sie informiert darüber, wie unterschiedlich Stichprobenkennwerte (z.B. Mittelwerte) von Stichproben aus einer Population bei einem gegebenen Stichprobenumfang sein können. Wichtig für die Inferenzstatistik

Standardnormalverteilung

Normalverteilung mit Erwartungswert (μ) 0 und Standardabweichung (σ) 1,0. Jede Normalverteilung kann durch z-Transformation in die Standardnormalverteilung überführt werden, was den Vergleich verschiedener Normalverteilungen ermöglicht

Standardschätzfehler

Kennzeichnet die Streuung der y-Werte um die Regressionsgerade und ist damit ein Gütemaßstab für die Genauigkeit der Regressionsvorhersagen. Je kleiner der Standardschätzfehler, desto genauer ist die Vorhersage. Der Standardschätzfehler ist identisch mit der Streuung der Regressionsresiduen

Stängel-Blatt-Diagramm

Spezielle Form eines Histogramms, dem nicht nur die Häufigkeit von Messwerten, sondern auch deren Größe entnommen werden kann

stetig

Ein Merkmal ist stetig, wenn es zumindest theoretisch beliebig genau gemessen werden kann. Beispiel: Größe, Gewicht etc.

Stichprobe

In der Regel zufällig ausgewählte Personengruppe, die als Grundlage für inferenzstatistische Schlüsse dienen soll

Stichprobenkennwert

Wert, der die beobachteten Werte einer Stichprobe zusammenfasst, um eine Aussage zur Verteilung der Werte zu machen. Beispiel: Mittelwert, Modalwert, Varianz

Stichprobenverteilung

Verteilung der Kennwerte eines Merkmals aus mehreren Stichproben, die derselben Grundgesamtheit entnommen wurden. Beispiel: Verteilung der Mittelwerte aus Untersuchungen zur Körpergröße von Zehnjährigen

Suffizienz

Kriterium der Parameterschätzung: Eigenschaft eines Schätzwertes, wenn er alle in den Daten einer Stichprobe enthaltenen Informationen berücksichtigt

Suppressorvariable

Variable, die den Vorhersagebeitrag einer anderer Variablen erhöht, indem sie irrelevante Varianzen in der anderen Variablen unterdrückt (multiple Regression)

t-Test für Beobachtungspaare

Statistischer Signifikanztest, der zwei Gruppen (parallelisierte Stichproben oder Messwiederholung) auf einen Unterschied bezüglich ihrer Mittelwerte eines intervallskalierten Merkmals untersucht.

t-Test für unabhängige Stichproben

Statistischer Signifikanztest, der zwei Gruppen auf einen Unterschied bezüglich ihrer Mittelwerte eines intervallskalierten Merkmals untersucht

Teststärke

Gegenwahrscheinlichkeit des Fehlers 2. Art: 1 − β. Sie gibt an, mit welcher Wahrscheinlichkeit ein Signifikanztest zugunsten einer spezifischen Alternativhypothese entscheidet, sofern diese wahr ist, d. h. mit welcher Wahrscheinlichkeit ein Unterschied oder Zusammenhang entdeckt wird, wenn er existiert

tetrachorische Korrelation

Verfahren zur Berechnung eines Korrelationskoeffizienten rtet für zwei künstlich dichotomisierte Merkmale; diese werden im Allgemeinen in einer 2 × 2-Tabelle dargestellt. Treatment: Im Rahmen der Varianzanalyse synonym

Treatment

Im Rahmen der Varianzanalyse synonym mit dem Begriff Faktor

Treatmentquadratsumme

Die Treatmentquadratsumme kennzeichnet im Rahmen der einfaktoriellen Varianzanalyse die Unterschiedlichkeit der Messwerte zwischen den Stichproben. Ihre Größe hängt von der Wirksamkeit der geprüften unabhängigen Variablen (Treatment) ab

Trendtests

Durch Trendtests wird die Treatmentquadratsumme in orthogonale Trendkomponenten zerlegt, die auf verschiedene Trends (linear, quadratisch, kubisch usw.) in den Mittelwerten der abhängigen Variablen zurückzuführen sind (Varianzanalyse)

unabhängige Variable

Merkmal, das systematisch variiert wird, um seine Auswirkung auf die abhängige Variable zu untersuchen

Unabhängigkeit

Verhältnis zweier Ereignisse zueinander, wenn das Auftreten des einen Ereignisses nicht davon beeinflusst wird, ob das andere eintritt oder nicht. Mathematisch drückt sich dies darin aus, dass die Wahrscheinlichkeit für das gemeinsame Auftreten beider Ereignisse dem Produkt der Einzelwahrscheinlichkeiten der beiden Ereignisse entspricht

ungerichtete Alternativhypothese

Annahme, die einen Unterschied oder Zusammenhang voraussagt, ohne deren Richtung zu spezifizieren. Beispiel: Männer und Frauen sind im Durchschnitt unterschiedlich groß (im Gegensatz zur gerichteten H1: Männer sind im Durchschnitt größer als Frauen)

unspezifische Alternativhypothese

Annahme, die einen Unterschied oder Zusammenhang voraussagt, ohne deren Größe zu spezifizieren

Varianz

Summe der quadrierten Abweichungen aller Messwerte einer Verteilung vom Mittelwert, die am Stichprobenumfang relativiert wird. Maß für die Unterschiedlichkeit der einzelnen Werte einer Verteilung

Varianzanalyse

Allgemeine Bezeichnung für eineVerfahrensklasse zur Überprüfung von Unterschiedshypothesen. Man unterscheidet ein- und mehrfaktorielle Varianzanalysen, uni- undmultivariate Varianzanalysen, hierarchische und nicht-hierarchische Varianzanalysen sowie Kovarianzanalysen

Variationsbreite

Gibt an, in welchem Bereich sich die Messwerte einer Stichprobe befinden; ergibt sich als Differenz des größten und kleinsten Werts der Verteilung

Varimax-Kriterium

Rotationskriterium, das die Varianz der quadrierten Ladungen pro Faktor maximiert (Faktorenanalyse)

Verhältnisskala

Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass das Verhältnis zwischen je zwei Zahlen dem Verhältnis der Merkmalsausprägungen der jeweiligen Objekte entspricht. Eine Verhältnisskala erlaubt Aussagen über Gleichheit (Äquivalenzrelation), Rangfolge (Ordnungsrelation) und Größe des Unterschieds der Merkmalsausprägung von Objekten. Sie hat außerdem einen empirisch begründbaren Nullpunkt. Beispiel: Länge

Versuchsleitereffekte

(Unbewusste) Beeinflussung des Untersuchungsergebnisses durch das Verhalten oder die Erwartungen des Versuchsleiters

verteilungsfreie Verfahren

Statistische Tests, die keine besondere Verteilungsform der Grundgesamtheit (insbesondere Normalverteilung) voraussetzen. Sie sind vor allem für die inferenzstatistische Auswertung kleiner Stichproben geeignet; auch nichtparametrische Tests genannt

Verteilungsfunktion

Kumulation der Wahrscheinlichkeitsfunktion einer Zufallsvariablen. Die Werte dieser Funktion benennen keine Einzelwahrscheinlichkeiten, sondern die Wahrscheinlichkeit des Wertes selbst sowie aller kleineren Werte. Die Verteilungsfunktion berechnet sich bei stetigen Zufallsvariablen durch das Integral der Dichtefunktion

Wahrscheinlichkeitsfunktion

Funktion, die bei diskreten Zufallsvariablen angibt, mit welcher Wahrscheinlichkeit jedes Ereignis bei einem Zufallsexperiment auftritt. Bei stetigen Variablen bezeichnet man die Wahrscheinlichkeitsfunktion als Dichtefunktion

Ward-Methode

Hierarchisches Verfahren, das zur Clusteranalyse gehört

Wilcoxon-Test

Verteilungsfreier Signifikanztest, der zwei Gruppen, die nicht unabhängig voneinander ausgewählt wurden (Matched Samples oder Messwiederholung), auf einen Unterschied bezüglich ihrer zentralen Tendenz eines ordinalskalierten Merkmals untersucht

z-Transformation

Ein Wert einer beliebigen Verteilung wird durch Subtraktion des Mittelwerts und anschließende Division durch die Standardabweichung der Verteilung in einen z-Wert umgewandelt. Eine derart umgewandelte Verteilung hat einen Mittelwert von 0 und eine Standardabweichung von 1,0. Beliebige Normalverteilungen werden durch die z-Transformation in die Standardnormalverteilung überführt

zentrale Grenzwerttheorem

Besagt, dass die Verteilung von Mittelwerten gleich großer Stichproben aus derselben Grundgesamtheit bei wachsendem Stichprobenumfang (n) in eine Normalverteilung übergeht. Dies gilt, unabhängig von der Verteilungsform der Messwerte in der Grundgesamtheit, für Stichproben mit n > 30

zentrale Tendenz

Charakterisiert die „Mitte“ bzw. das „Zentrum“ einer Verteilung. Bei intervallskalierten Daten wird die zentrale Tendenz durch das arithmetische Mittel oder den Median beschrieben

zufällige Effekte

Ein Faktor überprüft zufällige Effekte, wenn die Auswahl der Effekte zufällig aus einer Population erfolgte. Beispiel: Lehrer, Therapeuten oder Versuchsleiter als Stufen eines Faktors

Zufallsexperiment

Ein beliebig oft wiederholbarer Vorgang, der nach einer ganz bestimmten Vorschrift ausgeführt wird und dessen Ergebnis vom Zufall abhängt, d. h. nicht im Voraus eindeutig bestimmt werden kann (z.B. Würfeln, Messung der Reaktionszeit)

Zufallsstichprobe

Zufällige Auswahl von Untersuchungseinheiten; jedes Element der Grundgesamtheit wird, unabhängig von den bereits ausgewählten Elementen, mit gleicher Wahrscheinlichkeit ausgewählt

Zufallsvariable

Funktion, die den Ergebnissen eines Zufallsexperiments (d. h. Elementarereignissen oder Ereignissen) reelle Zahlen zuordnet, z. B. beim Würfeln Zuordnung einer Zahl von 1 bis 6 zu jedem Wurf

Zusammenhangshypothese

Annahme, die besagt, dass zwei oder mehr zu untersuchende Merkmale miteinander zusammenhängen. Überprüfung durch Korrelationsstatistik

zweiseitiger Test

Statistischer Test, der eine ungerichtete Hypothese (im Gegensatz zu einer gerichteten Hypothese) überprüft

Zurück zur Übersicht