Lexikon - Gesamtglossar aller Bücher

  • Begriff
    Erklärung
  • A posteriori Kontrast
    Der Unterschied zwischen zwei Gruppen wird im Nachhinein auf Signifikanz geprüft (Varianzanalyse)
  • A priori Kontrast
    Über den Unterschied zwischen zwei Gruppen besteht bereits vor der Untersuchung eine (meist gerichtete) Hypothese
  • abhängige Variable
    Merkmal, das in einem Quasi-Experiment erfasst wird, um zu überprüfen, wie sich systematisch variierte unabhängige Variablen auf die abhängige Variable auswirken
  • Ähnlichkeitsmaße
    Sie werden im Rahmen der Clusteranalyse benötigt, um die Ähnlichkeit der zu gruppierenden Objekte zu ermitteln
  • Allgemeines Lineares Modell (ALM)
    Verfahren, das die Varianzanalyse sowie die lineare Regressionsrechnung integriert
  • Alternativhypothese
    Gegenhypothese zur Nullhypothese. Man unterscheidet gerichtete und ungerichtete sowie spezifische und unspezifische Alternativhypothesen
  • Axiome
    Aussagen, die nicht bewiesen werden, sondern deren Gültigkeit vorausgesetzt wird
  • Bayes-Statistik
    Eine Variante der statistischen Entscheidungstheorie, bei der Wahrscheinlichkeiten für verschiedene Hypothesen unter der Voraussetzung eines empirisch ermittelten Untersuchungsergebnisses berechnet werden
  • bimodale Verteilung
    Verteilung mit zwei Gipfeln
  • Binomialverteilung
    Wahrscheinlichkeitsverteilung, die aussagt, wie wahrscheinlich x Erfolges bei n Wiederholungen eines Zufallsexperiments sind. Ein Erfolg tritt dabei in jedem Versuch mit der Wahrscheinlichkeit π ein, ein Misserfolg mit Wahrscheinlichkeit (1 − π). Beispiel Münzwurf: Erfolg = Zahl, Misserfolg = Kopf
  • biseriale Korrelation
    Korrelationskoeffizient rbis für ein metrisches und ein künstlich dichotomes Merkmal
  • biseriale Rangkorrelation
    Korrelationskoeffizient für ein (echt oder künstlich) dichotomes und ein rangskaliertes Merkmal
  • bivariate Normalverteilung
    Verteilung, die sich ergibt, wenn zwei Merkmale gemeinsam erhoben werden und dabei nicht nur die Verteilung jedes Merkmals für sich allein, sondern auch deren gemeinsame Verteilung normal ist; in diesem Fall ergibt die grafische Darstellung der gemeinsamen Verteilung eine (dreidimensionale) Glockenform
  • bivariate Verteilung
    Verteilung zweier gemeinsam erhobener Variablen; grafische Darstellung als Punktwolke oder dreidimensional
  • Bonferroni-Korrektur
    Korrektur des festgelegten Fehlers 1. Art bei mehreren Einzelhypothesen zur Überprüfung einer Gesamthypothese
  • Bootstrap-Technik
    Der Monte-Carlo-Methode ähnliche Computersimulationstechnik, mit der die Verteilung eines Stichprobenkennwertes erzeugt wird
  • Box-Test
    Verfahren zur Überprüfung der Homogenität einer Varianz-Kovarianz-Matrix. Wird bei multivariaten Mittelwertvergleichen benötigt
  • Chi-Quadrat-Methoden
    Signifikanztests zur Analyse von Häufigkeiten
  • Chi-Quadrat-Unabhängigkeitstest
    Verfahren, mit dem die Nullhypothese überprüft werden kann, nach der ein k-fach und ein l-fach gestuftes Merkmal voneinander unabhängig sind
  • Clusteranalyse
    Heuristisches Verfahren zur systematischen Klassifizierung der Objekte einer gegebenen Objektmenge
  • Cochran-Test
    Verfahren zur Überprüfung von Veränderungen eines dichotomen Merkmals bei Wiederholungsuntersuchungen. Es wird die H0 überprüft, dass sich die Verteilung der Merkmalsalternativen nicht verändert
  • Dendrogramm
    Eine grafische Darstellung des Ergebnisses einer hierarchischen Clusteranalyse, die über die Anzahl der bedeutsamen Cluster informiert
  • deskriptive Statistik
    Statistik, die die Daten einer Stichprobe z. B. durch Grafiken oder Kennwerte (Mittelwert, Varianz etc.) beschreibt
  • Determinationskoeffizient
    Anteil der Variabilität des Kriteriums, der durch einen oder mehrere Prädiktoren vorhergesagt werden kann
  • Dichotomisierung
    Künstliche Einteilung eines Merkmals, das von Natur aus eigentlich mehrere Ausprägungen besitzt (z.B. Körpergröße - im Gegensatz zum Geschlecht), in nur zwei Ausprägungen, z.B. bei metrischen Daten durch Teilung am Median (>178 cm vs. <178 cm)
  • disjunkt
    Zwei einander ausschließende (d. h. keine gemeinsamen Elementarereignisse beinhaltende) Ereignisse sind disjunkt. Ihr Durchschnitt (A∩B) ist die leere Menge
  • diskret
    Ein Merkmal ist diskret, wenn es nur bestimmte Werte annehmen kann. Beispiel: Die Anzahl der Freunde einer Person lässt sich nur in ganzen Zahlen angeben
  • Diskriminanzanalyse
    Verfahren, das aufgrund der linearen Gewichtung eines Satzes abhängiger Variablen zu einer maximalen Trennung der untersuchten Gruppen führt
  • Diskriminanzraum
    Er besteht aus einer bestimmten Anzahl von Diskriminanzfaktoren, deren Reihenfolge so festgelegt wird, dass die verglichenen Stichproben sukzessiv maximal getrennt werden
  • Effektgröße
    Um eine spezifische Alternativhypothese formulieren zu können, muss man die erwartete Effektgröße im Voraus angeben. Die Festlegung einer Effektgröße ist auch notwendig, um den für die geplante Untersuchung benötigten Stichprobenumfang zu bestimmen bzw. die Teststärke eines Signifikanztests angeben zu können. Da sich bei großen Stichproben auch sehr kleine (für die Praxis unbedeutende) Effekte als statistisch signifikant erweisen können, sollte ergänzend zur statistischen Signifikanz immer auch die Effektgröße betrachtet werden
  • Effizienz
    Kriterium der Parameterschätzung: Je größer die Varianz der Stichprobenverteilung eines Kennwertes, desto geringer ist seine Effizienz
  • Eigenwert
    Gesamtvarianz der Indikatoren, die durch einen Faktor aufgeklärt wird (Faktorenanalyse)
  • Eigenwertediagramm
    Grafische Darstellung der Eigenwerte einer PCA in einem Diagramm (Faktorenanalyse)
  • eindimensionaler Chi-Quadrat-Test
    χ2-Methode zur Signifikanzprüfung der Häufigkeiten eines k-fach gestuften Merkmals; hierbei kann getestet werden, ob die untersuchten Daten gleich verteilt sind oder ob sie einer bestimmten Verteilungsform (z. B. Normalverteilung) folgen
  • einfacher Haupteffekt
    Unterschiedlichkeit der Stufen des Faktors A für eine Stufe des Faktors B (und umgekehrt). Unterschiedlichkeit der Stufen des Faktors A für eine Stufe des Faktors B (und umgekehrt)
  • einseitiger Test
    Statistischer Test, der eine gerichtete Hypothese überprüft
  • Einzelvergleich
    Alternative Bezeichnung für Kontrast
  • Elementarereignis
    Ein einzelnes Ergebnis eines Zufallsexperiments (z. B. beim Würfeln eine bestimmte Augenzahl würfeln)
  • empirisches Relativ
    Aus empirischen Objekten bestehendes Relationensystem (im Gegensatz zu einem numerischen Relativ)
  • Epsilon-Korrektur
    Korrektur der Freiheitsgrade im Rahmen einer Varianzanalyse mit Messwiederholungen, die erforderlich wird, wenn bestimmte Voraussetzungen dieses Verfahrens verletzt sind
  • Ereignis
    Mehrere Elementarereignisse werden zu einem Ereignis zusammengefasst (z.B. beim Würfeln das Ereignis „alle geraden Zahlen“)
  • Erwartungstreue
    Eigenschaft eines statistischen Kennwertes im Hinblick auf die Schätzung eines Populationsparameters, wenn das Mittel der Stichprobenverteilung bzw. deren Erwartungswert dem Populationsparameter entspricht
  • Erwartungswert
    Mittelwert einer theoretischen (nicht empirischen) Verteilung einer Zufallsvariablen; bezeichnet durch den Buchstaben μ bzw. durch E(X)
  • Eta
    Korrelationskoeffizient, der die linearen und nonlinearen Zusammenhänge zwischen unabhängiger und abhängiger Variable erfasst (Varianzanalyse)
  • Exhaustion
    Modifikation oder Erweiterung einer Theorie aufgrund von Untersuchungsergebnissen, die die ursprüngliche Form der Theorie falsifizieren
  • Experiment
    Untersuchung mit randomisierten Stichproben, um die Auswirkung einer oder mehrerer unabhängigen Variablen auf die abhängige Variable zu überprüfen
  • externe Validität
    Liegt vor, wenn das Ergebnis einer Untersuchung über die untersuchte Stichprobe und die Untersuchungsbedingungen hinaus generalisierbar ist. Sie sinkt, je unnatürlicher die Untersuchungsbedingungen sind und je weniger repräsentativ die untersuchte Stichprobe für die Grundgesamtheit ist
  • Faktor
    Im Rahmen der Varianzanalyse ist ein Faktor eine unabhängige Variable, deren Bedeutung für eine abhängige Variable überprüft wird
  • Faktorenanalyse
    Datenreduzierendes Verfahren zur Bestimmung der dimensionalen Struktur korrelierter Merkmale
  • Faktorladung
    Korrelation zwischen einer Variablen und einem Faktor (Faktorenanalyse)
  • Faktorwert
    Der Faktorwert kennzeichnet die Position einer Person auf einem Faktor (Faktorenanalyse)
  • Fehler 1. Art
    In der statistischen Entscheidungstheorie die fälschliche Entscheidung zugunsten der H1, d. h., man nimmt an, die Alternativhypothese sei richtig, obwohl in Wirklichkeit die Nullhypothese richtig ist
  • Fehler 2. Art
    In der statistischen Entscheidungstheorie die fälschliche Entscheidung zugunsten der H0, d. h., man nimmt an, die Nullhypothese sei richtig, obwohl in Wirklichkeit die Alternativhypothese richtig ist
  • Fehlerquadratsumme
    Kennzeichnet im Rahmen der Varianzanalyse die Unterschiedlichkeit der Messwerte innerhalb der Stichproben
  • Felduntersuchung
    Untersuchung, die in einem natürlichen Umfeld stattfindet
  • Feste Effekte
    Systematische Auswahl der Faktorstufen, über die letztlich Aussagen gemacht werden sollen (Varianzanalyse)
  • Fisher Z-Transformation
    Transformation von Korrelationen in sog. Z-Werte (nicht verwechseln mit standardisierten Werten (z-Transformation) oder z-Werten der Standardnormalverteilung); die Fisher Z-Transformation ist z. B. erforderlich, wenn Korrelationen gemittelt werden sollen
  • Fmax-Test
    Verfahren zur Überprüfung der Varianzhomogenitäts-Voraussetzung im Rahmen der Varianzanalyse. Lässt nur gleich große Stichprobenumfänge zu
  • Freiheitsgrade
    Die Anzahl der bei der Berechnung eines Kennwerts frei variierbaren Werte. Beispiel: Die Summe der Differenzen aller Werte von ihrem Mittelwert ergibt null. Sind von zehn Werten neun bereits zufällig gewählt, steht fest, wie groß die zehnte Differenz sein muss. Die Varianz – deren Formel diese Differenzen vom Mittelwert beinhaltet – hat daher neun Freiheitsgrade. Anwendung bei der Bestimmung der für verschiedene statistische Tests adäquaten Prüfverteilung
  • Fusionskriterien
    Kriterien, nach denen entschieden wird, welche Objekte oder Cluster zu einem neuen Cluster zusammengefasst werden (z.B. Single Linkage, Complete Linkage oder Average Linkage) (Clusteranalyse)
  • gerichtete Alternativhypothese
    Annahme (statistische Hypothese), die nicht einen irgendwie gearteten Unterschied oder Zusammenhang behauptet, sondern die eine bestimmte Richtung vorgibt. Beispiel: Männer sind im Durchschnitt größer als Frauen
  • geschachtelte Faktoren
    Ein Faktor, dessen Stufen nur unter bestimmten Stufen eines anderen Faktors auftreten (Varianzanalyse)
  • geschichtete Stichprobe
    Stichprobe, in der sich ausgewählte Merkmale (Alter, Geschlecht, Einkommen etc.) nach bestimmten Vorgaben verteilen; liegt eine proportional geschichtete Stichprobe vor, entspricht die prozentuale Verteilung der Schichtungsmerkmale in der Stichprobe der prozentualen Verteilung in der Grundgesamtheit
  • Griechisch-lateinische Quadrate
    Erweiterung eines lateinischen Quadrats um einen Faktor (Varianzanalyse).
  • Haupteffekt
    In Abgrenzung zu einem Interaktionseffekt in der mehrfaktoriellen Varianzanalyse kennzeichnet ein Haupteffekt die Wirkungsweise eines bestimmten Faktors bzw. einer bestimmten unabhängigen Variablen
  • Hauptkomponentenanalyse
    Wichtigstes Verfahren zur Extraktion von Faktoren. Faktoren einer Hauptkomponentenanalyse sind voneinander unabhängig und erklären sukzessiv maximale Varianzanteile (Faktorenanalyse)
  • Helmert-Kontraste
    Regeln zur Erzeugung eines vollständigen Satzes orthogonaler Einzelvergleiche (Varianzanalyse)
  • Hierarchische Versuchspläne
    Versuchspläne, bei denen durch Schachtelung je eines Faktors unter den vorherigen eine Hierarchie der Faktoren entsteht (Varianzanalyse)
  • Histogramm
    Trägt man in einer Grafik die empirische Häufigkeitsverteilung einer diskreten Variablen in Form von Balken ab, erhält man ein Histogramm
  • Holm-Korrektur
    Technik zur Korrektur des Fehlers 1. Art beim multiplen Testen. Sie ist weniger konservativ als die Bonferroni-Korrektur
  • homomorph
    Lässt sich ein empirisches durch ein numerisches Relativ so abbilden, dass eine bestimmte Relation im empirischen Relativ der Relation im numerischen Relativ entspricht, bezeichnet man diese Abbildung als homomorph. Beispiel: empirisches Relativ: Mathekenntnisse der Schüler einer Klasse; numerisches Relativ: Mathenoten. Bilden die Mathenoten die Kenntnisse der Schüler „wirklichkeitsgetreu“ ab, ist diese Abbildung homomorph
  • Homoskedastizität
    Liegt vor, wenn bei einer bivariaten Verteilung zweier Variablen x und y die zu jedem beliebigen Wert xi gehörenden y-Werte gleich streuen. Beispiel: Erhebt man Körpergröße (x) und Schuhgröße (y), sollten die Schuhgrößen von Menschen, die 180 cm groß sind, die gleiche Varianz aufweisen wie die Schuhgrößen von Menschen, die 170 cm groß sind
  • Hotellings T2-Test
    Verfahrensgruppe zur Überprüfung multivariater Unterschiedshypothesen, d. h. Unterschiedshypothesen auf der Basis mehrerer abhängiger Variablen
  • Inferenzstatistik
    Statistik, die auf der Basis von Stichprobenergebnissen induktiv allgemeingültige Aussagen formuliert. Zur Inferenzstatistik zählen die Schätzung von Populationsparametern (Schließen) und die Überprüfung von Hypothesen (Testen)
  • Interaktion
    Effekt der Kombination mehrerer Faktoren. Man unterscheidet zwischen ordinaler, hybrider und disordinaler Interaktion (Varianzanalyse)
  • interne Validität
    Liegt vor, wenn das Ergebnis einer Untersuchung eindeutig interpretierbar ist. Sie sinkt mit der Anzahl plausibler Alternativerklärungen für das Ergebnis
  • Intervallskala
    Eine Intervallskala erlaubt Aussagen über Gleichheit (Äquivalenzrelation), Rangfolge (Ordnungsrelation) und Größe des Unterschieds der Merkmalsausprägung von Objekten. Eine Intervallskala hat keinen empirisch begründbaren Nullpunkt. Beispiel: Temperaturskalen; mit Fahrenheit- und Celsiusskala lassen sich die gleichen Aussagen machen; ihr Nullpunkt ist verschieden. Intervallskala und Verhältnisskalen bezeichnet man zusammenfassend als metrische Skalen
  • K-means-Methode
    Ein Verfahren der nichthierarchischen Clusteranalyse
  • Kaiser-Guttmann-Kriterium
    Nur Faktoren mit einem Eigenwert größer 1 sind als bedeutsam einzustufen. Überschätzt in der Regel die Anzahl bedeutsamer Faktoren (Faktorenanalyse)
  • kanonische Korrelation
    Erfasst den Zusammenhang zwischen mehreren Prädiktorvariablen und mehreren Kriteriumsvariablen
  • Kappa-Maß
    Verfahren, mit dem man die Übereinstimmung von zwei Klassifikationen derselben Objekte erfassen und überprüfen kann
  • Klassifikation
    Verfahren, mit dem man überprüfen kann, zu welcher von k Gruppen ein Individuum aufgrund eines individuellen Merkmalsprofils am besten passt (Diskriminanzanalyse)
  • Klumpenstichprobe
    Als Klumpen (Cluster) bezeichnet man eine definierte Teilgruppe einer Population (z.B. die Schüler einer Schulklasse, die Patienten eines Krankenhauses etc.). Eine Klumpenstichprobe besteht aus allen Individuen, die sich in einer Zufallsauswahl von Klumpen befinden. Beispiel: Alle Alkoholiker aus zufällig ausgewählten Kliniken
  • Kommunalität
    Ausmaß, in dem die Varianz einer Variablen durch die Faktoren aufgeklärt wird (Faktorenanalyse)
  • Konfidenzintervall
    Wertebereich, in dem sich der Populationsparameter mit einer vorgegebenen Sicherheit (z.B. 95% oder 99%) befindet
  • Konfigurationsfrequenzanalyse
    Verallgemeinerung der Kontingenztafelanalyse auf eine mehrdimensionale „Tafel“, mit der die Häufigkeiten mehrerer nominalskalierter Merkmale mit mehreren Stufen verglichen werden können. Geprüft wird die stochastische Unabhängigkeit der Merkmale voneinander
  • konservative Entscheidung
    Wenn ein statistischer Signifikanztest aufgrund von Voraussetzungsverletzungen eher zugunsten von H0 entscheidet
  • Konsistenz
    Kriterium der Parameterschätzung: Eigenschaft eines Schätzwertes, wenn er sich mit wachsendem Stichprobenumfang dem zu schätzenden Parameter nähert
  • Kontingenzkoeffizient
    Maß zur Charakterisierung des Zusammenhangs zweier nominalskalierter Merkmale
  • Kontingenztabelle
    Tabellarische Darstellung der gemeinsamen Häufigkeitsverteilung mehrerer kategorialer Merkmals
  • Kontrast
    Dienen der Überprüfung von Unterschieden zwischen einzelnen Stufen eines Treatments im Rahmen der Varianzanalyse. Man unterscheidet a priori und a posteriori Kontraste. Eine andere Bezeichnung für Kontrast ist Einzelvergleich
  • Korrelationskoeffizient
    Zusammenhangsmaß, welches einen Wert zwischen −1 und +1 annimmt. Ein positiver Korrelationskoeffizient besagt, dass hohe x-Werte häufig mit hohen y-Werten auftreten. Ein negativer Korrelationskoeffizient besagt, dass hohe x-Werte häufig mit niedrigen y-Werten auftreten
  • Kovarianz
    Maß für den Grad des Miteinander-Variierens zweier Messwertreihen x und y. Eine positive Kovarianz besteht, wenn viele Versuchspersonen bei einem hohen x-Wert auch einen hohen y-Wert haben; eine negative Kovarianz besteht, wenn viele Versuchspersonen bei einem hohen x-Wert einen niedrigen y-Wert haben. Die Kovarianz z-transformierter Variablen entspricht der Produkt-Moment-Korrelation
  • Kovarianzanalyse
    Verfahren zur Überprüfung der Bedeutsamkeit einer Kovariaten für eine Untersuchung. Der Einfluss dieser Variablen wird „neutralisiert“ (Varianzanalyse)
  • Kovariate
    Merkmal, das weder abhängige noch unabhängige Variable ist, sondern nur miterhoben wird, um prüfen zu können, ob es einen Einfluss auf das Untersuchungsergebnis hatte
  • Kreuzvalidierung
    Verfahren, bei dem zwei Regressionsgleichungen aufgrund von zwei Teilstichproben bestimmt werden, deren Vorhersagekraft in Bezug auf die Kriteriumswerte der anderen Stichprobe geprüft wird
  • Kriteriumsrotation
    Eine Rotationstechnik, mit der eine empirische Faktorenstruktur einer vorgegebenen Kriteriumsstruktur maximal angenähert wird (Faktorenanalyse)
  • Kriteriumsvariable
    Variable, die mittels einer oder mehrerer Prädiktorvariablen und einer Regressionsgleichung vorhergesagt werden kann
  • Lateinisches Quadrat
    Besondere Variante unvollständiger Versuchspläne mit drei Faktoren, die alle dieselbe Stufenzahl aufweisen (Varianzanalyse)
  • LISREL
    Computerprogramm von Jöreskog und Sörbom (1993) zur Überprüfung linearer Strukturgleichungsmodelle
  • Mann-Whitney-U-Test
    Verteilungsfreier Signifikanztest für den Vergleich zweier unabhängiger Stichproben auf der Basis rangskalierter Daten
  • Matched Samples
    Strategie zur Erhöhung der internen Validität bei quasi-experimentellen Untersuchungen mit kleinen Gruppen. Zur Erstellung von Matched Samples wird die Gesamtmenge der Untersuchungsobjekte hinsichtlich bestimmter Merkmale in möglichst ähnliche Paare gruppiert. Die beiden Untersuchungsgruppen werden anschließend so zusammengestellt, dass jeweils in Paarling zufällig der einen Gruppe, der andere Paarling der anderen Gruppe zugeordnet wird. Man beachte, dass Matched Samples Beobachtungspaaren führen, die auch mit entsprechenden Signifikanztests (z.B. t-Test für Beobachtungspaare) auszuwerten sind
  • Maximum-Likelihood-Methode
    Methode, nach der Populationsparameter so geschätzt werden, dass die Wahrscheinlichkeit bzw. Likelihood des Auftretens der beobachteten Daten maximiert wird
  • McNemar-Test
    χ2-Methode zur Signifikanzprüfung der Häufigkeiten eines dichotomen Merkmals, das bei derselben Stichprobe zu zwei Zeitpunkten erhoben wurde (vorher – nachher)
  • Median
    Derjenige Wert einer Verteilung, der die Gesamtzahl der Fälle halbiert, sodass 50% aller Werte unter dem Median und 50% aller Fälle über ihm liegen
  • Messwiederholung
    An einer Stichprobe wird dasselbe Merkmal bei jeder Versuchsperson mehrmals gemessen (z. B. zu zwei Zeitpunkten, vorher – nachher); solche Stichproben bezeichnet man als verbunden
  • Methode der kleinstenQuadrate
    Methode zur Schätzung unbekannter Parameter. Hierbei wird die Summe der quadrierten Abweichungen der beobachteten Messungen vom gesuchten Schätzwert minimiert. Wird z. B. in der Regressionsrechnung angewendet
  • metrische Skala
    Zusammenfassender Begriff für Intervall- und Verhältnisskalen
  • Mittelwert
    Ergibt sich, wenn die Summe aller Werte einer Stichprobe durch die Gesamtzahl der Werte geteilt wird
  • Modalwert
    Wert einer Verteilung, der am häufigsten vorkommt. In einer grafischen Darstellung der Verteilung deren Maximum. Eine Verteilung kann mehrere Modalwerte (und somit Maxima) besitzen (bimodale Verteilung)
  • Monte-Carlo-Methode
    Mittels Computer werden aus einer festgelegten Population viele Stichproben gezogen (Computersimulation), um anhand dieser Simulation zu erfahren, wie sich statistische Kennwerte (z.B. Mittelwerte) verteilen oder wie sich Verletzungen von Testvoraussetzungen auf die Ergebnisse des Tests auswirken
  • Multikollinearität
    Wechselseitige Abhängigkeit von Variablen im Kontext multivariater Verfahren
  • multiple Korrelation
    Bestimmt den Zusammenhang zwischen mehreren Prädiktorvariablen und einer Kriteriumsvariablen
  • multiple Regression
    Vorhersage einer Kriteriumsvariablen mittels eines linearen Gleichungsmodells aufgrund mehrerer Prädiktorvariablen
  • Multivariate Verfahren
    Gruppe statistischer Verfahren, mit denen die gleichzeitige, natürliche Variation von zwei oder mehr Variablen untersucht wird
  • nicht-orthogonaleVarianzanalysen
    Varianzanalysen mit ungleichen Stichprobenumfängen; auch unbalancierte Varianzanalyse genannt
  • Nominalskala
    Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit gleicher Merkmalsausprägung gleiche Zahlen, Objekte mit verschiedener Merkmalsausprägung verschiedene Zahlen erhalten. Eine Nominalskala erlaubt nur Aussagen über Gleichheit von Objekten (Äquivalenzrelation), nicht aber über deren Rangfolge. Beispiel: Zuweisung des Wertes 0 für männliche, 1 für weibliche Versuchspersonen
  • Normalverteilung
    Wichtige Verteilung der Statistik; festgelegt durch die Parameter μ (Erwartungswert) und σ (Streuung); glockenförmig, symmetrisch, zwischen den beiden Wendepunkten (μ±1σ) liegen ca. 68% der gesamten Verteilungsfläche
  • Nullhypothese
    Behauptung über einen oder mehrere Populationsparameter, die besagt, dass der von der Alternativhypothese behauptete Unterschied bzw. Zusammenhang nicht besteht
  • numerisches Relativ
    Aus Zahlen bestehendes Relationensystem (z.B. Menge der reellen Zahlen), mit dem sich ein empirisches Relativ homomorph abbilden lässt
  • oblique Rotation
    Faktorenrotation, die zu schiefwinkligen bzw. korrelierten Faktoren führt (Faktorenanalyse)
  • Operationalisierung
    Umsetzung einer eher abstrakten Variable bzw. eines theoretischen Konstruktes in ein konkret messbares Merkmal; Beispiel: Operationalisierung der Variable „mathematische Begabung“ durch die Variable „Mathematiknote“. Wichtig ist, dass die operationalisierte Variable die abstrakte Variable tatsächlich widerspiegelt
  • Ordinalskala
    Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass von jeweils zwei Objekten das Objekt mit der größeren Merkmalsausprägung die größere Zahl erhält. Eine Ordinalskala erlaubt Aussagen über die Gleichheit (Äquivalenzrelation) und die Rangfolge (Ordnungsrelation) von Objekten. Sie sagt aus, ob ein Objekt eine größere Merkmalsausprägung besitzt als ein anderes, nicht aber, um wie viel größer diese Ausprägung ist. Beispiel: Rangfolge für die Schönheit dreier Bilder: 1=am schönsten; 3=am wenigsten schön. Bild 2 muss nicht „mittelschön“ sein, sondern kann fast so schön sein wie Bild 1
  • orthogonale Faktoren
    Unkorrelierte Faktoren (Faktorenanalyse)
  • P-Wert
    Wahrscheinlichkeit, dass das gefundene Ergebnis oder ein extremeres Ergebnisse bei Gültigkeit von H0 eintritt.Wahrscheinlichkeit, dass das gefundene Ergebnis oder ein extremeres Ergebnisse bei Gültigkeit von H0 eintritt
  • Parameter
    Kennwerte einer theoretischen Verteilung oder Grundgesamtheit (im Gegensatz zu Stichprobenkennwerten) wie z. B. Erwartungswert, Streuung etc. Bezeichnung durch griechische Buchstaben
  • partielle Korrelation
    Gibt den Zusammenhang zweier Variablen an, aus dem der lineare Einfluss einer dritten Variable eliminiert wurde. Sie stellt eine bivariate Korrelation zwischen den Regressionsresiduen dar
  • PCA
    Principal Components Analysis (s. Hauptkomponentenanalyse)
  • Permutation
    Werden in einem Zufallsexperiment (z.B. Urne, Kartenspiel) alle Objekte gezogen und nicht zurückgelegt, bezeichnet man die bei einer Durchführung dieses Experiments aufgetretene Reihenfolge der Objekte als eine Permutation. Bei n Objekten gibt es n! Permutationen
  • Perzentil
    Das p-te Perzentil ist derjenige Skalenwert, welcher die unteren p% einer Verteilung abschneidet. In einer Grafik werden die unteren p% der Verteilungsfläche abgeschnitten
  • Pfadanalyse
    Mit ihrer Hilfe werden anhand empirischer Daten a priori formulierte „Kausalhypothesen“ zur Erklärung von Merkmalszusammenhängen geprüft
  • Pfaddiagramm
    Grafische Veranschaulichung eines Kausalmodells
  • Phi-Koeffizient
    Korrelationskoeffizient für zwei natürlich dichotome Merkmale; diese werden im Allgemeinen in einer 2 × 2-Tabelle dargestellt
  • Polygon
    Grafik zur Veranschaulichung einer empirischen Häufigkeitsverteilung einer metrischen Variablen. Auf den Kategorienmitten werden Lote errechnet, deren Länge jeweils der Kategorienhäufigkeit (absolut oder prozentual) entspricht. Verbindet man die Endpunkte der Lote, erhält man das Polygon
  • Population
    Alle untersuchbaren Objekte, die ein gemeinsames Merkmal aufweisen. Beispiel: Bewohner einer Stadt, Frauen, dreisilbige Substantive
  • Prädiktorvariable
    Variable, mittels derer unter Verwendung der Regressionsgleichung eine Vorhersage über eine andere Variable (Kriteriumsvariable) gemacht werden kann
  • progressive Entscheidung
    Wenn ein statistischer Signifikanztest aufgrund von Voraussetzungsverletzungen eher zugunsten von H1 entscheidet
  • punktbiseriale Korrelation
    Verfahren zur Berechnung eines Korrelationskoeffizienten rpbis für ein metrisches und ein natürlich dichotomes Merkmal
  • Punktschätzung
    Schätzung des Wertes eines Parameters (im Unterschied zur Intervallschätzung)
  • Quadratsumme
    Summe der quadrierten Abweichungen aller Messwerte einer Verteilung vom Mittelwert
  • Quasi-Experiment
    Untersuchung, bei der auf Randomisierung verzichtet werden muss, weil natürliche bzw. bereits bestehende Gruppen untersucht werden; Beispiel: Raucher vs. Nichtraucher, männliche vs. weibliche Personen (man kann nicht per Zufall entscheiden, welcher Gruppe eine Person angehören soll)
  • Quasi-F-Brüche
    Nach dem theoretischen Erwartungsmodell gebildete F-Brüche, um nicht direkt zu testende Effekte approximativ zu testen (Varianzanalyse)
  • Rand-Index
    Ein Index zur Evaluation clusteranalytischer Lösungen mit ungleicher Clusteranzahl
  • Randomisierung
    Zufällige Zuordnung der Versuchsteilnehmer bzw. -objekte zu den Versuchsbedingungen
  • Rangkorrelation nach Spearman
    Verfahren zur Berechnung eines Korrelationskoeffizienten welches auf den Rängen der Merkmale basiert
  • Redundanz
    In der Korrelationsrechnung der prozentuale Anteil der Varianz der y-Werte, der aufgrund der x-Werte erklärbar bzw. redundant ist
  • Regressionsgleichung
    Beschreibt den Mittelwert eines Kriteriums in Abhängigkeit eines oder mehrerer Prädiktoren. Mit Hilfe der Regressionsgleichung kann ein Vorhersagewert für die Kriteriumsvariable berechnet werden
  • Regressionsresiduum
    Kennzeichnet die Abweichung eines empirischen Werts von seinem durch die Regressionsgleichung vorhergesagten Wert. Es enthält Anteile der Kriteriumsvariablen, die durch die Prädiktorvariable nicht erfasst werden
  • rekursive Systeme
    Systeme, in denen nur einseitig gerichtete kausale Wirkungen angenommen und in denen die Variablen bezüglich ihrer kausalen Priorität hierarchisch angeordnet werden (Pfadanalyse)
  • Relationensystem
    Menge von Objekten und einer oder mehrerer Relationen (z.B. Gleichheitsrelation, die besagt, dass zwei Objekte gleich sind; Ordnungsrelation, die besagt, dass sich Objekte in eine Rangreihe bringen lassen) (empirisches bzw. numerisches Relativ)
  • relative Häufigkeit
    Wird ein Zufallsexperiment n-mal wiederholt, besagt die relative Häufigkeit, wie oft ein Ereignis in Relation zu n aufgetreten ist. Die relative Häufigkeit liegt daher immer zwischen 0 und 1,0
  • robuster Test
    Ein Signifikanztest ist robust, wenn er trotz verletzter Voraussetzungen das festgelegte Signifikanzniveau α einhält
  • Scheffé-Test
    Mit diesem Test wird der gesamte, mit allen möglichen Einzelvergleichen verbundene Hypothesenkomplex der Varianzanalyse auf dem festgelegten Niveau eines Fehlers 1. Art abgesichert
  • Schiefe
    Eigenschaft einer Verteilung, wenn diese auf einer Seite steiler ansteigt als auf der anderen, also asymmetrisch ist
  • Schrumpfungskorrektur
    Korrektur, die erforderlich wird, wenn ein bestimmter Kennwert den wahren Wert in der Population überschätzt (z.B. bei der multiplen Korrelation)
  • Scree-Test
    Identifikation der bedeutsamen Faktoren in der Faktorenanalyse anhand des Eigenwertediagramms
  • Sequenzeffekte
    Effekte, die bei wiederholter Untersuchung von Versuchspersonen auftreten und die Treatmenteffekte überlagern können (z. B. Lerneffekte; Varianzanalyse)
  • Signifikanzniveau
    Vom Versuchsleiter festgelegter Wert für α. Im Allgemeinen spricht man von einem signifikanten Ergebnis, wenn der ermittelte p-Wert höchstens α = 0,05, von einem sehr signifikanten Ergebnis, wenn er höchstens α = 0,01 beträgt
  • spezifische Alternativhypothese
    Annahme, die nicht nur einen Unterschied oder Zusammenhang generell, sondern auch dessen Mindestgröße voraussagt. Beispiel: Männer sind im Durchschnitt mindestens 5 cm größer als Frauen (im Gegensatz zur unspezifischen Alternativhypothese: Männer sind im Durchschnitt größer als Frauen). Spezifische Hypothesen werden meistens in Verbindung mit Effektgrößen formuliert
  • Standardabweichung
    Wurzel aus der Varianz; bezeichnet durch s für Stichproben, durch σ für theoretische Verteilungen (z.B. Population)
  • Standardfehler
    Standardabweichung einer Stichprobenverteilung. Sie informiert darüber, wie unterschiedlich Stichprobenkennwerte (z.B. Mittelwerte) von Stichproben aus einer Population bei einem gegebenen Stichprobenumfang sein können. Wichtig für die Inferenzstatistik
  • Standardnormalverteilung
    Normalverteilung mit Erwartungswert (μ) 0 und Standardabweichung (σ) 1,0. Jede Normalverteilung kann durch z-Transformation in die Standardnormalverteilung überführt werden, was den Vergleich verschiedener Normalverteilungen ermöglicht
  • Standardschätzfehler
    Kennzeichnet die Streuung der y-Werte um die Regressionsgerade und ist damit ein Gütemaßstab für die Genauigkeit der Regressionsvorhersagen. Je kleiner der Standardschätzfehler, desto genauer ist die Vorhersage. Der Standardschätzfehler ist identisch mit der Streuung der Regressionsresiduen
  • Stängel-Blatt-Diagramm
    Spezielle Form eines Histogramms, dem nicht nur die Häufigkeit von Messwerten, sondern auch deren Größe entnommen werden kann
  • stetig
    Ein Merkmal ist stetig, wenn es zumindest theoretisch beliebig genau gemessen werden kann. Beispiel: Größe, Gewicht etc.
  • Stichprobe
    In der Regel zufällig ausgewählte Personengruppe, die als Grundlage für inferenzstatistische Schlüsse dienen soll
  • Stichprobenkennwert
    Wert, der die beobachteten Werte einer Stichprobe zusammenfasst, um eine Aussage zur Verteilung der Werte zu machen. Beispiel: Mittelwert, Modalwert, Varianz
  • Stichprobenverteilung
    Verteilung der Kennwerte eines Merkmals aus mehreren Stichproben, die derselben Grundgesamtheit entnommen wurden. Beispiel: Verteilung der Mittelwerte aus Untersuchungen zur Körpergröße von Zehnjährigen
  • Suffizienz
    Kriterium der Parameterschätzung: Eigenschaft eines Schätzwertes, wenn er alle in den Daten einer Stichprobe enthaltenen Informationen berücksichtigt
  • Suppressorvariable
    Variable, die den Vorhersagebeitrag einer anderer Variablen erhöht, indem sie irrelevante Varianzen in der anderen Variablen unterdrückt (multiple Regression)
  • t-Test für Beobachtungspaare
    Statistischer Signifikanztest, der zwei Gruppen (parallelisierte Stichproben oder Messwiederholung) auf einen Unterschied bezüglich ihrer Mittelwerte eines intervallskalierten Merkmals untersucht.
  • t-Test für unabhängige Stichproben
    Statistischer Signifikanztest, der zwei Gruppen auf einen Unterschied bezüglich ihrer Mittelwerte eines intervallskalierten Merkmals untersucht
  • Teststärke
    Gegenwahrscheinlichkeit des Fehlers 2. Art: 1 − β. Sie gibt an, mit welcher Wahrscheinlichkeit ein Signifikanztest zugunsten einer spezifischen Alternativhypothese entscheidet, sofern diese wahr ist, d. h. mit welcher Wahrscheinlichkeit ein Unterschied oder Zusammenhang entdeckt wird, wenn er existiert
  • tetrachorische Korrelation
    Verfahren zur Berechnung eines Korrelationskoeffizienten rtet für zwei künstlich dichotomisierte Merkmale; diese werden im Allgemeinen in einer 2 × 2-Tabelle dargestellt. Treatment: Im Rahmen der Varianzanalyse synonym
  • Treatment
    Im Rahmen der Varianzanalyse synonym mit dem Begriff Faktor
  • Treatmentquadratsumme
    Die Treatmentquadratsumme kennzeichnet im Rahmen der einfaktoriellen Varianzanalyse die Unterschiedlichkeit der Messwerte zwischen den Stichproben. Ihre Größe hängt von der Wirksamkeit der geprüften unabhängigen Variablen (Treatment) ab
  • Trendtests
    Durch Trendtests wird die Treatmentquadratsumme in orthogonale Trendkomponenten zerlegt, die auf verschiedene Trends (linear, quadratisch, kubisch usw.) in den Mittelwerten der abhängigen Variablen zurückzuführen sind (Varianzanalyse)
  • unabhängige Variable
    Merkmal, das systematisch variiert wird, um seine Auswirkung auf die abhängige Variable zu untersuchen
  • Unabhängigkeit
    Verhältnis zweier Ereignisse zueinander, wenn das Auftreten des einen Ereignisses nicht davon beeinflusst wird, ob das andere eintritt oder nicht. Mathematisch drückt sich dies darin aus, dass die Wahrscheinlichkeit für das gemeinsame Auftreten beider Ereignisse dem Produkt der Einzelwahrscheinlichkeiten der beiden Ereignisse entspricht
  • ungerichtete Alternativhypothese
    Annahme, die einen Unterschied oder Zusammenhang voraussagt, ohne deren Richtung zu spezifizieren. Beispiel: Männer und Frauen sind im Durchschnitt unterschiedlich groß (im Gegensatz zur gerichteten H1: Männer sind im Durchschnitt größer als Frauen)
  • unspezifische Alternativhypothese
    Annahme, die einen Unterschied oder Zusammenhang voraussagt, ohne deren Größe zu spezifizieren
  • Varianz
    Summe der quadrierten Abweichungen aller Messwerte einer Verteilung vom Mittelwert, die am Stichprobenumfang relativiert wird. Maß für die Unterschiedlichkeit der einzelnen Werte einer Verteilung
  • Varianzanalyse
    Allgemeine Bezeichnung für eineVerfahrensklasse zur Überprüfung von Unterschiedshypothesen. Man unterscheidet ein- und mehrfaktorielle Varianzanalysen, uni- undmultivariate Varianzanalysen, hierarchische und nicht-hierarchische Varianzanalysen sowie Kovarianzanalysen
  • Variationsbreite
    Gibt an, in welchem Bereich sich die Messwerte einer Stichprobe befinden; ergibt sich als Differenz des größten und kleinsten Werts der Verteilung
  • Varimax-Kriterium
    Rotationskriterium, das die Varianz der quadrierten Ladungen pro Faktor maximiert (Faktorenanalyse)
  • Verhältnisskala
    Ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass das Verhältnis zwischen je zwei Zahlen dem Verhältnis der Merkmalsausprägungen der jeweiligen Objekte entspricht. Eine Verhältnisskala erlaubt Aussagen über Gleichheit (Äquivalenzrelation), Rangfolge (Ordnungsrelation) und Größe des Unterschieds der Merkmalsausprägung von Objekten. Sie hat außerdem einen empirisch begründbaren Nullpunkt. Beispiel: Länge
  • Versuchsleitereffekte
    (Unbewusste) Beeinflussung des Untersuchungsergebnisses durch das Verhalten oder die Erwartungen des Versuchsleiters
  • verteilungsfreie Verfahren
    Statistische Tests, die keine besondere Verteilungsform der Grundgesamtheit (insbesondere Normalverteilung) voraussetzen. Sie sind vor allem für die inferenzstatistische Auswertung kleiner Stichproben geeignet; auch nichtparametrische Tests genannt
  • Verteilungsfunktion
    Kumulation der Wahrscheinlichkeitsfunktion einer Zufallsvariablen. Die Werte dieser Funktion benennen keine Einzelwahrscheinlichkeiten, sondern die Wahrscheinlichkeit des Wertes selbst sowie aller kleineren Werte. Die Verteilungsfunktion berechnet sich bei stetigen Zufallsvariablen durch das Integral der Dichtefunktion
  • Wahrscheinlichkeitsfunktion
    Funktion, die bei diskreten Zufallsvariablen angibt, mit welcher Wahrscheinlichkeit jedes Ereignis bei einem Zufallsexperiment auftritt. Bei stetigen Variablen bezeichnet man die Wahrscheinlichkeitsfunktion als Dichtefunktion
  • Ward-Methode
    Hierarchisches Verfahren, das zur Clusteranalyse gehört
  • Wilcoxon-Test
    Verteilungsfreier Signifikanztest, der zwei Gruppen, die nicht unabhängig voneinander ausgewählt wurden (Matched Samples oder Messwiederholung), auf einen Unterschied bezüglich ihrer zentralen Tendenz eines ordinalskalierten Merkmals untersucht
  • z-Transformation
    Ein Wert einer beliebigen Verteilung wird durch Subtraktion des Mittelwerts und anschließende Division durch die Standardabweichung der Verteilung in einen z-Wert umgewandelt. Eine derart umgewandelte Verteilung hat einen Mittelwert von 0 und eine Standardabweichung von 1,0. Beliebige Normalverteilungen werden durch die z-Transformation in die Standardnormalverteilung überführt
  • zentrale Grenzwerttheorem
    Besagt, dass die Verteilung von Mittelwerten gleich großer Stichproben aus derselben Grundgesamtheit bei wachsendem Stichprobenumfang (n) in eine Normalverteilung übergeht. Dies gilt, unabhängig von der Verteilungsform der Messwerte in der Grundgesamtheit, für Stichproben mit n > 30
  • zentrale Tendenz
    Charakterisiert die „Mitte“ bzw. das „Zentrum“ einer Verteilung. Bei intervallskalierten Daten wird die zentrale Tendenz durch das arithmetische Mittel oder den Median beschrieben
  • zufällige Effekte
    Ein Faktor überprüft zufällige Effekte, wenn die Auswahl der Effekte zufällig aus einer Population erfolgte. Beispiel: Lehrer, Therapeuten oder Versuchsleiter als Stufen eines Faktors
  • Zufallsexperiment
    Ein beliebig oft wiederholbarer Vorgang, der nach einer ganz bestimmten Vorschrift ausgeführt wird und dessen Ergebnis vom Zufall abhängt, d. h. nicht im Voraus eindeutig bestimmt werden kann (z.B. Würfeln, Messung der Reaktionszeit)
  • Zufallsstichprobe
    Zufällige Auswahl von Untersuchungseinheiten; jedes Element der Grundgesamtheit wird, unabhängig von den bereits ausgewählten Elementen, mit gleicher Wahrscheinlichkeit ausgewählt
  • Zufallsvariable
    Funktion, die den Ergebnissen eines Zufallsexperiments (d. h. Elementarereignissen oder Ereignissen) reelle Zahlen zuordnet, z. B. beim Würfeln Zuordnung einer Zahl von 1 bis 6 zu jedem Wurf
  • Zusammenhangshypothese
    Annahme, die besagt, dass zwei oder mehr zu untersuchende Merkmale miteinander zusammenhängen. Überprüfung durch Korrelationsstatistik
  • zweiseitiger Test
    Statistischer Test, der eine ungerichtete Hypothese (im Gegensatz zu einer gerichteten Hypothese) überprüft