Lexikon - Gesamtglossar aller Bücher

  • Begriff
    Erklärung
  • A posteriori
    Berechnung von Kennwerten nach der Durchführung einer Untersuchung
  • A priori
    Berechnung von Kennwerten vor der Durchführung einer Untersuchung
  • Abhängige Variable
    Die gemessene Variable, deren Abhängigkeit von einer oder mehreren unabhängigen Variablen untersucht werden soll
  • Alternativhypothese (H1)
    Die Alternativhypothese nimmt einen systematischen Effekt an. Sie umfasst all das, was die Nullhypothese nicht enthält
  • Alternativhypothese, gerichtete
    Vorhersage eines systematischen Unterschieds zwischen Gruppen in eine bestimmte Richtung. Die Nullhypothese umfasst in diesem Fall auch die Unterschiede in die nicht vorhergesagte Richtung
  • Alternativhypothese, ungerichtete
    Vorhersage eines systematischen Unterschieds zwischen Gruppen, unabhängig von der Richtung des Unterschieds
  • Arithmetisches Mittel
    Das arithmetische Mittel gibt den Durchschnitt der Messwerte einer Verteilung an. Es ist das gebräuchlichste Maß der zentralen Tendenz
  • b-Gewicht
    Parameter der linearen Regressionsgleichung, der die Steigung der Geraden angibt. Er ist definiert als der Quotient aus der Kovarianz der untersuchten Merkmale und der Streuung der Prädiktorvariable
  • Deskriptive Statistik
    Statistische Methoden zur Beschreibung von Daten in Form von Grafiken, Tabellen oder einzelnen Kennwerten. Weitere Bezeichnung: beschreibende Statistik
  • Determinanten des t-Tests
    α-Fehler, β-Fehler, Effekt und Stichprobenumfang bedingen sich gegenseitig in einem t-Test. Sind drei von ihnen festgelegt, ergibt sich der vierte Wert automatisch
  • Determinationskoeffizient
    Der Determinationskoeffizient ist ein anschauliches Maß für die Stärke des Zusammenhangs zweier Variablen. Er gibt an, welcher Anteil der Variabilität der y-Werte (Kriteriumsvariable) durch die Verteilung der x-Werte (Prädiktor) aufgeklärt werden kann. Aus regressionsanalytischer Sicht ist der Determinationskoeffizient der Quotient aus Regressionsvarianz und Gesamtvarianz der y-Werte. Er kann aber ebenso durch Quadrierung der Korrelation gewonnen werden
  • Empirischer Effekt
    Aus Daten berechneter Effekt, dient als Schätzer für Populationseffekte
  • Erwartungswert
    Der Erwartungswert ist (in den hier besprochenen Fällen) der Mittelwert einer Stichprobenkennwerteverteilung. Bei erwartungstreuen Schätzungen ist er identisch mit dem Populationsparameter
  • Eta-Quadrat (η2)
    Effektstärkenmaß. Gibt den Anteil der aufgeklärten Varianz an der Gesamtvarianz auf der Stichprobenebene mittels Quadratsummen an
  • Fehlervarianz
    Siehe Residualvarianz, unsystematische Varianz oder Varianz „innerhalb“
  • Fishers Z-Transformation
    Transformation, die Korrelationen auf Intervallskalenniveau überführt. Dadurch wird eine Mittelung mehrerer Korrelationen möglich
  • Freiheitsgrade
    Freiheitsgrade bestimmen die Genauigkeit von Populationsschätzern und damit die Form von Verteilungen, die auf Schätzern basieren wie z. B. der t-Verteilung. Die Zahl der Freiheitsgrade gibt an, wie viele Werte theoretisch frei variieren können, wenn das Ergebnis bereits feststeht
  • G Power
    Computerprogramm zur Berechnung von Teststärken, optimalen Stichprobenumfängen und empirischen Effektgrößen. ▶ Link zum Download auf www.lehrbuch-psychologie.de.
  • Inferenzstatistik
    Teilbereich der Statistik, der sich mit der Überprüfung von Hypothesen durch Schlüsse von Stichproben auf Populationen beschäftigt. Weitere Bezeichnung: „schließende Statistik“
  • Inhaltliche Hypothese
    Vorhersage auf der Basis von Theorien, dass ein (oder kein) Unterschied zwischen Gruppen/Bedingungen oder ein (oder kein) Zusammenhang zwischen verschiedenen Merkmalen besteht
  • Konfidenzintervall
    Ein Konfidenzintervall gibt die Präzision eines Stichprobenergebnisses an. Es wird anhand des Standardfehlers und eines festgelegten Fehlerniveaus konstruiert
  • Korrelation
    Standardisiertes Maß für den Zusammenhang zweier Variablen
  • Kovarianz
    Unstandardisiertes Maß, welches das gemeinsame Abweichungsprodukt zweier intervallskalierter Variablen erfasst. Die theoretisch maximale Kovarianz ist durch das Produkt der beiden Merkmalsstreuungen bestimmbar
  • Kriteriumsvariable
    Die abhängige Variable bei der Regression, d. h. das Merkmal, dessen Ausprägung vorhergesagt werden soll
  • Levene-Test der Varianzgleichheit
    F-Test, testet die Varianzen der betrachteten Gruppen auf Varianzhomogenität, wird signifikant, wenn keine Varianzhomogenität vorliegt
  • Messwiederholung
    Wiederholte Erhebung von Daten an denselben Personen. Untersucht die Frage, ob sich die Ausprägung eines Merkmals zu verschiedenen Messzeitpunkten unterscheidet. Statistische Verfahren mit Messwiederholung haben in der Regel eine höhere Teststärke im Vergleich zu entsprechenden Verfahren ohne Messwiederholung
  • Nonzentrale Verteilung
    Verteilung eines Stichprobenkennwerts unter der Annahme der Alternativhypothese, meist nicht symmetrisch
  • Nonzentralitätsparameter λ (Lambda)
    bestimmt die Form der nonzentralen Verteilung. Wird bei der Berechnung der Teststärke und bei der Stichprobenumfangsplanung benötigt
  • Normalverteilung
    Eine unimodale Verteilung mit glockenförmigem Verlauf. Sie ist symmetrisch und nähert sich der x-Achse asymptotisch an. Dadurch sind die Werte für Median, Modus und arithmetisches Mittel identisch
  • Nullhypothese (H0)
    Die Nullhypothese stellt die Basis bei der statistischen Bewertung eines Ergebnisses dar. Der Test der Nullhypothese liefert eine Entscheidung darüber, ob die Nullhypothese verworfen und damit die Alternativhypothese angenommen werden kann oder nicht. Beim t-Test und der ANOVA besagt die Nullhypothese im Regelfall, dass kein Unterschied zwischen den untersuchten Gruppen existiert.
  • Omega-Quadrat (Ω2, ω2)
    Effektstärkenmaß auf Populationsebene. Gibt den Anteil der von einem bestimmten Effekt aufgeklärten Varianz auf der Populationsebene an. Ω2 ist der Populationseffekt, ω2 der Schätzer dieses Populationseffekts
  • Parameter
    Ein statistischer Kennwert wie das arithmetische Mittel oder die Varianz, für deren Berechnung die Intervallskaliertheit der Daten Voraussetzung ist. Parameter beziehen sich immer auf die Population
  • Parametrische Verfahren
    Diese arbeiten mit Merkmalsverteilungen und können nur bei mindestens intervallskalierten Daten mit bestimmten Verteilungseigenschaften angewendet werden
  • Partialkorrelation
    Korrelationstechnik, die es gestattet, den Einfluss einer Dritt- bzw. Störvariable aus dem Zusammenhang zweier Merkmale heraus zu rechnen
  • Phi-Koeffizient
    Korrelationskoeffizient zweier dichotomer Variablen und Effektstärkenmaß für den Vierfelder Chi-Quadrat-Test
  • Population
    Die klar definierte Menge aller Personen, die für einen Forscher von Interesse sind. Sie kann sehr weitläufig (alle lebenden Menschen) oder sehr eng definiert sein (alle Studierenden in der ersten Reihe des Hörsaals)
  • Prädiktorvariable
    Die unabhängige Variable bei der Regression, die zur Vorhersage der abhängigen Variable (Kriterium) eingesetzt werden soll
  • Produkt-Moment-Korrelation
    Standardisiertes Maß der bivariaten Deskriptivstatistik, das den Zusammenhang zweier intervallskalierter Variablen beschreibt. Gibt den Anteil der empirischen Kovarianz an der theoretisch maximalen Kovarianz an. Der Wertebereich der Korrelation reicht von –1 bis +1
  • Punktbiseriale Korrelation
    Gibt den Zusammenhang zwischen einer nominalskalierten, zweistufigen Variable und einer intervallskalierten Variable an
  • Punkteschwarm, -wolke
    Siehe Streudiagramm
  • Rangkorrelation
    Korrelation für ordinalskalierte Variablen. Die Rangkorrelation nach Spearman liefert einen Wert zwischen –1 und +1, der angibt, inwiefern sich zwei Rangreihen entsprechen
  • Regression(sanalyse), einfache
    Mathematisches Verfahren, welches die empirischen Verteilungen eines Prädiktormerkmals x und eines Kriteriumsmerkmals y dergestalt miteinander in Beziehung setzt, dass eine Regressionsgleichung resultiert, welche die Vorhersage von y aus x ermöglicht. Die Güte einer Regression ist abhängig vom tatsächlichen Zusammenhang zweier Merkmale
  • Regression(sanalyse), multiple
    Eine Erweiterung der einfachen Regression um mindestens einen weiteren Prädiktor. Mit diesem Verfahren kann der eigenständige Einfluss der einzelnen Prädiktoren im Kontext der anderen ermittelt werden
  • Regressionsgerade
    Die Regressionsgleichung y = b · x + a einer linearen Regression kann grafisch in Form einer Geraden veranschaulicht werden. Anhand dieser lässt sich für jeden x-Wert der von der Regression vorhergesagte y-Wert ablesen
  • Regressionsgewicht, Regressionskoeffizient
    Die Steigung einer Regressionsgeraden. Man unterscheidet unstandardisierte und standardisierte Regressionsgewichte. Letztere sind von der Skalierung der untersuchten Merkmale unabhängig
  • Regressionsvarianz
    Varianz der vorhergesagten Kriteriumswerte einer Regression. Regressionsvarianz und Fehlervarianz summieren sich zur Gesamtvarianz der empirischen y-Werte auf
  • Residualvarianz
    Siehe auch unsystematische Varianz oder Varianz „innerhalb“. In der Regression: Gemittelte Abweichung der empirischen Werte von den von der Regression vorhergesagten Werte. Die Residualvarianz ist derjenige Varianzanteil, welcher nicht durch die Regressionsgleichung abgedeckt werden kann
  • Robustheit
    Ein statistischer Test ist umso robuster, je weniger Einfluss die Verletzung der mathematischen Voraussetzungen auf die Güte des Ergebnisses hat
  • Scheinkorrelation
    Zusammenhang zweier Variablen, der darauf beruht, dass beide Variablen von einer dritten Variable kausal beeinflusst werden. Zwischen den interessierenden Variablen herrscht aber keine Kausalität
  • Signifikanz
    Ein Ergebnis ist signifikant, wenn seine Auftretenswahrscheinlichkeit unter der Nullhypothese kleiner ist als ein gewähltes Signifikanzniveau. Bei einem signifikanten Ergebnis erfolgt eine Entscheidung für die Alternativhypothese und gegen die Nullhypothese
  • Signifikanzniveau
    Entscheidungsgrenze in einem statistischen Auswertungsverfahren; gibt an, wie groß die α-Fehlerwahrscheinlichkeit eines Ergebnisses höchstens sein darf, um sich für die Alternativhypothese zu entscheiden. Es liegt meistens bei α = 0,05
  • Skala
    Ein Set von Regeln, das die Zuordnung von Zahlen zur Qualität oder Quantität einer Variable regelt. Dieses Buch behandelt vier verschiedene Skalentypen: Nominalskala, Ordinalskala, Intervallskala und Verhältnisskala
  • Standardabweichung oder Streuung
    Die Standardabweichung oder Streuung ist die positive Wurzel aus der Varianz und somit die korrigierte durchschnittliche quadrierte Abweichung jedes einzelnen Werts vom Mittelwert
  • Standardfehler
    Maß für die Güte eines Populationsparameters durch einen Stichprobenkennwert. Die Schätzung wird umso präziser, je größer die Stichprobe ist
  • Standardnormalverteilung
    Normalverteilung mit dem Mittelwert µ = 0 und der Streuung σ = 1
  • Standardschätzfehler
    Die Wurzel aus der Fehlervarianz einer Regression. Er ist ein (unstandardisiertes) Maß für die Güte und Genauigkeit einer Regression
  • Statistische Hypothese
    Übersetzung der inhaltlichen Hypothese in eine mathematische Schreibweise
  • Stichprobe
    Teilmenge einer Population. Der größte Teil psychologischer Forschung findet an Stichproben statt
  • Stichproben, abhängige
    Die Elemente zweier Stichproben sind paarweise einander zugeordnet und beeinflussen sich gegenseitig. Ein typischer Fall für abhängige Stichproben ist die Messwiederholung
  • Stichprobenkennwerteverteilung
    Wahrscheinlichkeitsverteilung aller möglichen Ausprägungen eines Stichprobenkennwerts
  • Stichprobenumfangsplanung
    Bestimmt die optimalen Stichprobenumfänge eines Tests nach Festlegung eines Effekts und einer Teststärke mithilfe des Nonzentralitätsparameters λ. Nach einer solchen Planung ist jedes Ergebnis des Tests eindeutig interpretierbar
  • Stochastischer Zusammenhang
    Unvollständiger Zusammenhang, der nur annäherungsweise durch eine Funktion ersetzt werden kann. Bei der Vorhersage anhand der Regression treten Vorhersagefehler auf, d. h., empirische Werte und theoretische Werte weichen voneinander ab
  • Streudiagramm
    Grafische Darstellung aller Messwertepaare (xi/yi) zweier Merkmalsverteilungen in einem Koordinatensystem. Die sich ergebende Punktwolke gibt grobe Auskunft über einen eventuellen Zusammenhang zwischen den beiden Variablen
  • Streuung
    Siehe Standardabweichung
  • Systematische Varianz
    Anteil der Gesamtvarianz, dem ein systematischer Einfluss zugrunde liegt. Maß für die Variation von Stichprobenmittelwerten
  • Systematischer Effekt
    Größe des Unterschieds zwischen untersuchten Gruppen oder Ausmaß des Einflusses der experimentellen Variation
  • t-Test
    Statistisches Auswertungsverfahren für den Vergleich zweier Gruppenmittelwerte. Der t-Test prüft mithilfe des t-Werts, ob eine empirische Mittelwertsdifferenz signifikant von null verschieden ist oder ob sie auf Zufall beruht. Er ist ein parametrischer Test (siehe parametrische Verfahren). Es gibt einen t-Test für unabhängige und abhängige Stichproben sowie für eine einzige Stichprobe.
  • t-Verteilung
    Verteilung des t-Werts, dient zur Bestimmung der Wahrscheinlichkeit des t-Werts unter der Nullhypothese. Ihre Form ist von der Anzahl ihrer Freiheitsgrade abhängig, bei hohen Freiheitsgraden geht sie in eine Standardnormalverteilung über
  • t-Wert
    Standardisierte Differenz zweier Stichprobenmittelwerte
  • t-Wert, empirischer
    Der t-Wert wird für eine empirische Mittelwertsdifferenz berechnet und ordnet dieser Differenz eine Auftretenswahrscheinlichkeit zu. Die Größe des t-Werts ist abhängig von der Größe der Differenz, der Streuung des Merkmals in der Population und der Stichprobengröße
  • t-Wert, kritischer
    Der kritische t-Wert schneidet die Fläche unter der Kurve der t-Verteilung ab, die dem gewählten Signifikanzniveau entspricht. Er erlaubt eine direkte Einordnung des empirischen t-Werts
  • Teststärke
    Wahrscheinlichkeit, ein signifikantes Testergebnis zu erhalten, falls ein Effekt einer bestimmten Größe in der Population tatsächlich existiert. Sie ist die Gegenwahrscheinlichkeit zur β-Fehlerwahrscheinlichkeit
  • Transformation
    Mathematische Umformung nach einer bestimmten Formel
  • Unabhängige Stichproben
    Die Werte der einen Stichprobe haben in keiner Weise Einfluss auf die Werte der zweiten Stichprobe
  • Unabhängige Variable
    Die vom Forscher manipulierte Variable (Gruppiervariable) bzw. die zur Vorhersage herangezogene Prädiktorvariable
  • Unsystematische Varianz
    Variation der Werte innerhalb einer Bedingung, die nicht auf die experimentelle Manipulation zurückzuführen ist. Auch als Residualvarianz oder Varianz „innerhalb“ bezeichnet
  • Varianz
    Wichtigstes Dispersionsmaß in der Statistik. Sie berechnet sich aus der Summe der quadrierten Abweichungen aller Messwerte vom arithmetischen Mittel, dividiert durch die Anzahl aller Messwerte minus eins
  • Varianzhomogenität
    Die Varianzen eines Merkmals oder Fehlers in einer Bedingung bzw. Gruppe werden in der Population als gleich angenommen. Sie ist Voraussetzung für viele statistische Verfahren wie z. B. für den t-Test und die Varianzanalyse
  • Zentrale Verteilung
    Verteilung eines Stichprobenkennwerts unter der Annahme der Nullhypothese
  • α-Fehler
    Der α-Fehler, auch Fehler 1. Art, bezeichnet die Fehlentscheidung, die H1 anzunehmen, obwohl in Wirklichkeit die H0 gilt
  • α-Fehler-Kumulierung
    Erhöhung des Gesamt-α-Fehlers durch die statistische Überprüfung einer Hypothese mittels mehrerer einzelner Tests
  • β-Fehler
    Der β-Fehler, auch Fehler 2. Art, bezeichnet die Fehlentscheidung, die H0 anzunehmen, obwohl in Wirklichkeit die H1 gilt
  • β-Gewicht
    Standardisierung des b-Gewichts einer Regression an den Streuungen von Prädiktor und Kriterium. Das Gewicht gibt an, um wie viele Standardabweichungen sich das Kriterium pro Standardabweichung des Prädiktors verändert