Lexikon - Gesamtglossar aller Bücher

  • Begriff
    Erklärung
  • Abbildungen
    sind systematisierende Darstellungen komplexer Zusammenhänge.
  • Ableitungsvalidität
    Die Ableitungsvalidität der Hypothesenprüfung ist gegeben, wenn die Entscheidung auf der Ebene der Testhypothesen tatsächlich die a priori aufgestellte Theoretisch-inhaltliche Hypothese (TIH) prüft, wenn also die Liberalisierungsschritte (von der TIH in Richtung der Empirisch-inhaltliche Hypothese, der Statistischen Vorhersage und der Ebene der Testhypothesen) nicht zu einer inhaltlichen, formalen oder statistischen Veränderung der Ausgangshypothese führen.
  • Abweichender Fall
    Beim diesem weist das interessierende Phänomen eine ungewöhnliche Ausprägung auf.
  • Ad-hoc-Fragen
    sind Interviewfragen, die nicht vorab geplant sind, sondern spontan im Interviewverlauf generiert werden. Sie dienen der Vertiefung unerwarteter Aspekte.
  • Artefakte bei physiologischen Messungen
    sind Signale, die nicht durch den interessierenden physiologischen bzw. biopsychologischen Prozess, sondern durch andere Faktoren (z. B. externe Quellen elektrischer Potenziale wie etwa Radiosender oder Mobiltelefone) verursacht werden. Es handelt sich also um Signale, die einen anderen Ursprung haben als das interessierende Biosignal.
  • Axiales Codieren
    Axiales Codieren ist der zweite Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. In diesem Schritt wird von den offenen Codierungen abstrahiert, wobei die Codes als Grundlage für die Generierung theoretischer Konzepte bzw. axialer Codes dienen. Typisch ist die Zusammenfassung mehrerer offener Codes zu einem Oberbegriff, auch über die Äußerungen mehrerer Personen hinweg. Diese axialen Codes werden auch als Kategorien bezeichnet und dienen der Strukturierung des Datenmaterials.
  • Beschreiben
    Beim Beschreiben werden Angaben über die Erscheinungsformen und Merkmale von mindestens einem Sachverhalt gemacht. Dies geschieht durch Benennen, Ordnen und Klassifizieren, Definieren, Angaben zu Häufigkeit bzw. Ausprägungsgrad.
  • Bewusste (auch: absichtsvolle) Stichprobenziehung (auch: Fallauswahl)
    Diese beinhaltet eine gezielte Auswahl von Fällen nach bestimmten Kriterien, meist ohne eine statistische Verallgemeinbarkeit von der Stichprobe auf die Grundgesamtheit anzustreben. Wichtiger als die Größe ist die Zusammensetzung der Stichprobe. Beispiele für verschiedene Formen sind: theoretische Stichprobenziehung, qualitative Stichprobenpläne, Auswahl von typischen Fällen, von Extremfällen usw.
  • Biografieforschung
    ist eine qualitative Forschungsmethode. Ziel ist die Erhebung und Rekonstruktion lebensgeschichtlicher Erzählungen. Diese fungieren als „Schnittstelle“ zwischen der individuellen Lebenswirklichkeit der Erzählerinnen und Erzähler und der sozialen Wirklichkeit. Lebensgeschichte ist immer individuell erlebte und rekonstruierte Wirklichkeit. Lebensgeschichten sind daher nicht als Abbildung objektiver Gegebenheiten zu sehen und sollten auch nicht im Hinblick auf ihren „Wirklichkeitsgehalt“ bewertet werden.
  • Blindversuche
    Bei Blindversuchen kennt der Versuchsleiter nicht die der Untersuchung zugrunde liegende Hypothese und kann damit keine systematische Erwartungshaltung aufbauen und (unbewusst) an die Vpn weitervermitteln.
  • Bottom up-Verfahren der bewussten Stichprobenziehung
    Dies sind Verfahren der bewussten Fallauswahl, bei denen sich die Kriterien für die Zusammensetzung der Stichprobe erst im Untersuchungsverlauf ergeben, z. B. die theoretische Stichprobenziehung.
  • Codieren
    ist eine sehr flexible Methode zur Analyse des Äußerungsinhalts. Die Bedeutung relevanter Textstellen wird erfasst, indem dem Text ein zusammenfassendes ‚Etikett’ quasi angeheftet wird. Das Codieren kann eher konkret und nahe am Textmaterial oder eher abstrakt erfolgen. Meist werden die Codes induktiv aus dem Datenmaterial heraus entwickelt.
  • Datenaufbereitung
    Die Datenaufbereitung umfasst die Schritte und Prozeduren, mit denen die Rohdaten einer empirischen Untersuchung in eine Form gebracht werden, die eine gezielte Beantwortung der Forschungsfragen und die Überprüfung der Hypothesen mithilfe von Auswertungsverfahren erlaubt. Hierzu gehören im Bereich quantitativer Methoden u. a.: die Überführung von Daten, die noch nicht in quantitativer Form vorliegen, in Zahlen (z. B. quantitative Codierung von Beobachtungen oder verbalem Material; Bildung von Häufigkeiten nominalskalierter Daten); die Übertragung von Daten von Test- oder Befragungsbögen (bei Paper-Pencil-Erhebung) oder Rohdatendateien (bei computergestützter Datenerhebung) in ein analysierbares Datenformat (z. B. für ein Statistikprogramm wie SPSS oder SAS); die Zusammenfassung (Aggregierung) von einzelnen Variablen zu Gesamtwerten (z. B. die Bildung eines Gesamtwerts für eine Skala).
  • Datenerhebung
    bezeichnet den Prozess, mit dem Forscher/innen zu ihren Daten gelangen. Datenerhebung umfasst sowohl die Auswahl aus bereits vorhandenem Material als auch die Erzeugung von Daten im Forschungsprozess (Datengenerierung).
  • Datengenerierung
    bezeichnet die Erzeugung von Daten im Forschungsprozess.
  • Deduktion
    Unter Deduktion versteht man in der Logik die Ableitung des Besonderen und Einzelnen aus dem Allgemeinen (aus Regeln, Gesetzmäßigkeiten, Modellen, Theorien).
  • Denotation
    ist die deskriptive Bedeutung eines Zeichens.
  • Deskriptive Feldforschung
    ist eine qualitative Forschungsmethode. Ziel ist es, eine Kultur aus der Sicht ihrer Mitglieder kennen zu lernen und zu beschreiben. Die Kultur soll durch die Forschungstätigkeit möglichst nicht verändert werden. Wichtigste Methode der Datenerhebung ist die teilnehmende Beobachtung.
  • Deskriptivstatistik
    Die Deskriptivstatistik beinhaltet Verfahren, mit deren Hilfe quantitative Daten zusammenfassend beschrieben und dargestellt werden. Hierzu zählen: die univariate Deskriptivstatistik (Statistik für einzelne Variablen), darunter a) die Bestimmung von Häufigkeiten des Auftretens von Werten und von Häufigkeitsverteilungen, b) die Berechnung von Kennwerten (Parametern), die zusammenfassende Aussagen über die gesamte Stichprobe erlauben (Maße der zentralen Tendenz und Streuungsmaße); die multivariate Deskriptivstatistik (Statistik für Zusammenhänge mehrerer Variablen), darunter Korrelation und Regression; Tabellen; Diagramme und Grafiken.
  • Dialog-Konsens-Kriterium
    Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet das Kriterium, nach dem eine Theoriestruktur als angemessen rekonstruiert gilt. Das Kriterium ist erfüllt, wenn die Teilnehmerin oder der Teilnehmer im Gespräch mit der Forscherin oder dem Forscher zustimmt, dass die rekonstruierte Theoriestruktur die Gedanken zu einem Thema angemessen wiedergibt. Die Gesprächssituation sollte möglichst frei von Zwängen und Asymmetrien sein.
  • Diskrete Merkmale
    Ein Merkmal, das nur die Erfassung der Häufigkeit in ganzen Zahlen zulässt, wird diskret genannt. Diskrete Merkmale wie Anzahl von Geschwistern lassen also das Zählen der Auftretenshäufigkeit zu, nicht jedoch die Feststellung von feinen Ausprägungen zwischen ganzen Zahlen.
  • Diskurs
    Ein Diskurs besteht aus einem Set aufeinander bezogener Texte, einschließlich der Verfahren ihrer Produktion, Verbreitung und Rezeption.
  • Diskursanalyse
    Mit der Diskursanalyse wird untersucht, wie Realität sprachlich erzeugt wird. Es wird zwischen deskriptiven und kritischen (normativen) Verfahren der Diskursanalyse unterschieden.
  • Effektgröße
    Die Effektgröße drückt aus, inwiefern ein Mittelwertsunterschied nicht nur statistisch, sondern auch psychologisch-inhaltlich bedeutsam (relevant) ist.
  • Eigenproduktion visueller Daten
    Hier werden Teilnehmende aufgefordert, Zeichnungen, Fotografien, Videos usw. zu erstellen.
  • Einfacher Haupteffekt (EHE)
    Dieser Effekt zeigt sich im zeilen- bzw. spaltenweisen Vergleich der Zellmittelwerte in einer Stufe des jeweils anderen Faktors. Sind die Zellmittelwerte gleich oder nur wenig unterschiedlich, so liegt kein solcher Effekt vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob dieser Effekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist.
  • Eingebettetes Design
    ist ein Mixed-Methods-Design, bei dem ein dominierendes und ein untergeordnetes Paradigma mit ihrem jeweiligen Datentyp zur Beantwortung unterschiedlicher, aber verwandter Forschungsfragen miteinander kombiniert werden.
  • Einzelfallforschung
    Von quantitativer Einzelfallforschung spricht man, wenn eine einzelne Untersuchungseinheit (in der Regel eine Person) bezüglich einer oder mehrerer AV unter möglichst kontrollierten Bedingungen wiederholt beobachtet wird, um die Wirkung einer UV messen und bewerten zu können.
  • Elimination
    Durch Elimination werden die Einflüsse einer Variablen auf null gesetzt, ihr Einfluss auf die AV im Sinne einer Störvariablen wird aus dem Bedingungsgefüge genommen.
  • Emergente Flexibilität des Designs
    Annahmen und Instrumente werden im Verlauf der Untersuchung flexibel an den Gegenstand angepasst und entsprechend modifiziert.
  • Empirisch-inhaltliche Hypothese (EIH)
    entsteht durch die Operationalisierung der theoretisch-inhaltliche Hypothese TIH.
  • Empirische Wissenschaft
    ist daran interessiert, Hypothesen und Theorien zu den Fragen zu entwerfen, mit denen man sich gerade beschäftigt. Diese Hypothesen und Theorien werden nun ihrerseits mit der Realität konfrontiert. Man vergleicht also ‒ wie in anderen Naturwissenschaften auch ‒ die gedankliche Antwort auf die Frage mit den in der Realität diesbezüglich vorfindbaren Sachverhalten.
  • Episodisches Interview
    ist ein nonstandardisiertes Interview zur Erhebung von Erzählungen über kürzere Ereignisse.
  • Erklärungen
    sind Angaben über Bedingungsverhältnisse von Sachverhalten bzw. Angaben über Abhängigkeiten zwischen Sachverhalten. Erklärungen setzen die Beschreibung von mindestens zwei Sachverhalten voraus.
  • Evaluation (Evaluierung)
    ist in der allgemeinen Bedeutung des Begriffs die Beschreibung, Analyse und Bewertung von Prozessen und Organisationseinheiten, insbesondere im Bildungsbereich, in den Bereichen Gesundheit und Entwicklungshilfe, der Verwaltung oder der Wirtschaft. Evaluation kann sich sowohl auf den Kontext (Voraussetzungen, Rahmenbedingungen), die Struktur, den Prozess als auch auf das Ergebnis (Produkt) beziehen.
  • Evozierte Potentiale
    Hier handelt es sich um kurzzeitige (d. h. weniger als 1 Sekunde andauernde) Reaktionen auf innere oder äußere Reize, die einen komplexen Verlauf mit interpretierbaren Höhe- und Tiefpunkten aufweisen.
  • Experiment
    Unter einem Experiment versteht man die systematische Beobachtung einer abhängigen Variablen unter verschiedenen Bedingungen einer unabhängigen Variablen bei gleichzeitiger Kontrolle der Störvariablen, wobei die zufällige Zuordnung von Probanden und experimentellen Bedingungen gewährleistet sein muss.
  • Explanative Validierung
    Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet die zweite Phase im Rahmen dieser Forschungsmethode. Hier werden die Subjektiven Theorien hinsichtlich ihrer Geltung überprüft. Dies geschieht im Rahmen einer Korrelations-, Prognose- oder Modifikationsstudie.
  • Explanatives Design
    ist ein Mixed-Methods-Design, bei dem zunächst eine quantitative, anschließend und darauf aufbauend eine vertiefende qualitative Forschungsphase implementiert wird.
  • Exploratives Design
    ist ein Mixed-Methods-Design, bei dem zunächst eine qualitative, anschließend darauf aufbauend eine qualitative Untersuchungsphase realisiert wird.
  • Externe Validität
    eines Experiments ist gegeben, wenn die Ergebnisse der Untersuchung übertragbar sind. Dabei sind drei Aspekte zu unterscheiden, nämlich die Populationsvalidität, die Situationsvalidität und die Variablenvalidität.
  • Extremfall
    Beim Extremfall ist das interessierende Phänomen besonders stark oder besonders schwach ausgeprägt.
  • Fallstudie
    Die Fallstudie stellt eine holistische Forschungsmethode dar, mit der interessierende Fälle ganzheitlich, unter Einbeziehung ihres Kontextes und unter Verwendung verschiedener Datenquellen und Erhebungsverfahren umfassend untersucht werden. Sie kann als Einzel- oder als multiple, als holistische oder eingebettete, als beschreibende oder erklärende Fallstudie realisiert sein.
  • Fokussiertes Interview
    ist ein Leitfadeninterview, mit dem die Reaktionen der Befragten auf ein ‚Objekt’ ermittelt werden (z. B. ein Film, ein Objektdesign o. ä.).
  • Förderung
    Beeinflussen und Verändern als Förderung: Bei dieser Zielsetzung strebt man einen höheren, ‚besseren’ Zustand an, ohne dass der Ausgangszustand als problematisch gilt. Zu denken ist vor allem an Begriffe wie Erziehung, Unterricht, Ausbildung oder Training. Statt von Förderung kann man auch von Optimierung sprechen.
  • Forschungsprogramm Subjektive Theorien (FST)
    ist eine qualitative Forschungsmethode, die von Groeben und Scheele in den 1970er Jahren entwickelt wurde. Sie basiert auf der Annahme, dass Menschen im Alltag ebenso wie Wissenschaftlerinnen und Wissenschaftler versuchen, die Welt um sich herum zu beschreiben, zu erklären und zu verändern. Ziel ist die Erhebung, Rekonstruktion und Geltungsprüfung Subjektiver Theorien. Die Vorgehensweise gliedert sich in die Phasen der Kommunikativen und der Explanativen Validierung. Darunter ist nur die Phase der Kommunikativen Validierung der qualitativen Forschung zuzurechnen.
  • Gegenstand der Psychologie
    ist das Erleben, Verhalten und Handeln des Menschen.
  • Gegenstandsbezogene Theoriebildung / Grounded Theory
    Die qualitative Forschungsmethode wurde von Glaser und Strauss in den 1960er Jahren entwickelt. Ziel ist es, Theorien zu erstellen, die direkt in den Daten verankert sind. Die Fallauswahl erfolgt sukzessive im Untersuchungsverlauf nach dem Prinzip der theoretischen Stichprobenziehung. Zur Datenerhebung können verschiedene Methoden eingesetzt werden. Die Auswertung vollzieht sich in einem Dreischritt von offenem, axialem und selektivem Codieren. In einem Prozess des permanenten Vergleichs werden selektive Kategorien untereinander zu einer Theorie verknüpft. Die Untersuchung ist abgeschlossen, wenn die Einbeziehung neuer Fälle keine weitere Modifikation der Theorie erfordert (Kriterium der theoretischen Sättigung).
  • Grundgesamtheit (Population)
    Darunter versteht man in der Psychologie die Menge aller potenziellen Untersuchungsobjekte für eine gegebene Fragestellung.
  • Gruppendiskussion (auch Fokusgruppe)
    Bei der Gruppendiskussion diskutieren zwischen 5 und 15 Personen zu einem vorgegebenen Thema. Die Gruppendiskussion wird meist von einer Forscherin oder einem Forscher unter Rückgriff auf einen thematischen Leitfaden geleitet. Die Forschenden moderieren, äußern sich aber nicht inhaltlich zum Thema.
  • Handlungsforschung (auch: Aktionsforschung)
    ist eine qualitative Forschungsmethode, die von Lewin in den 1940er Jahren entwickelt wurde. Sie versteht sich als gesellschaftskritische Forschung und zielt auf die Veränderung gesellschaftlicher Praxis ab. Gegenstand sind konkrete soziale Probleme, für die gemeinsam mit den Betroffenen in gleichberechtigter Kommunikation Lösungsmöglichkeiten erarbeitet werden. Die Betroffenen sollen durch die Forschung in die Lage versetzt werden, ihre Interessen selbst zu vertreten.
  • Haupteffekt(HE)
    Dieser zeigt sich also im Vergleich der Mittelwerte der Stufen des Faktors. Sind die Mittelwerte gleich oder nur wenig unterschiedlich, so liegt kein Haupteffekt(HE) vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Haupteffekt(HE) nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist.
  • Hermeneutik
    Ziel der Hermeneutik ist es, zu einem angemessenen und umfassenden Verständnis des Gesagten zu gelangen und dabei die Subjektivität des Verstehens im Alltag zu überwinden. Dies setzt einen Hintergrund geteilter Bedeutung voraus. Grundprinzip des hermeneutischen Verstehens ist die hermeneutische Spirale: Vorverständnis und Textverständnis, Verständnis von Textteilen und Textganzem greifen ineinander. In diesem Prozess wird das Textverständnis sukzessive vertieft.
  • Heterogene Stichprobe
    Diese setzt sich aus unterschiedlichen Fällen zusammen (Gegensatz zur homogenen Stichprobe).
  • Hintergrundwissen
    Unter dem Hintergrundwissen versteht man Wissensbestände, die benötigt werden, um jene Untersuchungssituation zu konstruieren, mit welcher die Hypothese konfrontiert werden soll.
  • Holistische Vorgehensweise
    Diese beinhaltet die Untersuchung des Gegenstandes in seiner Gesamtheit, ohne ihn in einzelne Aspekte (Variablen) zu zerlegen; wird auch als ‚Fallorientierung’ bezeichnet (Gegensatz zur Variablenorientierung).
  • Homogene Stichprobe
    Diese setzt sich aus gleichartigen Fällen zusammen (Gegensatz zur heterogenen Stichprobe).
  • Hybride Methoden
    sind Methoden, die in sich eine Kombination qualitativer und quantitativer Elemente beinhalten.
  • Hypothese
    ist eine vorläufige (vermutete) Antwort, die Forscher auf eine ihrer Fragen geben (Hussy & Jain, 2002). Um Vermutungen handelt es sich solange, als der wissenschaftliche Nachweis noch aussteht.
  • Ikonologie
    ist eine kunstgeschichtliche Methode zur Analyse von visuellem Material. Im Mittelpunkt stehen die Analyse von Symbolen und die motivgeschichtliche Einbettung der Darstellung. Die Analyse erfolgt auf drei aufeinander aufbauenden Ebenen: der darstellenden, der ikonografischen und der ikonologischen Ebene.
  • Induktion
    In der Logik versteht man unter Induktion die Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine und Gesetzmäßige.
  • Induktives Vorgehen
    Es wird versucht, theoretische Vorannahmen über den Gegenstand auszublenden und Schlussfolgerungen über den Gegenstand möglichst nur aus dem Datenmaterial heraus zu ziehen. Theorien stehen nicht am Beginn, sondern am Ende der Untersuchung (Gegensatz zum deduktiven Vorgehen).
  • Inferenzstatistik
    Die Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige Population. Aussagen der Inferenzstatistik gehen damit über das Beobachtbare hinaus und sind mit Unsicherheit behaftet. Parameter für Populationen werden in der Regel mit griechischen Symbolen bezeichnet, am wichtigsten darunter μ (sprich: mü) für den Mittelwert, δ (sprich: sigma) für die Standardabweichung und π (sprich: pi) für die relative Häufigkeit (den Anteil).
  • Inhaltsanalyse
    ist ein systematisches, datenreduzierendes Verfahren zur vergleichenden Analyse von bedeutungshaltigem Material. Die Analyse erfolgt, indem Materialteile (Segmente) den Kategorien eines inhaltsanalytischen Kategoriensystems zugeordnet werden. Diese Zuordnung wird meist von zwei unabhängig Codierenden vorgenommen.
  • Innere Vergleichbarkeit
    ist ein Konzept und stellt eine qualitative Annäherung an das Gütekriterium der Objektivität bei der Datenerhebung dar. Es beruht auf der Annahme, dass bei der Datenerhebung nicht die äußere, sondern die innere Entsprechung der Situationen ausschlaggebend ist. Da verschiedene Menschen dieselbe Situation je anders erleben, lässt sich Objektivität nicht dadurch herstellen, dass Forschende sich verschiedenen Personen gegenüber in identischer Weise verhalten. Erforderlich ist vielmehr ein personenspezifisch je unterschiedliches Verhalten, um aufseiten der Befragten dieselbe innere Situation zu erzeugen. Dieser Auffassung zufolge „emergiert“ Objektivität gerade aus der Subjektivität der Interaktionsrelationen.
  • Intensiver Fall
    Hier ist das interessierende Phänomen stark ausgeprägt, aber nicht so stark wie beim Extremfall.
  • Interaktion
    Unter einer Interaktion versteht man die kombinierte Wirkung der UV auf die AV. Sie umfasst die Wirkungen der einfachen Haupteffekte der UV.
  • Interne Validität
    eines Experiments ist gegeben, wenn Veränderungen in der AV ausschließlich auf die Variation der UV zurückgeführt werden können.
  • Intervention
    Unter einer Intervention versteht man in der Psychologie geplant und gezielt eingesetzte Maßnahmen, um Störungen vorzubeugen (Prävention), sie zu beheben (Psychotherapie) oder deren negative Folgen einzudämmen (Rehabilitation). Wie schon bei der Diagnostik ist auch hier deutlich zu erkennen, dass der Einsatz der Methoden praktischen, in diesem Fall psychologisch-klinischen Belangen dient.
  • Interview
    Das Interview ist ein Gespräch, in dem die Rollen per Konvention meist asymmetrisch verteilt sind, wobei die Forschenden die Fragen stellen und die an der Untersuchung Teilnehmenden antworten. Das Interview dient der Informationsermittlung.
  • Item
    Ein Item ist eine als Frage oder als Urteil formulierte Aussage, zu der die befragte Person ihre Zustimmung oder Ablehnung – ggf. in unterschiedlicher Intensität – äußern kann.
  • Kommunikative Validierung
    Der Begriff stammt aus dem Forschungsprogramm Subjektive Theorien und bezeichnet die erste Phase im Rahmen dieser Forschungsmethode. Hier werden die Subjektiven Theorien einer Person erhoben und rekonstruiert. In einem ersten Schritt erfolgt die Erhebung der Theorie-Inhalte in einem Leitfadeninterview. In einem zweiten Schritt wird die Theorie-Struktur unter Verwendung eines Struktur-Lege-Verfahrens im Dialog-Konsens zwischen den Teilnehmenden und den Forschenden rekonstruiert.
  • Komparative Kasuistik
    wurde von Jüttemann als spezifisch psychologisches Verfahren zur Auswertung von biografischem Material entwickelt. Ziel ist die Konstruktion von Theorien über entwicklungspsychologische Phänomene. In einem ersten Schritt wird jeder Fall inhaltsanalytisch ausgewertet. Dieser Schritt dient der Beschreibung und Analyse des Phänomens, wie es sich in den einzelnen Fällen manifestiert. In einem zweiten Schritt werden auf der Grundlage der Einzelfallbeschreibungen typische Einzelfallkonstellationen erstellt.
  • Konfundierung
    Zu Störvariablen werden andere Einflussgrößen erst dann, wenn sie systematisch mit den Stufen einer UV variieren und auf die AV einwirken. Diesen Sachverhalt nennt man Konfundierung. Zu verhindern ist also die systematische Variation einer potenziellen Einflussgröße mit den Stufen einer oder mehrerer UV.
  • Konnotation
    bezieht sich auf kulturell zugeschriebene, affektive Bedeutungen von Zeichen.
  • Konstante
    Eine Konstante ist eine Beobachtungsgröße mit nur einer Ausprägung. Diese sind im Gegenstandsbereich der Psychologie kaum vorzufinden (Hussy & Jain, 2002).
  • Konstanthalten
    Zum Konstanthalten zählen alle Maßnahmen der Standardisierung der Untersuchungssituation und damit auch Maßnahmen der Versuchsleiterschulung.
  • Korrektur
    Beeinflussen und Verändern als Korrektur: In diesem Fall gilt der Ausgangszustand als ‚problematisch’, ‚gestört‚, ‚unnormal‚; die Intervention soll folglich in erster Linie etwas Negatives aufheben und nicht so sehr etwas Positives entwickeln. Hier liegt der Schwerpunkt von Aktivitäten, die insbesondere unter Begriffen wie ‚Therapie‚ oder ‚Rehabilitation‚ zu finden sind.
  • Kritischer Fall
    Dieser ist ein besonders einschlägiger Fall (in Abhängigkeit von der Fragestellung), der sich auch für die Prüfung von Theorien eignet.
  • Lautes Denken
    dient der Erfassung kognitiver Prozesse. Die Befragten werden aufgefordert, alles laut zu verbalisieren, was ihnen bei der Bearbeitung einer vorgegebenen Aufgabe durch den Kopf geht. Die Verbalisierung kann während der Aufgabenbearbeitung erfolgen (periaktional) oder unmittelbar im Anschluss (postaktional).
  • Leitfadeninterview
    ist ein halbstandardisiertes Interview. Das bedeutet, dass die Reihenfolge der Fragen dem Gesprächsverlauf angepasst wird und die Fragen in Anlehnung an die Begrifflichkeit der Teilnehmenden formuliert werden. Der Leitfaden dient bei der Gesprächsführung also lediglich als Anhaltspunkt.
  • Matrizen
    Matrizen sind Tabellen, die Text enthalten. Sie eignen sich zur zusammenfassenden Darstellung verbaler Daten.
  • Memo
    Der Begriff stammt aus der Gegenstandsbezogenen Theoriebildung. Ein Memo ist eine Notiz, in der theorierelevante Überlegungen festgehalten werden, häufig im Laufe des Auswertungsprozesses.
  • Messen
    Messen ist die Zuordnung von Zahlen zu Objekten oder Ereignissen bezüglich der Ausprägung eines Merkmals oder einer Eigenschaft, so dass bestimmte Relationen zwischen den Zahlen vorhandene Relationen zwischen den Objekten (oder Ereignissen) homomorph abbilden.
  • Messwiederholung
    Von Messwiederholung spricht man, wenn die Probanden in verschiedenen experimentellen Bedingungen, also mehrfach innerhalb des gleichen Experiments, beobachtet werden.
  • Metaanalyse
    Die Metaanalyse ist eine an den Kriterien empirischer Forschung orientierte Methode zur quantitativen Integration der Ergebnisse empirischer Untersuchungen sowie zur Analyse der Variabilität dieser Ergebnisse. (Drinkmann, 1990, S. 11)
  • Methodologie
    Die Methodologie ist die Theorie der wissenschaftlichen Methoden (Methodenlehre), die sich insbesondere mit der sachgerechten Anwendung von Forschungsmethoden beschäftigt (Wenninger, 2001)
  • Mixed Methods
    bezeichnet eine Forschungsmethode, die eine Kombination von Elementen qualitativer und quantitativer Forschungstraditionen beinhaltet, typischerweise (aber nicht notwendig) innerhalb einer Untersuchung.
  • Mixed-Model-Designs
    sind Mixed-Methods-Untersuchungen, in denen eine Kombination von qualitativen und quantitativen Elementen über verschiedene Phasen derselben Untersuchung hinweg stattfindet. Als Phasen gelten dabei das Design, die Datenerhebung und die –auswertung.
  • Monomethod-Studien
    sind Untersuchungen, in denen nur Methoden aus einer Forschungstradition zur Anwendung kommen (also nur qualitative oder nur quantitative Methoden), und zwar jeweils nur eine Methode in der Phase der Datenerhebung und eine Methode in der Phase der Auswertung.
  • Multimethod-Designs
    sind Mixed-Methods-Studien, in denen zwei relativ eigenständige Untersuchungen nacheinander durchgeführt werden, eine qualitative und eine quantitative (nicht notwendig in dieser Reihenfolge).
  • Multimethod-Studien
    In Multimethod-Studien findet eine Kombination mehrerer Forschungsmethoden in einer Phase derselben Studie statt, wobei die Methoden entweder aus der qualitativen oder aus der quantitativen Forschungstradition stammen. Es werden also entweder mehrere qualitative oder mehrere quantitative Methoden kombiniert.
  • Narratives Interview
    ist ein nonstandardisiertes Interview, das dazu dient, Erzählungen der gesamten Lebensgeschichte oder auch einzelner relevanter Episoden aus dem Leben der befragten Personen zu rekonstruieren. Es gliedert sich in die Phasen: Erzählanstoß, Haupterzählung, Nachfrage- und Bilanzierungsphase.
  • Naturalistische Vorgehensweise
    Naturalistische Vorgehensweise wird in der qualitativen Forschung realisiert, indem der Gegenstand in seiner natürlichen Umgebung und in seinem natürlichen Erscheinungsbild untersucht wird, ohne ihn aktiv zu verändern.
  • Nichtexperimentelle Forschungsmethoden
    Das Hauptmerkmal nichtexperimenteller Forschungsmethoden besteht in ihrem Ziel, einen Sachverhalt möglichst genau beschreiben zu wollen (▶ Abschn. 1.3.1 und 2.2). Es werden die beteiligten Variablen identifiziert und beschrieben. Häufig wird auch nach deren Zusammenhang gefragt. Numerische Daten bilden die Grundlage von Hypothesengenerierung und Hypothesenentscheidung. Der Hauptunterschied zu den experimentellen Forschungsmethoden besteht darin, dass in der Regel keine Kausalhypothesen im Sinne der Erklärung von Wirkzusammenhängen geprüft werden.
  • Nonreaktive Beobachtungsverfahren
    sind dadurch gekennzeichnet, dass zwischen den Beobachtenden und den beobachteten Personen kein Kontakt besteht. Gegenstand der Beobachtung sind die Spuren, die Menschen mit ihren Handlungen hinterlassen.
  • Nonstandardisierte Beobachtung
    Hier wird nicht vorab festgelegt, was genau beobachtet werden soll; was von Bedeutung ist, ergibt sich im Verlauf der Untersuchung. Der Gegenstand der Beobachtung wird dabei möglichst in seiner Ganzheit und in seinen verschiedenen Facetten erfasst.
  • Nonstandardisiertes Interview
    ist diejenige Form des Interviews, die sowohl den Befragenden als auch den befragten Personen den größten Spielraum lässt. Es werden vorab lediglich Themenkomplexe festgelegt, aber keine Fragen vorformuliert.
  • Objektive Hermeneutik
    ist eine sozialwissenschaftliche Variante der Hermeneutik. Zielsetzung ist es, unter Heranziehung des Wissens über soziale Regeln die Sinnstruktur herauszuarbeiten, die einer sprachlichen Äußerung zugrunde liegt. Zu den verschiedenen Formen zählen die Feinanalyse, die Sequenzanalyse und die Interpretation der objektiven Sozialdaten.
  • Objektivität (intersubjektive Vergleichbarkeit)
    Hier handelt es sich um ein allgemeines Gütekriterium wissenschaftlicher Untersuchungen: Verschiedene Forscher müssen unter den gleichen (Versuchs-) Bedingungen zu den gleichen Ergebnissen gelangen (Unabhängigkeit der Resultate von Versuchssituation und Versuchsleitern).
  • Offene Verfahren
    Dies sind Verfahren (der Datenerhebung oder –auswertung), bei denen keine vorgegebenen Kategorien an den Gegenstand herangetragen werden (Gegensatz zu geschlossenen Verfahren, geschlossenen Fragen).
  • Offenes Codieren
    Offenes Codieren ist der erste Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. Erste relevante Konzepte im Datenmaterial werden als Codes festgehalten. Es erfolgt datennah und Zeile für Zeile. Codes können unmittelbar in der Begrifflichkeit der Teilnehmenden formuliert sein (in vivo-Codes).
  • Operationalisierung
    Wenn eine Hypothese mit abstrakten und/oder komplexen Variablen geprüft, also mit der Realität konfrontiert werden soll, müssen diese Variablen der Beobachtung und Erfassung zugänglich gemacht werden, d. h., sie müssen operationalisiert werden. Dies geschieht dadurch, dass ihnen auf der Basis des vorliegenden Hintergrundwissens empirische Sachverhalte (d. h. konkret mess- bzw. beobachtbare Größen) zugeordnet werden. Dadurch wird entscheidbar, ob und in welcher Ausprägung die abstrakten (theoretischen) Begriffe in der (empirischen) Realität vorliegen.
  • Organismische UV
    nennt man eine UV, wenn die Vpn deren Ausprägung als Merkmal mit in die Untersuchung einbringen und von daher den Stufen nicht zufällig zuzuordnen sind.
  • Pädagogische oder klinische Signifikanz
    (je nach dem betroffenen Inhaltsbereich) liegt vor, wenn zwischen den Messwerten aus der Basisratenphase und der Interventionsphase keine Überlappungen (Überschneidungen) existieren und wenn der Unterschied zwischen dem Mittelwert aus diesen beiden Phasen mindestens 2 Standardabweichungen beträgt. Man geht auch dann von ihr aus, wenn der Prozentsatz nicht überlappender Daten 85% beträgt. Nähere Informationen zur Berechnung dieses Indexes finden sich ebenfalls bei Kern (1997).
  • Panel
    Eine Stichprobe, die wiederholt zu einer bestimmten Thematik (Fernsehgewohnheiten, Konsumgewohnheiten etc.) oder auch zu verschiedenen Themen befragt wird, bezeichnet man als ein Panel (Bortz & Döring, 1995, S. 421).
  • Parallelisieren
    Beim Parallelisieren wird die interessierende Variable vor dem Experiment gemessen und die Probanden werden bezüglich ihrer Ergebnisse in eine Rangreihe gebracht. Liegen zwei Versuchsbedingungen vor, so nimmt man aus dieser Rangfolge jeweils zwei aufeinander folgende Personen und teilt sie per Zufall den beiden Bedingungen zu.
  • Prävention
    Beeinflussen und Verändern als Prävention: Hier geht es darum, das Eintreten eines schlechten Zustands zu verhindern. Man greift ein, damit bestimmte Risiken sich nicht erfüllen. Beispiele hierfür sind das Erlernen von Stressbewältigung zur Prävention psychischer Probleme (auch Psychohygiene genannt) oder die Mitarbeiterschulung zwecks Unfallverhütung am Arbeitsplatz. (Nolting & Paulus, 2008).
  • Präzision
    Unter Präzision versteht man die Wahrscheinlichkeit, dass ein in der Population tatsächlich vorhandener Zusammenhang bzw. Unterschied durch die Untersuchung auch wirklich nachgewiesen werden kann.
  • Prinzip der maximalen strukturellen Variation
    liegt dem qualitativen Experiment zugrunde. Es besagt, dass alle relevanten Aspekte eines Gegenstandes auf Ähnlichkeiten und Unterschiede hin analysiert werden sollen.
  • Problemzentriertes Interview
    ist ein Leitfadeninterview, das an einem konkreten gesellschaftlichen Problem ansetzt.
  • Psychologische Diagnostik
    repräsentiert Vorgehensweisen, welche eine Erfassung von Charakteristika von Personen, Personengruppen, Institutionen, Situationen etc. zur Folge haben. Die Erfassung und Gewinnung von Charakteristika erfolgt zielgerichtet und systematisch mit wissenschaftlich fundierten Methoden, wie Testverfahren, Fragebogen, Verhaltensbeobachtungen und Anamnesen. Mit der Diagnostik wird das Ziel verfolgt, Erkenntnisse über die Merkmalsträger (Probanden, Klienten, Patienten) zu gewinnen und für eine Entscheidung über eine nachfolgende Maßnahme, wie Beratung, Therapie, Training etc., zu nutzen.
  • Psychologische Methoden
    Darunter verstehen wir Vorgehensweisen, mit deren Hilfe wir Antworten auf Fragen aus dem Gegenstandsbereich der Psychologie erhalten können. Im Lexikon der Psychologie (Wenninger, 2001, Bd. 3) finden wir die etwas abstraktere Definition: „Methode, griechisch ‚meta hodos’, der Weg zu etwas hin, das wissenschaftliche Vorgehen bzw. auf einem Regelsystem aufbauendes Verfahren, das zur Erlangung von wissenschaftlichen Erkenntnissen dient.“ Methoden sind folglich eingebunden in einen wissenschaftlichen Problemlöseprozess mit dem Ziel der Generierung von Erkenntnissen.
  • Qualitative Methoden
    werden im Rahmen der qualitativen Forschung angewendet, unter der Sozialwissenschaften eine sinnverstehende, interpretative wissenschaftliche Verfahrungsweise bei der Erhebung und Aufbereitung sozial relevanter Daten verstehen.
  • Qualitative Stichprobenpläne
    Diese sind Top down-Verfahren der bewussten Fallauswahl, bei denen die Ausprägungen relevanter Merkmale miteinander kombiniert und jede Zelle mit einer kleinen Anzahl von Fällen besetzt wird (meist n=1).
  • Qualitativer Ansatz
    Hier kommen eher sinnverstehende (unstandardisierte) Verfahren zum Einsatz.
  • Qualitatives Experiment
    ist eine Forschungsmethode und wurde von Kleining entwickelt. Es ist der nach wissenschaftlichen Regeln vorgenommene Eingriff in einen (sozialen) Gegenstand nach dem Prinzip der maximalen strukturellen Variation. Dabei kommen nur solche Verfahren zur Anwendung, die dem Gegenstand gerecht werden. Ziel ist es, die Struktur des Gegenstandes aufzudecken.
  • Quantitative Methoden
    werden im Rahmen der quantitativen Forschung eingesetzt und repräsentieren eine Vorgehensweise zur numerischen Darstellung empirischer Sachverhalte.
  • Quantitativer Ansatz
    Hier kommen objektiv messende (standardisierte) Verfahren zum Einsatz.
  • Randomisieren
    heißt das zufällige Zuteilen der Versuchspersonen zu den Versuchsbedingungen und bewirkt im Idealfall die statistische Äquivalenz (Vergleichbarkeit) der Versuchsgruppen hinsichtlich aller denkbaren Störvariablen: Die Mittelwerte und Verteilungen aller möglichen Einflussgrößen sind in den realisierten experimentellen Bedingungen vergleichbar.
  • Reaktivität
    Reaktivität bei psychologischen Datenerhebungen bedeutet die Veränderung bzw. Verzerrung der erhobenen Daten alleine aufgrund der Kenntnis der untersuchten Personen darüber, dass sie Gegenstand einer Untersuchung sind. Aufgrund von Reaktivität verändert sich die Beschaffenheit des zu erforschenden Gegenstands in der Psychologie des menschlichen Erlebens bzw. psychischer Vorgänge.
  • Reliabilität (Zuverlässigkeit)
    bezeichnet die Zuverlässigkeit und Beständigkeit einer Untersuchung. Reliabel ist ein Instrument dann, wenn es bei einem relativ gleich bleibenden Verhalten gleiche oder ähnliche Ergebnisse liefert.
  • Schneeballverfahren
    Das Schneeballverfahren ist ein Verfahren der Fallauswahl, bei dem zunächst ein Mitglied der interessierenden Gruppe kontaktiert und nach weiteren Personen aus derselben Gruppe gefragt wird; diese werden ihrerseits ebenfalls nach weiteren Personen gefragt, bis eine hinreichende Stichprobengröße erreicht ist. Das Verfahren ist besonders gut zur Fallauswahl bei schwer erreichbaren Populationen geeignet.
  • Schriftliche offene Befragung
    Hier werden die Teilnehmenden aufgefordert, Fragen in ihren eigenen Worten schriftlich zu beantworten.
  • Schwierigkeit von Testitems
    ist der Prozentsatz aller untersuchten Personen, die das Item gelöst bzw. positiv beantwortet haben. Obwohl der Begriff einen engen Bezug zu Leistungstests aufweist, kann er doch auch auf Persönlichkeitstests angewendet werden – obgleich er in diesem Fall nicht mit dem Alltagsverständnis von Schwierigkeit übereinstimmt. Bei der Testkonstruktion wird oft eine breitere Streuung der Schwierigkeiten angestrebt, damit der Testwert über das gesamte Spektrum zwischen Personen mit verschiedenen Merkmalsausprägungen differenziert.
  • Selbstbeobachtung
    Bei der Selbstbeobachtung sind Beobachter/in und beobachtete Person identisch.
  • Selektives Codieren
    ist der dritte Auswertungsschritt im Rahmen der Gegenstandsbezogenen Theoriebildung. Dabei werden die axialen Kategorien untereinander in Beziehung gesetzt und zu einem Gesamtmodell bzw. einer Theorie integriert. Im Mittelpunkt steht dabei die Basis- bzw. Kernkategorie, um die herum sich die anderen Kategorien gruppieren. Hier findet also die eigentliche Theorienbildung statt.
  • Semiotik
    ist die Lehre von den Zeichen. Sie eignet sich zur Analyse von verbalen und visuellen Daten.
  • Spontanaktivität
    Bei der Spontanaktivität handelt es sich um ständig auftretende rhythmische Potenzialänderungen mit einer Frequenz von 0,5 bis maximal 100 Hz und Amplituden von 1 bis 100 µV (Mikrovolt).
  • Standardisiertes Interview
    in dieser Art von Interview sind Wortlaut und Reihenfolge der Interviewfragen vorab festgelegt und für alle Teilnehmenden gleich. Wenn dabei offene Fragen gestellt werden, die in eigenen Worten beantwortet werden sollen, handelt es sich um ein qualitatives standardisiertes Interview
  • Statistische Validität
    beurteilt die Güte der Auswahl und Anwendung statistischer Verfahren und die Interpretation ihrer Ergebnisse. Sie wird u. a. durch die Verletzung der Anwendungsvoraussetzungen der statistischen Tests beeinträchtigt.
  • Stetige Merkmale
    Ein Merkmal, das prinzipiell unendlich viele Ausprägungen annehmen kann und keine Erfassung der Häufigkeit in ganzen Zahlen zulässt, wird als stetig bzw. kontinuierlich bezeichnet. Kontinuierliche Merkmale wie z. B. die Körpergröße können nicht gezählt, wohl aber gemessen werden.
  • Stichprobe
    Unter einer Stichprobe versteht man eine Teilmenge aus einer Grundgesamtheit, die unter bestimmten Gesichtspunkten (gemäß der Fragestellung) ausgewählt wurde.
  • Struktur-Lege-Verfahren
    dienen der Rekonstruktion subjektiver Theoriestrukturen. Sie beinhalten Relationen, mit denen sich Theorieinhalte untereinander verbinden lassen, und Regeln zur grafischen Darstellung der Theoriestruktur. Es existieren verschiedene Struktur-Lege-Verfahren für unterschiedliche Wissensbereiche: Verfahren zur Rekonstruktion von Definitions- und empirischem Wissen (z. B. Heidelberger Struktur Lege-Technik, SLT), von Handlungswissen (z. B. Weingartener Appraisal Legetechnik, WAL) und von Bewertungen (Ziel-Mittel-Argumentation, ZMA).
  • Subjektive Theorien
    stammen als Begriff aus dem Forschungsprogramm Subjektive Theorien. Sie bestehen aus Konzepten und Relationen zwischen den Konzepten und weisen zumindest eine implizite Argumentationsstruktur auf. Sie sind im Dialog-Konsens aktualisier- und rekonstruierbar (Phase der Kommunikativen Validierung) und erfüllen die Funktionen der Erklärung, Prognose und Technologie. Ob sie auch als ‚objektive’ Erkenntnis akzeptierbar sind, ist jeweils gesondert zu prüfen (Phase der explanativen Validierung).
  • Systematische Variation
    Eine potenzielle Störvariable dadurch kontrolliert, dass sie zu einer weiteren UV gemacht wird (Kontrollfaktor).
  • Teilnehmende Beobachtung
    ist das wichtigste Verfahren der Datenerhebung im Rahmen der deskriptiven Feldforschung. Dabei wird das Forschungsteam selbst Teil des Feldes, nimmt also im Feld eine aktive Rolle innerhalb der untersuchten Kultur ein. Diese Methode dient dazu, das Feld aus der Innenperspektive kennen zu lernen.
  • Teilnehmende Beobachtung
    ist eine Form der nonstandardisierten Beobachtung. Dabei übernehmen die Forschenden aktiv eine Rolle im Feld, werden also selbst zu einem Mitglied des Feldes, das den Forschungsgegenstand darstellt.
  • Test
    Ein Test ist ein wissenschaftliches Routineverfahren zur Untersuchung eines oder mehrerer empirisch unterscheidbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst genauen quantitativen Aussage über den relativen Grad der individuellen Merkmalsausprägung. Ein Test besteht in der Regel aus mehreren Aufgaben oder Fragen (Items), die von verschiedenen Menschen mit unterschiedlichen Fähigkeiten oder Eigenschaften unterschiedlich gelöst bzw. beantwortet werden. In einem abstrakteren methodischen Sinn wird ein Test auch als eine standardisierte Verhaltensstichprobe definiert, die aus Antworten auf eine Mehrzahl von Items besteht. Aus den Antworten wird der Testwert der untersuchten Person aggregiert.
  • Theoretisch-inhaltliche Hypothese (TIH)
    nennt man eine Hypothese, bei welcher noch keine Operationalisierung ihrer abstrakten Variablen vorgenommen wurde.
  • Theoretische Sättigung
    Theoretische Sättigung ist das Abbruchkriterium im Rahmen der Gegenstandsbezogenen Theoriebildung. Die Untersuchung wird beendet, wenn eine Einbeziehung zusätzlicher Fälle keine weitere Modifikation der Theorie erfordert. Die Theorie gilt dann als gesättigt.
  • Theoretische Stichprobenziehung
    Es handelt sich um ein Bottom-up-Verfahren der bewussten Fallauswahl, das in der Grounded Theorie entwickelt wurde. Ziel ist es, einen Gegenstandsbereich in seiner Variabilität abzubilden. Die Fallauswahl erfolgt nach den Prinzipien der maximalen Ähnlichkeit und der maximalen Differenz, bis eine gesättigte Theorie erreicht ist.
  • Tiefeninterview (auch Intensivinterview)
    ist ein nonstandardisiertes Interview mit dem Ziel, unbewusste Prozesse und Motive der befragten Personen aufzuklären.
  • Top down-Verfahren der bewussten Stichprobenziehung
    Dies sind Verfahren der bewussten Fallauswahl, bei denen die Kriterien für die Zusammensetzung der Stichprobe vor Untersuchungsbeginn festgelegt werden, z. B. qualitative Stichprobenpläne, Auswahl bestimmter Arten von Fällen.
  • Transkription
    von Datenmaterial bedeutet, es von einer auditiven in eine schriftliche Form zu überführen. Die Transkription kann vollständig oder selektiv erfolgen; sie kann sich auf die Inhalte beschränken oder auch para- und nonverbale Elemente enthalten.
  • Transkriptionssysteme
    regeln die Wiedergabe paraverbaler Elemente durch Symbole. Sie legen außerdem fest, wie die Beiträge mehrerer Sprecher/innen auf der Seite angeordnet sind.
  • Trennschärfe von Testitems
    ist zu entnehmen, wie gut das gesamte Testergebnis aufgrund der Beantwortung dieses einzelnen Items vorhersagbar ist. Damit gibt diese an, wie gut ein einzelnes Item den gesamten Test repräsentiert. Somit erreichen Personen, die einen hohen (niedrigen) Gesamttestwert aufweisen, auf einem trennscharfen Einzelitem ebenfalls einen hohen (niedrigen) Wert.
  • Triangulation
    Unter Triangulation im weiteren Sinne versteht man das Einnehmen unterschiedlicher Perspektiven auf denselben Forschungsgegenstand. In der Methodenliteratur bezeichnet Triangulation die Erhebung von Daten zu einem Gegenstand unter Anwendung von (mindestens) zwei verschiedenen Methoden.
  • Triangulationsdesign
    ist ein Mixed-Methods-Design. Es ist dadurch gekennzeichnet, dass zeitgleich qualitative und quantitative Verfahren der Datenerhebung zur Anwendung kommen; die Daten beziehen sich auf denselben Untersuchungsgegenstand, und es kommt ihnen dasselbe Gewicht zu.
  • Türhüter (auch: Gatekeeper)
    Der Begriff stammt aus der deskriptiven Feldforschung und bezeichnet eine Person aus einer anderen Kultur, die bereit ist, die Forschenden in diese Kultur einzuführen.
  • Typenbildung
    Ziel der Typenbildung ist es, einander ähnliche Fälle zu identifizieren und so zu Gruppen bzw. Typen zusammenzufassen, dass die Fälle innerhalb eines Typus einander möglichst ähnlich sind und die Typen untereinander sich dagegen möglichst stark unterscheiden.
  • Typischer Fall
    Bei diesem weist das interessierende Phänomen eine Ausprägung auf, wie sie auch für die anderen Fälle in der Grundgesamtheit charakteristisch ist.
  • Typologie
    Eine Typologie besteht aus mehreren Typen und ihrer Relation untereinander. Eine Typologie ist eine bestimmte Art und Weise, einen Gegenstandsbereich im Hinblick auf Ähnlichkeit und Unterschiede zu strukturieren.
  • Typus
    Ein Typus besteht aus mehreren Fällen, die sich aufgrund von Ähnlichkeit im Hinblick auf verschiedene Merkmale oder Eigenschaften zusammenfassen lassen.
  • Umfrageforschung
    Die Umfrageforschung sammelt standardisierte Informationen zu einem spezifischen Fragegegenstand (Wahl, Produktbeliebtheit, Irakkrieg usw.) indem eine repräsentative Stichprobe der jeweiligen Population befragt (interviewt) wird.
  • Validität (Gültigkeit)
    beurteilt eine quantitative Untersuchung danach, ob sie auch gemessen hat, was sie messen wollte. Ursprünglich beurteilte dieser Qualitätsmaßstab ein diagnostisches Messinstrument, z. B. einen Intelligenztest, danach, ob es misst, was es zu messen vorgibt, also ob ein Intelligenztest tatsächlich Intelligenz und nicht etwa Frustrationstoleranz misst.
  • Variable
    Eine Variable ist eine veränderliche Beobachtungsgröße. Diese veränderlichen Beobachtungsgrößen sind aus dem Bereich des menschlichen Erlebens, Verhaltens und Handelns. Jede Variable hat mindestens zwei, in der Regel viele Ausprägungen (Hussy & Jain, 2002).
  • Verdeckte Beobachtung
    Hier wissen die beobachteten Personen nicht, dass sie Gegenstand einer Beobachtung sind. Die verdeckte Beobachtung wirft erhebliche ethische Probleme auf.
  • Versuchsplan
    Unter einem Versuchsplan versteht man eine möglichst konkrete Handlungsanweisung zur Erhebung von Daten zum Zweck der ökonomischen, validen und präzisen experimentellen Hypothesenprüfung. Die Konkretisierung erfolgt auf der Grundlage einer zugehörigen Versuchsplananlage und mithilfe folgender vier Entscheidungen, die die Bedingungen angeben, unter welchen die Vpn beobachtet werden: 1. vollständige oder teilweise Realisierung der angelegten Zellen, 2. Bestimmung der Anzahl der Beobachtungen pro Zelle, 3. interindividuelle oder intraindividuelle Bedingungsvariation, 4. randomisierte oder nichtrandomisierte Zuordnung der Vpn zu den Zellen.
  • Versuchsplananlage (VPL-A)
    Darunter wollen wir eine Menge von bewährten Schemata zur Anordnung von unabhängigen Variablen (Faktoren) und ihren Ausprägungen (Stufen) verstehen, mit deren Hilfe eine möglichst informationshaltige und gleichzeitig ökonomische symbolische Repräsentation der Variablenausprägungen (Faktorstufen) erreicht werden kann. (Hager, 1987, S. 56)
  • Vollständiges interindividuelles Ausbalancieren
    Hier werden alle möglichen Reihenfolgen der experimentellen Bedingungen realisiert. Man ordnet jeder denkbaren Abfolge mindestens eine Versuchsperson per Zufall zu.
  • Vorhersagen (Prognosen)
    Vorhersagen (Prognosen) sind vorwärts gerichtete Erklärungen. Derselbe Bedingungszusammenhang, den man annimmt, um einen Sachverhalt zu erklären, dient dazu, das Eintreten eines zukünftigen Sachverhalts zu prognostizieren (Nolting & Paulus, 2008).
  • Wissenschaft
    Unter einer Wissenschaft versteht man die Gesamtheit von Erkenntnissen, die auf einen Erkenntnisgegenstand bezogen sind und in einem Begründungszusammenhang stehen. Einzelwissenschaften beziehen sich auf umgrenzte Themenbereiche: z. B. Neurologie, Psychologie, Soziologie. Kennzeichnend für Wissenschaften sind methodisch begründete Vorgehensweisen, d. h. intersubjektiv nachvollziehbare Prozesse des Forschens und Erkennens (Wenninger, 2001).
  • Wissenschaftliche Beobachtung
    ist die systematische und regelgeleitete Registrierung des Auftretens bzw. der Ausprägung von ausgewählten, psychologisch relevanten Merkmalen oder Ereignissen. Sie folgt einem zuvor festgelegten Beobachtungsplan, der festlegt, 1. was beobachtet werden soll (Kategorien für das/die interessierende/n Ereignis/se oder Merkmal/e); 2. welche Aspekte weniger oder nicht relevant sind; 3. welchen Interpretationsspielraum der Beobachtende bei der Beobachtung hat; 4. wann, wie lange und wo die Beobachtung erfolgt (Zeitpunkte, Zeiträume, Situationen); 5. auf welche Weise das Beobachtete registriert und protokolliert wird.
  • Wissenschaftliches Handeln als Problemlösen
    Aus allgemeinpsychologischer Sicht stellt wissenschaftliches Handeln somit ein Beispiel für einen Problemlöseprozess dar. Nach Hussy (1998) liegt ein Problem vor, wenn ein gegebener Ausgangszustand (eine vorläufige Antwort auf eine Frage) in einen Zielzustand (geprüfte Aussage) überführt werden soll, wobei eine Barriere diese Überführung erschwert.
  • Wissenschaftstheorie
    Bei der Wissenschaftstheorie handelt es sich um jene Disziplin, die sich mit dem Begriff und der Einteilung von Wissenschaften, ihren Erkenntnisprinzipien und Methoden, sowie ihrer Sprache beschäftigt (Wenninger, 2001).
  • Zeichen
    Ein Zeichen ist etwas, das für etwas anderes stehen bzw. dieses andere anzeigen oder bedeuten kann.
  • Ziel jeder wissenschaftlichen Tätigkeit
    ist, allgemein gesagt, das Generieren von beständigem Wissen. Psychologie als Wissenschaft möchte Erkenntnisse zu ihrem Gegenstandsbereich schaffen, möchte Antworten auf Fragen geben, die das menschliche Erleben, Verhalten und Handeln betreffen.
  • Zufällige Variation
    Hier realisiert der Versuchsleiter möglichst viele Ausprägungsgrade der potenziellen Störvariablen und ordnet die Probanden diesen per Zufall zu, damit es nicht zu einer systematischen Variation mit den Stufen der UV und damit auch nicht zu einer Konfundierung kommt.