Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften

9783642410888.png

Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften

ISBN: 
9783642410888

Der Klassiker zu den Forschungsmethoden – in der 5. Auflage rundum erneuert, didaktisch verbessert und aktueller denn je! Dieses Buch ist ein fundierter und verlässlicher Begleiter für Studierende, Forschende und Berufstätige.

Weiterlesen

Alles drin …

  • Grundlagen: Quantitative und qualitative Sozialforschung, Wissenschaftstheorie, wissenschaftliche Qualitätskriterien und Forschungsethik.
  • Anwendung: Alle Phasen des Forschungsprozesses von der Festlegung des Forschungsthemas, des Untersuchungsdesigns und der Operationalisierung über Stichprobenziehung, Datenerhebungs- und Datenanalysemethoden bis zur Ergebnispräsentation.
  • Vertiefung: Effektgröße, Teststärke und optimaler Stichprobenumfang, Metaanalysen, Strukturgleichungsmodelle, Evaluationsforschung.
     

… und grundlegend überarbeitet – das ist neu!

  • Klarheit: Verbesserte Gliederung der Kapitel sowie des gesamten Buches.
  • Aktualität: Beiträge zu Online-Methoden, Mixed-Methods-Designs und anderen neueren Entwicklungen.
  • Lernfreundlichkeit: Viele Abbildungen, Tabellen, Definitionsboxen, Cartoons, Übungsaufgaben und Lernquiz mit Lösungen.
  • Praxisbezug: Reale Studienbeispiele aus verschiedenen sozial- und humanwissenschaftlichen Fächern (z. B. Psychologie, Kommunikationswissenschaft, Erziehungswissenschaft, Medizin, Soziologie).
Datei: 
AnhangGröße
PDF icon 9783642410888-probekapitel.pdf363.74 KB
Datei: 
AnhangGröße
PDF icon inhaltsverzeichnis.pdf169.35 KB
BegriffErklärung
Empirische DatenEmpirische Daten („empirical data“) sind gezielt im Hinblick auf das Forschungsproblem ausgewählte und dokumentierte Informationen über die Erfahrungswirklichkeit. Sie werden mit wissenschaftlichen Datenerhebungsmethoden (Beobachtung, Interview, Fragebogen, psychologischer Test, physiologische Messung, Dokumentenanalyse) unter Nutzung entsprechender standardisierter oder nicht-standardisierter Erhebungsinstrumente (Beobachtungsplan, Interviewleitfaden, Fragebogen, Messgerät etc.) gesammelt. Aussagekräftig sind die Daten nur, wenn sie im Rahmen eines dem Forschungsproblem angemessenen Forschungsprozesses und Untersuchungsdesigns an einer passenden Stichprobe (oder an der gesamten Population) erhoben wurden, sachgerecht ausgewertet und theoriebezogen interpretiert werden.
Wissenschaftlicher ErkenntnisgewinnWissenschaftlicher Erkenntnisgewinn („scientific knowledge gain“) basiert in Erfahrungswissenschaften wie den Sozial- und Humanwissenschaften auf der systematischen Sammlung, Aufbereitung und Analyse von empirischen Daten im Rahmen eines geordneten und dokumentierten Forschungsprozesses. Dabei kommen sozialwissenschaftliche Methoden der Untersuchungsplanung, Stichprobenziehung, Datenerhebung, Datenaufbereitung und Datenanalyse zum Einsatz. Des Weiteren ist der empirische Forschungsprozess theoriebasiert, d. h. in seinem Verlauf werden wissenschaftliche Theorien über den Forschungsgegenstand (sowie über die Forschungsmethodik) angewendet und geprüft oder gebildet und weiterentwickelt. Erst mit Bezug auf Theorien sind empirische Daten sinnvoll interpretierbar.
Wissenschaftliche ForschungWer wissenschaftliche Forschung („scientific research“) betreibt, sucht mithilfe anerkannter wissenschaftlicher Methoden und Methodologien auf der Basis des bisherigen Forschungsstandes (d. h. vorliegender Theorien und empirischer Befunde) zielgerichtet nach gesicherten neuen Erkenntnissen, dokumentiert den Forschungsprozess sowie dessen Ergebnisse in nachvollziehbarer Weise und stellt die Studie in Vorträgen und Publikationen der Fachöffentlichkeit vor.
Wissenschaftliche MethodenWissenschaftliche Methoden („scientific methods“) sind in der empirischen Sozialforschung vor allem einzelne Verfahren bzw. Techniken der Datenerhebung und Datenanalyse. Wissenschaftliche Datenerhebungsmethoden in diesem Sinne sind beispielweise psychologische Testverfahren wie der Intelligenztest, physiologische Messungen wie die EKG-Messung oder Interviewtechniken wie das Leitfaden-Interview. Wissenschaftliche Datenanalysemethoden sind z.B. die qualitative Inhaltsanalyse oder die statistische Varianzanalyse.
Wissenschaftliche Methodologien oder ForschungsstrategienWissenschaftliche Methodologien („scientific methodologies“) oder Forschungsstrategien („research strategies“, „strategies of inquiry“) sind Anweisungen zur Gestaltung des Forschungsprozesses und des Untersuchungsdesigns. Methodologien geben an, in welcher Weise einzelne Methoden in einen Untersuchungsplan zu integrieren sind und was beim Durchlaufen des Forschungsprozesses zu beachten ist, um Wissenschaftlichkeit und hohe Aussagekraft zu gewährleisten. So stehen z. B. hinter ethnografischer Feldforschung oder experimenteller Laborforschung unterschiedliche Methodologien, welche die Basis bilden für Entscheidungen über Untersuchungsbedingungen, Untersuchungszeitpunkte, Untersuchungsdauer, Auswahl von Untersuchungspersonen, Anzahl und Rolle der Forschenden, Art der Dokumentation der Daten etc. Im Rahmen einer bestimmten Methodologie können unterschiedliche Methoden einzeln oder kombiniert zum Einsatz kommen. In einer zweiten Begriffsbedeutung meint Methodologie die wissenschaftstheoretische Begründung der Methoden
Weitere Begriffe
Zurück
Frage 1 von 309
Weiter
  • Was versteht man unter Wissenschaftsbildung und Methodenkompetenz?

    Lösung

    Wissenschaftsbildung meint ein grundlegendes Verständnis des Wissenschaftssystems
    sowie des wissenschaftlichen Forschungsprozesses. Die Wissenschaftsbildung der
    Bevölkerung gewinnt an Bedeutung, weil in der heutigen Wissenschaftsgesellschaft in vielen
    Bereichen auf wissenschaftliche Erkenntnisse Bezug genommen wird. Methodenkompetenz ist
    enger gefasst und bezeichnet die Kenntnisse und Fähigkeit die notwendig sind, um am Wissenschaftssystem teilzunehmen, also wissenschaftliche Originalquellen zu verstehen und selbst
    Forschungsprojekte zu realisieren.
  • Warum spricht man von „empirischer“ Sozialforschung? Wie ordnen sich Sozialwissenschaften in das System wissenschaftlicher Disziplinen ein?

    Lösung

    Unter „empirischer“ Sozialforschung versteht man die Untersuchung sozialer Sachverhalte auf der Basis einer systematischen Sammlung und Analyse von Daten über die Erfahrungswirklichkeit. Die Sozialwissenschaften werden den empirischen bzw. Erfahrungswissenschaften zugeordnet. Sie stehen dabei zusammen mit den Natur- sowie den Technikwissenschaften den nicht-empirischen Wissenschaften gegenüber, nämlich den Geistes- und Formalwissenschaften.
  • Worin unterscheiden sich quantitative und qualitative Sozialforschung?

    Lösung

    Die quantitative Sozialforschung arbeitet mit quantitativen Daten (d. h. mit numerischen Daten bzw. Messwerten), die statistisch auszuwerten sind. Die qualitative Sozialforschung arbeitet mit qualitativen Daten (d. h. mit verbalen, visuellen oder audiovisuellen bzw. narrativen Materialien), die interpretativ auszuwerten sind. Abgesehen von der Art des empirischen Datenmaterials und den damit verbundenen quantitativen und qualitativen Methoden der Datenerhebung und Datenanalyse unterscheiden sich beide Ansätze auch in ihren Methodologien und ihren wissenschaftstheoretischen Grundlagen.
  • Worin bestehen die Gemeinsamkeiten quantitativer und qualitativer Sozialforschung?

    Lösung

    Sowohl in der quantitativen als auch in der qualitativen Sozialforschung geht es darum, auf der Basis von empirischen Daten im Rahmen etablierter wissenschaftlicher Methodologien und Paradigmen Kenntnisse über soziale Sachverhalte zu gewinnen, die Kriterien der Wissenschaftlichkeit entsprechen.
  • Was versteht man unter interdisziplinärer Forschung? Welche Voraussetzungen müssen dafür gegeben sein?

    Lösung

    Bei interdisziplinärer Forschung werden Fragestellungen, Theorien, Methoden und/oder Ergebnisse unterschiedlicher wissenschaftlicher Disziplinen oder Subdisziplinen miteinander verknüpft, um eine Forschungsfrage umfassender zu bearbeiten. Dies wird möglich durch Forschende, die in mehreren Disziplinen ausgebildet sind und/oder durch Forschungsteams, die aus Vertretern unterschiedlicher Fächer zusammengesetzt sind.
  • Was ist mit Mixed-Methods-Research im Kontext der empirischen Sozialforschung gemeint?

    Lösung

    Im Rahmen des Mixed-Methods-Ansatzes werden quantitative und qualitative Methoden und Methodologien innerhalb einer Studie in unterschiedlich aufwändiger Weise miteinander verknüpft. Gleichzeitig wird im Mixed-Methods-Ansatz auch die Vereinbarkeit der quantitativen und qualitativen Wissenschaftsverständnisse bzw. Paradigmen diskutiert.
  • Grenzen Sie Grundlagen- und Anwendungsforschung hinsichtlich ihrer Fragestellungen, Methoden und Ergebnisse voneinander ab.

    Lösung

    In der Grundlagenforschung können sich Forschende ihre Themen relativ frei wählen, in der Anwendungsforschung dominiert Auftragsforschung, d. h. das Forschungsproblem wird vom Auftraggeber vorgegeben. In der Grundlagenforschung wird möglichst große methodische Strenge angestrebt, in der Anwendungsforschung sind unter den Randbedingungen der Praxis oft Einschränkungen der methodischen Strenge in Kauf zu nehmen. Während die Ergebnisse der Grundlagenforschung zum wissenschaftlichen Erkenntnisfortschritt beitragen sollen, wird von Ergebnissen der Anwendungsforschung vor allem hohe praktische Relevanz für den Auftraggeber verlangt.
  • Was bedeutet es, wenn ein Zeitschriftenartikel sehr oft zitiert wird? Wie kommt dies üblicherweise zustande?

    Lösung

    Wenn ein wissenschaftlicher Fachartikel häufig zitiert wird, präsentiert er offenbar Theorien, empirische Befunde und/oder Methoden, die in vielen anderen wissenschaftlichen Studien aufgegriffen werden. Dies ist vor allem der Fall bei Beiträgen zu Themen, zu denen eine große Forschungscommunity existiert und bei Beiträgen zu Methoden, die in zahlreichen verschiedenen Forschungsfeldern zum Einsatz kommen können. Zudem muss ein entsprechend relevanter Beitrag bereits etwas älter sein, um mit der Zeit viele Zitationen zu sammeln.
  • Wie lässt sich der Forschungsprozess in der quantitativen Sozialforschung beschreiben?
    Worin unterscheidet er sich vom qualitativen Forschungsprozess?

    Lösung

    Der quantitative Forschungsprozess lässt sich in neun Phasen einteilen, die sequenziell abgearbeitet werden:
    1. Wahl von Forschungsthema und Forschungsproblem (inklusive Forschungsfragen bzw. Forschungshypothesen)
    2. Erarbeitung von Forschungsstand und theoretischem Hintergrund
    3. Festlegung des Untersuchungsdesigns
    4. Operationalisierung aller interessierenden Merkmale der Erfahrungswirklichkeit
    5. Stichprobenziehung
    6. Datenerhebung
    7. Datenaufbereitung
    8. Datenanalyse
    9. Ergebnispräsentation
    Besonders arbeitsaufwändig sind bei quantitativen Studien in der Regel die Theoriearbeit (Phase 2) sowie die Operationalisierung (Phase 4).
    Im Unterschied zum sequenziell strukturierten quantitativen Forschungsprozess ist der qualitative Forschungsprozess zumindest teilweise zirkulär organisiert, d. h. Zwischenergebnisse der Datenauswertung steuern die weitere Stichprobenziehung oder zumindest verfeinern sie schrittweise das Analyseinstrumentarium der weiteren Datenauswertung. Zudem liegt die Hauptarbeit im qualitativen Forschungsprozess meist in der Phase der Datenanalyse und der damit einhergehenden Phase der Hypothesen- und Theoriebildung – also zeitlich nach der Datenerhebung und nicht wie im quantitativen Forschungsprozess vor der Datenerhebung.
  • Welche Aussagen stimmen?
    a) Fragen nach dem Wesen wissenschaftlicher Untersuchungsgegenstände fallen in den Bereich der Ontologie.
    b) Die Erkennbarkeit der Wirklichkeit ist eine epistemologische Frage.
    c) Die Axiologie ist kein Teilbereich der Wissenschaftstheorie.
    d) Die Wissenschaftstheorie ist normativ ausgerichtet.
    e) Wenn die Wissenschaftspraxis von den Vorgaben der Wissenschaftstheorie abweicht, muss die Wissenschaftstheorie verworfen werden.

    Lösung

    Richtig sind: a, b, d
  • Erläutern Sie das Falsifikationsprinzip des Kritischen Rationalismus!

    Lösung

    Gemäß Kritischem Rationalismus entsteht Erkenntnisfortschritt dadurch, dass falsche Theorien durch Falsifikation (Widerlegung) ausgesondert werden. Dazu werden aus der zu prüfenden Theorie empirisch prüfbare Hypothesen abgeleitet und mit aussagekräftigen Daten konfrontiert.Die Entscheidung über die Hypothese wird im quantitativen Paradigma in der Regel anhand eines statistischen Signifikanztests (oder eines anderen inferenzstatistischen Verfahrens) getroffen. Der Rückschluss vom Ergebnis des Hypothesentests (Widerlegung oder vorläufige Bestätigung der Forschungshypothese) auf die Theorie und deren Bewährungsgrad bedarf einer Diskussion der Hilfs- und Instrumententheorien der Hypothesenprüfung. Auch die heuristische Erklärungskraft einer Theorie im Vergleich mit konkurrierenden inhaltlichen Theorien muss abgewogen werden, bevor eine falsifizierte Hypothese zum Anlass genommen wird, die zugrunde liegende Theorie zu verwerfen (raffinierter methodologischer Falsifikationismus).
  • Welche Rolle spielt die Wissenschaftsgemeinschaft im Kritischen Rationalismus, vor allem vor dem Hintergrund, dass sowohl ein naiver Realismus als auch ein naiver Falsifikationismus erkenntnistheoretisch abgelehnt werden?

    Lösung

    Laut Kritischem Rationalismus soll die Wissenschaft sich der Wahrheitssuche widmen, indem sie Theorien bzw. Hypothesen mit Daten konfrontiert, um a) falsche Theorien auszusondern und um b) Theorien, die offenbar mit der empirischen Erfahrungswirklichkeit vereinbar sind, vorläufig beizubehalten. Dabei wird jedoch weder ein naiver Realismus, demgemäß Forschende direkt die Wirklichkeit erkennen, noch ein naiver Falsifikationismus, dem gemäß theoriekonträre Daten direkt die „Falschheit“ einer Theorie beweisen können, zugrunde gelegt. Vielmehr wird vor dem Hintergrund eines kritischen Realismus und eines raffinierten methodologischen Falsifikationismus ausdrücklich darauf hingewiesen, dass sowohl die Daten selbst theoriegeladen sind als auch die Bewertung von Theorien und Hypothesen im Lichte von Daten von Interpretationen abhängt. Als Regulativ fungiert die Wissenschaftsgemeinschaft (Scientific Community), vor der die mit dem jeweiligen methodischen Vorgehen verbundenen Hilfs- und Instrumententheorien einer Studie offengelegt, begründet und Theoriebewertungen im Vergleich zu konkurrierenden Theorien verteidigt werden müssen. Wissenschaftliche Forschung wird im quantitativen Paradigma als aktiver und kritisch reflektierter Produktionsprozess von Theorien und Daten durch die Wissenschaftsgemeinschaft und nicht als positivistisches Auffinden einer objektiven Wahrheit verstanden.
  • Welche Kriterien werden an Theorien gemäß Kritischem Rationalismus angelegt?

    Lösung

    1. Innere Widerspruchsfreiheit
    2. Äußere Widerspruchsfreiheit
    3. Falsifizierbarkeit
    4. Möglichst hoher Grad an Falsifizierbarkeit
    5. Möglichst große heuristische Erklärungskraft
    6. Größtmögliche Sparsamkeit
    7. Möglichst hoher empirischer Bewährungsgrad
  • Welche Positionen vertritt der Kritische Rationalismus?
    a) Wissenschaftliche Erkenntnis entsteht durch die Sammlung von Daten über die Realität.
    b) Wenn Daten einer wissenschaftlichen Theorie widersprechen, muss diese verworfen werden.
    c) Forschende sollten gegenüber sozialen Sachverhalten eine wertfreie, neutrale Haltung einnehmen.
    d) Für den wissenschaftlichen Erkenntnisfortschritt sind die statistisch signifikanten Ergebnisse ausschlaggebend.
    e) Eine wissenschaftliche Theorie sollte die Komplexität der Wirklichkeit abbilden und möglichst alle Ursachenfaktoren eines Phänomens einbeziehen.

    Lösung

    Richtig: – (keine)
  • Nennen Sie die fünf zentralen wissenschaftstheoretischen Grundprinzipien qualitativer Sozialforschung!

    Lösung

    1. Ganzheitliche und rekonstruktive Untersuchung lebensweltlicher Phänomene
    2. Reflektierte theoretische Offenheit zwecks Bildung neuer Theorien
    3. Zirkularität und Flexibilität des Forschungsprozesses zwecks Annäherung an den Gegenstand
    4. Forschung als Kommunikation und Kooperation zwischen Forschenden und Beforschten
    5. Selbstreflexion der Subjektivität und Perspektivität der Forschenden
  • Erläutern Sie das Prinzip der Zirkularität und Flexibilität des methodischen Vorgehens im qualitativen Paradigma! Wo stößt es an Grenzen?

    Lösung

    Qualitative Forschung zielt oft darauf ab, den jeweiligen Forschungsgegenstand möglichst genau aus Sicht der Beteiligten zu rekonstruieren, also ihre Sicht- und Handlungsweisen zu verstehen. Der Prozess des Fremdverstehens wird als schrittweise Annäherung konzeptualisiert, am Anfang bestehende Wissenslücken, Missverständnisse oder Vorurteile der Forschenden werden im Zuge des Forschungsprozesses idealerweise durch wachsendes Verständnis ersetzt. Dies soll durch reflektierte theoretische Offenheit, vor allem aber auch durch methodische Flexibilität und Zirkularität erreicht werden: Neue Erkenntnisse sollen im Verlauf eines Forschungsprojektes direkt das weitere methodische Vorgehen verbessern (z.B. zielgerichtete Suche nach besonders aussagekräftigen Fällen, die noch in die Stichprobe aufzunehmen sind; Modifikation des Interview-Leitfadens; Überarbeitung der Codes für die Datenanalyse), so dass man sich spiralförmig in mehreren Zyklen dem Gegenstand annähert. Das Prinzip der Flexibilität stößt an Grenzen, wenn eine genaue Vorplanung des Forschungsprojekts erforderlich ist (z. B. präzise Zeit-, Finanz-, Personalplanung zur Beantragung von Drittmittel-Projekten oder fristgerechten Durchführung von Qualifikationsarbeiten).
  • Was trifft nicht zu?
    a) Im DN-Modell entspricht die abhängige Variable dem Explanandum.
    b) Durch Exhaustion steigt der Bewährungsgrad und sinkt der Informationsgehalt einer Theorie.
    c) Während im quantitativen Paradigma die theoretisch interessierenden Merkmale der Erfahrungswirklichkeit vor der Datenerhebung präzise zu definieren und zu operationalisieren sind, werden im qualitativen Paradigma die für das Verstehen der interessierenden Phänomene notwendigen theoretischen Konzepte erst im Zuge der Datenerhebung und Datenanalyse ausgearbeitet.
    d) In der qualitativen Forschung werden die subjektiven Sichtweisen der untersuchten Personen durch Kommunikation ergründet, in der quantitativen Forschung wird dagegen nur das Verhalten objektiv erfasst.
    e) Im qualitativen wie im quantitativen Paradigma wird die Forschungstätigkeit als aktiver Konstruktionsprozess verstanden.
    f) Die qualitative Sozialforschung konzentriert sich auf die Untersuchung lebensweltlicher Phänomene. Die quantitative Sozialforschung untersucht diese ebenfalls und analysiert
    darüber hinaus auch Sachverhalte auf der Mikroebene (z.B. Hirnaktivitäten auf der Basis physiologischer Messungen) sowie auf der Makroebene (z. B. Unterschiede in der Lebenserwartung unterschiedlicher Bevölkerungsgruppen im historischen Wandel oder interkulturellen Vergleich auf der Basis bevölkerungsstatistischer Erhebungen).

    Lösung

    Lösung: d
  • Welche Positionen werden hinsichtlich der wissenschaftstheoretischen Vereinbarkeit quantitativer und qualitativer Forschungsstrategien zu einer Mixed-Methods-Forschungsstrategie vertreten?

    Lösung

    1. Inkommensurabilitäts-These
    2. Aparadigmatischer Standpunkt
    3. Komplementaritäts-These
    4. Dialektischer Standpunkt
    5. Standpunkt eines neuen Mixed-Methods-Paradigmas
  • Welche Position(en) vertritt die philosophisch-pragmatische Wissenschaftstheorie?
    a) Anwendungswissen ist immer interessenbezogen, Grundlagenwissen dagegen nicht.
    b) Forschungsaktivitäten in den Sozialwissenschaften sollten sich gemäß pragmatischem Wissenschaftsverständnis bevorzugt der Lösung sozialer Probleme widmen, die von der Allgemeinheit als vordringlich angesehen werden.
    c) Gemäß transaktionalem Mensch-Umwelt-Verhältnis geht der Pragmatismus davon aus, dass sich das Erleben und Verhalten von Menschen am besten durch das Zusammenspiel objektiver sozialer Gesetzmäßigkeiten und subjektiver Sinnkonstruktionen beschreiben, erklären und vorhersagen lässt.
    d) Wissen im Allgemeinen und wissenschaftliche Erkenntnisse im Besonderen sind als Hilfsmittel zur praktischen Problemlösung zu betrachten.
    e) Wenn eine Theorie nützliche Beiträge zur Lösung praktischer Probleme liefert, ist sie als gültig anzuerkennen.

    Lösung

    Richtig sind: b, c, d, e
  • Grenzen Sie verschiedene Formen der Pseudowissenschaft voneinander ab.

    Lösung

    a) Unabsichtliche Pseudowissenschaft
    b) vorsätzliche Pseudowissenschaft
    c) ideologische Pseudowissenschaft
  • Nennen Sie vier Standards der Wissenschaftlichkeit und die zugehörigen Kriterien wissenschaftlicher Qualität!

    Lösung

    1. Wissenschaftliches Forschungsproblem und inhaltliche Relevanz
    2. wissenschaftlicher Forschungsprozess und methodische Strenge
    3. Wissenschafts- und Forschungsethik und ethische Strenge
    4. Dokumentation des Forschungsprojekts und Präsentationsqualität
  • Welche Aussagen stimmen?
    a) Eine zu geringe Stichprobengröße gefährdet die statistische Validität einer Studie.
    b) Durch eine repräsentative Stichprobenauswahl wird die interne Validität einer Studie gesteigert.
    c) Forschungsethische Qualitätskriterien sind vor allem bei der Datenerhebung und Ergebnispublikation zu beachten.
    d) In den meisten Phasen des empirisch-quantitativen Forschungsprozesses ist die methodische Strenge das zentrale Qualitätskriterium.
    e) Im quantitativen und qualitativen Paradigma werden hinsichtlich methodischer Strenge dieselben Gütekriterien angelegt.

    Lösung

    Richtig sind: a, c und d.
  • Welche Formen der Validität werden in der quantitativen Forschung in der Campbell-Tradition unterschieden und auf welche Phasen des Forschungsprozesses bzw. auf welche Aspekte einer Studie beziehen sie sich hauptsächlich?

    Lösung

    1. Konstruktvalidität (Qualität der Theoriearbeit sowie der Operationalisierung)
    2. Interne Validität (Qualität des Untersuchungsdesigns und dessen Umsetzung)
    3. Externe Validität (Qualität des Untersuchungsdesigns und der Stichprobenziehung)
    4. Statistische Validität (Qualität der statistischen Datenanalyse sowie zur Sicherung der Teststärke auch die Qualität des Untersuchungsdesigns, der Operationalisierung und der Stichprobenziehung)
  • Welche Typen der Validität einer Studie werden durch geringe Reliabilität von Messinstrumenten gefährdet?

    Lösung

    Messinstrumente, die fehlerbehaftete Messwerte erzeugen (geringe Reliabilität), beschränken die Konstruktvalidität, die interne, die externe sowie die statistische Validität.
  • Welche Aussagen sind falsch?
    a) Randomisierte Kontrollgruppenstudien garantieren maximale externe Validität.
    b) Testübung bedroht vor allem die interne Validität.
    c) Zu kleine Stichproben bedrohen die statistische Validität.
    d) Die Konzeptspezifikation ist die theoretische Basis der Konstruktvalidität.
    e) Interne Validität ist die Voraussetzung für externe Validität.
    f) Statistische Validität ist die Voraussetzung für interne Validität.

    Lösung

    Falsch sind: a und e
  • Welche Gütekriterien müssen qualitative Studien gemäß Lincoln und Guba (1985) erfüllen und was sind die jeweiligen Pendants der Kriterien im quantitativen Ansatz?

    Lösung

    Vier Kriterien der Glaubwürdigkeit:
    1. Vertrauenswürdigkeit (interne Validität)
    2. Übertragbarkeit (externe Validität)
    3. Zuverlässigkeit (Reliabilität)
    4. Bestätigbarkeit (Objektivität)
  • Was ist gemäß den Kernkriterien zur Beurteilung qualitativer Forschung nach Steinke (1999) unter den Kriterien „Indikation“ und „Limitation“ zu verstehen?

    Lösung

    Eine qualitative Studie erfüllt das Kriterium der Indikation, wenn mit Blick auf das konkrete Forschungsproblem sowohl die Wahl eines qualitativen Forschungsansatzes als auch die einzelnen Methodenentscheidungen gut begründet sind. Die Studie erfüllt das Kriterium der Limitation, wenn die Verallgemeinerbarkeit der Ergebnisse bzw. die Grenzen der Verallgemeinerbarkeit ausdrücklich diskutiert und ggf. auch untersucht werden oder zumindest die Merkmale der untersuchten Personen und Kontexte so genau beschrieben werden, dass die Übertragbarkeit auf konkrete andere Personen und Kontexte einschätzbar ist.
  • Was stimmt?
    a) Aufgrund des wissenschaftstheoretischen Hintergrundes qualitativer Studien werden intersubjektiv nachvollziehbare Gütekriterien generell abgelehnt.
    b) Es existieren nur sehr wenige Kriterienkataloge zur Beurteilung qualitativer Studien.
    c) Nur wenn jedes einzelne Kriterium aus einem Kriterienkatalog qualitativer Gütekriterien erfüllt ist, handelt es sich um eine hochwertige qualitative Studie.
    d) Aufgrund des Prinzips der Offenheit spielt methodische Strenge als Qualitätskriterium in der qualitativen Forschung eine untergeordnete Rolle.
    e) Das Kriterium der intersubjektiven Nachvollziehbarkeit gilt nur im qualitativen Forschungsansatz, nicht im quantitativen.
    f) Das Kriterium der reflektierten Subjektivität ist spezifisch für qualitative Forschung.

    Lösung

    Zutreffend ist f.
  • Was versteht man im Kontext der Mixed-Methods-Forschung unter Inferenzqualität und in welche Unterkriterien teilt sie sich auf?

    Lösung

    Die Inferenzqualität bezeichnet den Grad der Tragfähigkeit der – ggf. kausal interpretierbaren – Ergebnisse einer Mixed-Methods Studie. Sie entspricht dem Gütekriterium der internen Validität in der quantitativen Forschung bzw. dem Kriterium der Vertrauenswürdigkeit in der qualitativen Forschung (gemäß dem Ansatz von Guba & Lincoln, 1985). Hohe Inferenzqualität erfordert hohe Mixed-Methods-Designqualität (d. h. angemessene Verknüpfung qualitativer und quantitativer Teilstudien/Forschungsphasen im Mixed-Methods-Design) sowie hohe Mixed-Methods-Interpretationsqualität (überzeugende integrative Interpretation qualitativer und quantitativer Einzelergebnisse).
  • Wie lassen sich Forschungsethik und Wissenschaftsethik voneinander abgrenzen?

    Lösung

    Die Forschungsethik konzentriert sich auf den Forschungsprozess im engeren Sinne, insbesondere den ethisch verantwortungsvollen Umgang der Forschenden mit den Untersuchungsteilnehmenden. Demgegenüber befasst sich die Wissenschaftsethik mit ihren Regeln guter wissenschaftlicher Praxis vor allem mit dem redlichen Zustandekommen von wissenschaftlichen Befunden, mit ihrer Interpretation, Darstellung und Publikation.
  • Welche Formen der Täuschung von Untersuchungspersonen im Rahmen von empirischen Studien werden differenziert und unter welchen Umständen sind sie ethisch legitim?

    Lösung

    1. Man unterscheidet bei Täuschungsstudien die aktive und passive Täuschung der Untersuchungspersonen.
    2. Täuschungsstudien sind nur ethisch vertretbar, wenn sie einen hohen Nutzen im Sinne wichtigen Erkenntnisgewinns haben, geringen Schaden im Sinne von Beeinträchtigung der Untersuchungsteilnehmenden verursachen und wenn methodische Alternativlosigkeit vorliegt.
  • Was versteht man unter informierter Einwilligung und wann ist sie notwendig?

    Lösung

    1. Informierte Einwilligung in der Forschung meint die gründliche Aufklärung der Untersuchungsteilnehmenden über die Studie und auf dieser Basis deren ausdrückliche mündliche oder schriftliche Einwilligung zur Teilnahme.
    2. Informierte Einwilligung ist notwendig bei wissenschaftlichen Studien, die mehr als minimale Risiken für die Teilnehmenden bergen.
  • Welche Beiträge zu einer wissenschaftlichen Publikation qualifizieren gemäß guter wissenschaftlicher Praxis in der Regel für die Mitautorschaft?
    a. Die extrem zeitaufwändige Transkription aller Interviews,
    b. die umfassende Analyse der Daten samt Ergebnisinterpretation,
    c. die Akquise der Drittmittel für das betreffende Forschungsprojekt und/oder
    d. die Idee zu Studienthema und Untersuchungsdesign sowie die Überarbeitung des Manuskripts.

    Lösung

    b, d
  • Welche Art von Plagiaten lässt sich durch Software automatisch entdecken?

    Lösung

    Mit Plagiatserkennungs-Software lassen sich am ehesten direkte Copy-Paste-Plagiate aus gut zugänglichen, digitalen Quellen aufdecken.
  • Welche zwei Varianten der Wissenschaftsfälschung werden unterschieden?

    Lösung

    1. Wissenschaftsfälschung im Sinne einer Manipulation empirischer Daten zur Erzeugung eines Wunschergebnisses: „data falsification“.
    2. Wissenschaftsfälschung im Sinne einer Erfindung von Daten: „data fabrication“.
  • Im Rahmen einer empirischen Studie werden Fokusgruppen-Diskussionen durchgeführt und auf Video aufgezeichnet. Welches Risiko birgt diese Studie für die Teilnehmenden und warum:
    a. Kein Risiko,
    b. minimales Risiko oder
    c. größer als minimales Risiko.
    Was folgt aus der Risikobewertung für den ethischen Umgang mit den Fokusgruppen-Teilnehmenden?

    Lösung

    Die Teilnahme an einer Fokusgruppen-Diskussion birgt ein „größer als minimales Risiko“ (richtig: c), da Fokusgruppen aufgezeichnet werden und es sich bei den Audio-/Videoaufzeichnungen um identifizierbares Datenmaterial handelt. Gefordert ist deswegen informierte Einwilligung der Teilnehmenden: Sie müssen über die Zielsetzung der Studie und den Umgang mit den Aufzeichnungen detailliert aufgeklärt werden und sich mit diesen Konditionen ausdrücklich – in der Regel schriftlich – einverstanden erklären.
  • Welche Ethikrichtlinien sind für die psychologische Forschung a) im deutschsprachigen Raum und b) international besonders relevant?

    Lösung

    a) Im deutschsprachigen Raum sind für die Psychologie die Ethikrichtlinien von DGPs und SGP einschlägig.
    b) Im internationalen Raum sind für die Psychologie die Ethikrichtlinien von APA und IUPsyS einschlägig.
  • Nennen Sie drei Datenerhebungsmethoden, die als risikolose Forschung einzustufen sind und somit in der Regel keine formale informierte Einwilligung erfordern.

    Lösung

    Risikolose Datenerhebungsmethoden, die in der Regel keine informierte Einwilligung verlangen:
    1. Beobachtung an öffentlichen Orten
    2. Dokumentenanalyse öffentlicher Dokumente
    3. Anonyme schriftliche Befragung
  • Im Rahmen eines Experimentes soll der Einfluss von Stimmungen auf die Gedächtnisleistung untersucht werden. Die Probanden werden zufällig in drei Gruppen eingeteilt, die sich unter dem Vorwand der Überbrückung von Wartezeit jeweils entweder einen lustigen, neutralen oder traurigen Filmclip anschauen, um positive, neutrale oder negative Stimmung zu
    erzeugen. Wie ist mit dieser Situation aus forschungsethischer Sicht umzugehen?
    a. Die Probanden müssen vorher ihr Einverständnis zu der Stimmungsbeeinflussung erklären.
    b. Da Stimmungsänderungen im Alltag normal sind, handelt es sich um risikolose Forschung, bei der gar keine besonderen ethischen Vorkehrungen zu treffen sind.
    c. Das experimentelle Setting beinhaltet aktive Täuschung, so dass die Probanden am Ende des Versuchs über die wahre Zielsetzung der Studie aufzuklären sind.
    d. Den Probanden der neutralen und negativen Stimmungsbedingung sollte am Ende des Versuchs ebenfalls der lustige Filmclip gezeigt werden, damit sie in positiver Stimmung entlassen werden.

    Lösung

    c, d
  • Grenzen Sie Forschungsthema und Forschungsproblem voneinander ab!

    Lösung

    Das Forschungsthema beinhaltet die Nennung eines bestimmten Untersuchungsgegenstandes oder Sachverhaltes. Das allgemeine Forschungsthema wird durch Konkretisierung in ein spezifisches Forschungsproblem überführt. Die inhaltliche Eingrenzung des Gegenstandes, Bezüge zu früheren empirischen Studien, die Wahl von Theorie(n) und Methode(n) ermöglichen die Zuspitzung des Forschungsproblems.
  • Wann entscheidet man sich bei einer Studie für Forschungshypothesen und wann für Forschungsfragen?

    Lösung

    Forschungshypothesen, welche die Existenz, Richtung und Stärke von Effekten postulieren, sind nur zu formulieren, wenn sie sich eindeutig aus etablierten Theorien und/oder gesicherten empirischen Befunden ableiten lassen. Sie werden in der Regel mithilfe quantitativer Studien einer statistischen Überprüfung unterzogen. Forschungsfragen werden in Form von offenen W-Fragen aufgestellt, wenn gesicherte Vorkenntnisse fehlen und neue Hypothesen bzw. Theorien generiert werden sollen. Meist werden Forschungsfragen durch qualitative oder explorative quantitative Studien beantwortet.
  • Welche drei empirischen Studientypen lassen sich gemäß Erkenntnisinteresse unterscheiden?

    Lösung

    – Explorative (gegenstandserkundende) Studien untersuchen ein neues oder ungenügend erforschtes Themenfeld mithilfe qualitativer oder auch quantitativer Methoden. Zielsetzungen sind die Gegenstandsbeschreibung sowie die Hypothesen- bzw. Theoriebildung.
    – Explanative (hypothesenprüfende) Studien streben die empirische Prüfung von Hypothesen und Weiterentwicklung von Theorien mit quantitativen Methoden an.
    – Deskriptive (populationsbeschreibende) Studien widmen sich der Verbreitung und Ausprägung einzelner Merkmale in Grundgesamtheiten anhand repräsentativer Stichproben.
  • Welche Vor- und Nachteile hat es, ein Thema wissenschaftlich zu untersuchen, zu dem man einen starken persönlichen Bezug hat?

    Lösung

    Die Insiderperspektive kann Zugang zum Untersuchungsfeld erschließen und – z. B. durch persönliche Kontakte zu Szenemitgliedern – zu Datenerhebungen und Interpretationen verhelfen, die Außenstehenden nicht möglich sind. Allerdings kann durch persönliche Betroffenheit auch kritische Distanz zum Forschungsthema verloren gehen, was sich z. B. in mangelnder Reflexion subjektiver Überzeugungen oder zu starker emotionaler Involvierung niederschlagen kann.
  • Welche Inhalte sollte ein Exposé für eine wissenschaftliche Qualifikationsarbeit enthalten?

    Lösung

    Das Exposé benennt das Forschungsthema sowie das Forschungsproblemund ggf. erste konkrete Forschungshypothesen bzw. Forschungsfragen. Es führt in groben Zügen den Forschungsstand bzw. den theoretischen Hintergrund aus. Zudem sollte es das geplante methodische Vorgehen (Untersuchungsdesign, Stichprobe, Datenerhebungsmethode/n, Datenauswertungsmethode/n) beschreiben und damit auch Umfang und Anspruch der Arbeit abstecken. Ein vorläufiges Literaturverzeichnis mit deutsch- und englischsprachigen Quellen, ggf. ein Entwurf des Inhaltsverzeichnisses der Arbeit sowie ein wochengenauer Zeitplan sind beizufügen.
  • Was ist gemeint, wenn in einer Publikation zu lesen ist, dass eine bestimmte Methodenentscheidung aus „forschungsökonomischen“ oder „forschungspragmatischen“ Gründen getroffen wurde? Bitte erläutern Sie den Fachbegriff und geben Sie ein realistisches Beispiel!

    Lösung

    Forschungsökonomische bzw. forschungspragmatische Gründe beziehen sich auf den Aufwand, der mit einer empirischen Studie verbunden ist. Es kann sich um zeitlichen, finanziellen und/oder personellen Aufwand handeln. Der Aufwand muss sich dabei an den vorhandenen Ressourcen orientieren und auch in vernünftigem Verhältnis zum Erkenntnisgewinn und seinem möglichen Nutzen stehen. Aus forschungsökonomischen Gründen kann man sich z. B. dafür entscheiden, eine einfache Gelegenheitsstichprobe anstelle einer sehr aufwändigen echten Zufallsstichprobe einzusetzen.
  • Welche sieben Probleme können die empirische Untersuchbarkeit eines Forschungsthemas einschränken? Bitte die Probleme nennen und kurz erläutern!

    Lösung

    Folgende sieben Probleme können die empirische Untersuchbarkeit eines Forschungsthemas einschränken:
    1. Ethische Grenzen: Die Forschungsethik verbietet alle Vorgehensweisen, durch die es für Untersuchungsteilnehmende zu Beeinträchtigungen kommen kann. Viele interessante Forschungsprobleme sind deswegen nicht oder nur eingeschränkt untersuchbar.
    2. Politisch brisante Themen: Insbesondere anwendungswissenschaftliche Studien, Auftrags- und Evaluationsforschung können für die jeweiligen Anspruchsgruppen (Stakeholder) große politische Brisanz besitzen und Einmischung, Protest etc. heraufbeschwören. Wissenschaftliche Studien mit Praxispartnern erfordern dementsprechend besonderes Geschick und Verantwortungsbewusstsein hinsichtlich der Integration der Ansprüche der Stakeholder, ohne dass dabei die Wissenschaftlichkeit geopfert wird. In manchen Fällen kann der politische Druck, bestimmte Resultate zu liefern, so stark sein, dass man besser auf eine Studie verzichten sollte.
    3. Aufwand für die Untersuchungsteilnehmenden: Methoden der Datenerhebung unterscheiden sich sehr stark im Zeitaufwand für die Untersuchungsteilnehmenden.Welcher Aufwand noch als akzeptabel empfunden wird und ab wann es verstärkt zu Teilnahmeverweigerung und Untersuchungsabbruch kommt, hängt stark von der jeweiligen Zielgruppe, vom Thema sowie von der Datenerhebungsmethode ab und sollte im Vorfeld eruiert werden.
    4. Aufwand für die Forschenden: Methoden der Datenerhebung und Datenauswertung unterscheiden sich beträchtlich im Zeitaufwand für die Forschenden. Zur Umsetzung einer Studie ist eine vorhergehende Schätzung des Zeitaufwandes notwendig. Oft muss der Umfang der Studie reduziert werden, damit der Aufwand beherrschbar bleibt.
    5. Schwer erreichbare Zielgruppen bzw. schwer zugängliche Materialien: Sollen schlecht erreichbare Zielgruppen oder schwer zugängliche Materialien untersucht werden, so ist mit großem zeitlichen und finanziellen Aufwand bei der Rekrutierung bzw. Beschaffung zu rechnen. Für den Fall der Erfolglosigkeit ist vorab eine Alternative zu planen.
    6. Abhängigkeit von Dritten bei der Datenerhebung: Als problematisch kann es bewertet werden, wenn die Möglichkeit zur Datenerhebung von der Kooperationsbereitschaft Dritter abhängt. Erfahrungsgemäß braucht man daher Zeitpuffer und einen „Plan B“.
    7. Verfügbarkeit technischer Hilfsmittel: Werden für die Studie spezielle Laborräume, Messgeräte etc. benötigt, müssen diese rechtzeitig reserviert werden. Auch müssen Funktionsfähigkeit und regelmäßige Wartung während des Untersuchungszeitraums gesichert sein.
  • Was kennzeichnet die praktische (inklusive gesamtgesellschaftliche) Relevanz eines Forschungsthemas und welche Grenzen ergeben sich bei der Bearbeitung?

    Lösung

    Praktisch bedeutsam sind Forschungsfragen, die sich auf die Gestaltung von Maßnahmen, das Fällen von Entscheidungen oder die Lösung von Problemen beziehen. Entsprechende Forschungsfragen spielen in der Anwendungs- und Auftragsforschung sowie der Evaluationsforschung eine zentrale Rolle. Praxisorientierte Arbeiten entstehen in der Regel in Kooperation mit Praxispartnern, was den Forschenden die Möglichkeit gibt, durch ihre Ergebnisse zu greifbaren Veränderungen beizutragen. Die Kooperation mit Auftraggebern und Praxispartnern kann jedoch zeitaufwändig und konfliktgeladen sein. Gesamtgesellschaftlich relevante Studien sollen durch ihren Erkenntnisgewinn dazu beitragen, größere gesellschaftlicher Probleme zu lösen. Themen aufzugreifen, die aktuell die breite Öffentlichkeit bewegen, ist im Sinne der gesellschaftlichen Verantwortung empirischer Sozialforschung sinnvoll und wünschenswert. Allerdings können diese Themen manchmal schnell „aus der Mode“ kommen. Zudem kann der selbstgestellte Anspruch, mit einer eigenen Studie zur Verbesserung der Gesellschaft beizutragen, überfordern.
  • „Einzelkinder sind sehr viel egoistischer als Geschwisterkinder.“ Charakterisieren Sie den Typ dieser Forschungshypothese mit einschlägigen Fachbegriffen und formulieren Sie die zum Hypothesenpaar gehörende Nullhypothese.

    Lösung

    Es handelt sich bei der Forschungshypothese um eine gerichtete Unterschiedshypothese, die einen großen Effekt postuliert. Die entsprechende Nullhypothese lautet: Einzelkinder sind nicht sehr viel egoistischer als Geschwisterkinder.
  • Welche Vor- und Nachteile hat es, ein bislang stark erforschtes oder sehr wenig erforschtes Thema zu bearbeiten?

    Lösung

    Bei einem stark erforschten Thema kann man sich einer etablierten Forschungstradition (hinsichtlich Theorien, Methoden) anschließen, allerdings muss dafür umfassende Literaturarbeit geleistet werden. Bei einem wenig erforschten Thema kann gegenstandsbeschreibend und theoriebildend Pionierarbeit geleistet werden. Forschende mit wenig Erfahrung können aber Gefahr laufen, sich mangels einschlägiger Vorläuferstudien zu „verrennen“.
  • Wie stellt man die Suchbegriffe für eine wissenschaftliche Literaturrecherche zusammen?

    Lösung

    Die Suchbegriffe lassen sich in primäre Suchbegriffe (Oberbegriffe, z. B. „Computerspiel“) sowie sekundäre Suchbegriffe (Unterbegriffe, z.B. „Ego-Shooter“) einteilen. Die Schlagwörter sollten mit ihrer englischen Übersetzung vertreten sein, um entsprechende Quellen einbeziehen zu können. Eine erste Liste kann vor der Recherche erstellt werden und wird im Verlauf der Suche verfeinert und ergänzt (u. a. mittels Thesaurus). Wichtig ist eine Dokumentation der Suchbegriffe, um sie später noch nachvollziehen zu können.
  • Auf welche Quellen stützt sich die Literaturrecherche bei wissenschaftlichen Arbeiten hauptsächlich?

    Lösung

    Hauptsächlich wird bei wissenschaftlichen Arbeiten auf andere wissenschaftliche Quellen zugegriffen, in den Human- und Sozialwissenschaften vorrangig auf Artikel in Fachzeitschriften sowie Fachbücher. Diese sind zu großen Teilen mittels wissenschaftlicher Literaturdatenbanken verfügbar. Sekundärquellen wie z. B. Presseartikel, Sachbücher, Lexika oder Websites sollten nur im Ausnahmefall zur Stützung einer wissenschaftlichen Arbeit herangezogen werden.
  • Wie funktioniert eine Suche nach wissenschaftlicher Literatur gemäß dem Schneeballsystem?

    Lösung

    Beim Schneeballverfahren sichtet man die Literaturverzeichnisse aktueller Zeitschriften- oder Fachbuchartikel und übernimmt dort aufgeführte Quellen in die eigene Literatursammlung. Beschafft man die so gefundenen Artikel, so kann man wiederum in deren Literaturverzeichnissen nach weiteren Quellen Ausschau halten.
  • Welche Typen von wissenschaftlichen Publikationen sind für die Literaturrecherche die nützlichsten?

    Lösung

    Die nützlichsten Quellen für die wissenschaftliche Literaturrecherche und -beschaffung sind folgende:
    1. Übersichtsartikel (Research Reviews), die den Forschungsstand zum Thema zusammenfassen
    2. Metaanalysen, die vorliegende statistische Befunde zu einem bestimmten Effekt aus dem Themenbereich statistisch aggregieren
    3. aktuelle Monografien und Sammelbände mit großer Nähe zur Forschungsfrage
    4. aktuelle theoretische und/oder empirische Zeitschriftenbeiträge mit großer Nähe zur Forschungsfrage, die teilweise gebündelt in Sonderheften zu finden sind
    5. Pionierstudien bzw. „Klassiker“, die wegbereitende Funktion in einemForschungsfeld haben
  • Welche Bezugswege gibt es für wissenschaftliche Volltexte?

    Lösung

    1. Wissenschaftliche Literaturdatenbanken
    2. Repositorien
    3. Internet
    4. Lokaler Bibliotheksbestand
    5. Elektronische Zeitschriftenbibliothek (EZB)
    6. Fernleihe
    7. Dokumentenlieferdienste
    8. Buchhandel
    9. Autorinnen und Autoren
  • Welche fünf Fragen sollten bei der Darstellung des Forschungsstandes beantwortet werden?

    Lösung

    1. Wie hat sich die Forschung zum Thema in den letzten Jahren bzw. Jahrzehnten entwickelt?
    2. Welche zentralen Forschungslinien und Befunde zum Thema sind auszumachen?
    3. Welche Anwendungsfelder hat die Forschung zu diesem Themengebiet?
    4. Wie ist der Forschungsstand zum Thema insgesamt zu beurteilen?
    5. Wie ordnet sich die eigene Studie in den Forschungsstand ein?
  • Wie können Theorien gemäß der Reichweite ihrer Erklärungen eingeordnet werden?

    Lösung

    Man unterscheidet drei Gruppen von Theorien gemäß der Reichweite ihrer Erklärungen:
    1. Theorien geringer Reichweite erklären konkrete Sachverhalte in ihrem Kontext (gegenstandsnahe Theorien).
    2. Theorien mittlerer Reichweite erklären eine umschriebene Menge von Sachverhalten über unterschiedliche Kontexte hinweg.
    3. Groß- bzw. Metatheorien sind übergeordnete Theorien, die auf eine Vielzahl von Sachverhalten in unterschiedlichen Kontexten anwendbar sind.
  • Welches Ziel verfolgt die grafische Darstellung von Theorien?

    Lösung

    Grafische Darstellungen von Theorien sollen dabei helfen, die Struktur ihrer Aussagen sichtbar und vergleichbar zu machen sowie Inkonsistenzen und Lücken aufzudecken.
  • Welche Computersimulationen werden in der Theorieentwicklung unterschieden und welche Ziele verfolgen sie?

    Lösung

    Eine Computersimulation ist ein lauffähiges Programm, das die von einer Theorie postulierten Prozesse simuliert. Dabei werden quantitative und qualitative Computermodelle unterschieden. Quantitative Computermodelle basieren auf einem System mathematischer Gleichungen und haben das Ziel, für unterschiedliche Anfangssituationen die entsprechenden, theoriekonformen Konsequenzen in Form von Parameterschätzungen zu berechnen. Sie können zur Theorieprüfung und Prognose verwendet werden. Bei qualitativen Computermodellen geht es nicht um korrekte Parameterschätzungen, sondern darum, ob die von einer Theorie beschriebenen Phänomene oder Effekte überhaupt nachgestellt werden können.
  • Aus welchen unterschiedlichen Ausgangspunkten lassen sich Forschungsfragen und Forschungshypothesen ableiten?

    Lösung

    1. Ableitung von Forschungsfragen aus dem Forschungsstand.
    2. Ableitung von Forschungsfragen aus einer oder mehreren Theorien.
    3. Ableitung von Forschungsfragen und/oder Forschungshypothesen aus Alltagstheorien.
    4. Ableitung von Forschungshypothesen aus einer Theorie.
    5. Ableitung von Forschungshypothesen aus mehreren Theorien.
  • Kennzeichnen Sie Labor- und Feldstudie hinsichtlich ihrer Validität!

    Lösung

    Die Laborstudie hat eine höhere interne und geringere externe Validität, die Feldstudie eine höhere externe und geringere interne Validität.
  • Grenzen Sie nicht-experimentelle, quasi-experimentelle und experimentelle Designs voneinander ab!

    Lösung

    Bei experimentellen Designs werden mindestens eine Experimental- und eine Kontrollgruppe durch Randomisierung gebildet, unterschiedlich behandelt (experimentelle Manipulation) und hinsichtlich der abhängigen Variable(n) miteinander verglichen. Bei einem quasi-experimentellen Design werden vorgefundene bzw. nicht-randomisiert gebildete Gruppen unterschiedlich behandelt und miteinander verglichen. Bei einer nichtexperimentellen Studie werden vorgefundene Gruppen – ohne Behandlung – miteinander verglichen. Die interne Validität der experimentellen Studie ist am höchsten, die der nichtexperimentellen Studie am geringsten. Das experimentelle Design erlaubt die zuverlässigsten Aussagen über Kausalhypothesen.
  • Kennzeichnen Sie Studientypen nach der Anzahl der Untersuchungsteilnehmenden!

    Lösung

    1. Einzelfallstudien mit einer Untersuchungseinheit;
    2. Gruppenstudien mit mehreren Untersuchungseinheiten existieren in den Varianten
    a) Stichprobenuntersuchung oder
    b) Vollerhebung.
  • Was versteht man unter Replikationsstudien, wozu dienen sie und welche Varianten werden unterschieden?

    Lösung

    Replikationsstudien sind Wiederholungsstudien, in denen die Ergebnisse früherer Studien überprüft werden; entweder durch exakte Wiederholung des Ursprungsdesigns (direkte/exakte Replikationsstudie) oder durch dessen systematische Variation (systematische Replikationsstudie).
  • Was charakterisiert angewandte Forschung und welche Varianten gibt es?

    Lösung

    Im Unterschied zur Grundlagenforschung, die primär auf wissenschaftlichen Erkenntnisgewinn abzielt, geht es bei der Anwendungsforschung um praxisbezogene Fragestellungen. Man unterscheidet dabei unabhängige Studien von finanzierten Auftragsstudien.
  • Handelt es sich bei der Metaanalyse um eine theoretische Studie oder eine empirische Studie? Begründen Sie!

    Lösung

    Die Metaanalyse kann als theoretische Studie eingeordnet werden, weil sie als Gegenstand nicht Methoden (Methodenstudie) oder Datensätze (empirische Studie) untersucht, sondern sich auf Forschungsliteratur stützt. Sie kann aber auch als empirische Studie aufgefasst werden, weil sie Theorien, Methoden und Ergebnisse anderer Studien nicht zusammenfasst (theoretische Studie im Sinne eines narrativen Reviews), sondern die statistischen Befunde einschlägiger vorliegender Studien mit Methoden der statistischen Datenanalyse zu einem neuen empirischen Gesamtbefund zusammenfasst.
  • Was versteht man unter einem Mixed-Methods-Design?

    Lösung

    Eine sytstematische Kombination quantitativer und qualitativer Designs.
  • Worin unterscheiden sich Trendstudie und Panelstudie?

    Lösung

    Bei einer Trendstudie werden in zeitlichem Abstand unterschiedliche Stichproben mit demselben Instrument untersucht (wiederholte Querschnittstudien), dabei werden gesellschaftliche Trends deutlich. Bei Panelstudien wird in zeitlichem Abstand dieselbe Stichprobe mit demselben Instrument untersucht (Längsschnittstudie), dabei werden individuelle Veränderungen deutlich, allerdings sind diese mit Epochen- und Kohorteneffekten konfundiert.
  • Worin unterscheiden sich explorative, deskriptive und explanative Studien?

    Lösung

    In ihrem Erkenntnisinteresse: Explorative Studien dienen der Gegenstandserkundung und Theoriebildung. Deskriptive Studien dienen der Populationsbeschreibung, explanative Studien der Hypothesen- und Theorieprüfung.
  • Was versteht man unter Störvariablen und welche Typen von Störvariablen sind voneinander abzugrenzen?

    Lösung

    Im Kontext explanativer experimenteller und quasi-experimenteller Studien spricht man von Störvariablen oder konfundierenden Variablen als Variablen, die neben der/den eigentlich interessierenden unabhängigen Variablen ebenfalls die abhängige(n) Variable(n) beeinflussen. Störvariablen verhindern, dass die Effekte in den abhängigen Variablen eindeutig auf die unabhängigen Variablen zurückgeführt werden können. Man unterscheidet umwelt- bzw. untersuchungsbedingte und personengebundene Störvariablen.
  • Was versteht man unter Nominaldefinition und Nominalskala?

    Lösung

    – Bei einer Nominaldefinition wird der zu definierende Begriff (Definiendum) durch einen oder mehrere bereits bekannte Begriffe (Definiens) festgelegt. Voraussetzung für Nominaldefinitionen ist ein Bestand an anerkannten Begriffen, die als erklärt gelten und somit zur Präzisierung des zu definierenden Konzeptes verwendbar sind.
    – Eine Nominalskala bezeichnet das niedrigste Skalenniveau. Sie ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit gleicher Merkmalsausprägung gleiche Zahlen und Objekte mit verschiedener Merkmalsausprägung verschiedene Zahlen erhalten.
  • Was sind eine Ratingskala, eine Rangskala und eine psychometrische Skala?

    Lösung

    – Eine Ratingskala ist eine abgestufte Antwortskala (z.B. stimmt gar nicht – stimmt wenig – stimmt teils-teils – stimmt ziemlich – stimmt völlig).
    – Eine Rangskala bzw. Ordinalskala bezeichnet das zweitniedrigste Skalenniveau; sie ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit stärkerer Merkmalsausprägung jeweils auch größere Messwerte erhalten.
    – Eine psychometrische Skala ist ein standardisiertes Messinstrument, das aus mehreren Items besteht und ein latentes Merkmal misst, wobei die Testgütekriterien des Item-Satzes (Objektivität, Reliabilität, Validität, Dimensionalität, Skalierbarkeit etc.) bekannt und mindestens zufriedenstellend sind.
  • Wie wird in der qualitativen und quantitativen Forschung jeweils zwischen theoretischen Konstrukten einerseits und empirischen Daten andererseits eine Verknüpfung hergestellt?

    Lösung

    – In der qualitativen Forschung erfolgt die Bildung theoretischer Konstrukte primär induktiv („bottom-up“) aus Daten, die in nicht-strukturierter Weise erhoben wurden. Die theoretischen Konstrukte stellen Verdichtungen und Abstraktionen des qualitativen Datenmaterials dar.
    – In der quantitativen Forschung wird deduktiv („top-down“) anhand theoretischer Überlegungen und früherer Studien eine Konzeptspezifikation sowie eine Operationalisierung (Auswahl bzw. Konstruktion des Messinstrumentes) für das interessierende theoretische Konzept erarbeitet. Mithilfe dieses Messinstrumentes werden dann quantitative Daten zu dem betreffenden theoretischen Konzept erhoben.
  • Was ist bei der Messung soziodemografischer Variablen zu beachten?

    Lösung

    Konventionalität, Sparsamkeit, Diskriminierungsfreiheit, theoretische Reflexion
  • Charakterisieren Sie folgende Ratingskala: „stimmt gar nicht – stimmt wenig – stimmt teils-teils – stimmt ziemlich – stimmt völlig“.

    Lösung

    – Intensitätsskala
    – Unipolar
    – Fünf Stufen
    – Ungerade Stufenzahl (Mittelkategorie vorhanden)
    – Verbale Etiketten
  • Was unterscheidet die Operationalisierung von „Depression“ mittels Einzelindikator und eindimensionaler psychometrischer Skala?

    Lösung

    – Einzelindikator: Das Konstrukt Depression wird mit nur einer einzige Frage/Aussage plus Antwortformat sehr ökonomisch, aber auch relativ ungenau erfasst.
    – Eindimensionale psychometrische Skala: Das Konstrukt Depression wird mit einem Satz an inhaltsähnlichen Items erhoben, deren psychometrische Gütekriterien bekannt und ausreichend sind. Gegenüber dem Einzelindikator ist die Messgenauigkeit erhöht. Dafür steigen auch die Untersuchungsdauer und damit die Belastung für die Teilnehmenden sowie die Kosten für die Studie.
  • Eine Likert-Skala zur Messung der Studienmotivation enthält 12 Items, die auf 5-stufigen Ratingskalen (1 = stimmt gar nicht bis 5 = stimmt völlig) zu beantworten sind. In welchem Wertebereich bewegen sich Summen- und Durchschnittsscore der Skala?

    Lösung

    – Summenscore: 12–60
    – Durchschnittsscore: 1–5
  • Eine Untersuchungsperson hat auf der Thurstone-Skala zur Kontaktsituation in Wohnsiedlungen (Abschn. 8.6.3; › Menschliche Kontakte in Siedlungen) die Items 1, 2 und 4 bejaht und die anderen Items verneint.Welchen Skalenwert erhält die Person und wie ist dieser inhaltlich zu interpretieren?

    Lösung

    Der Skalenwert der Person ergibt sich bei einer Thurston-Skala aus der Summe der Skalenwerte der bejahten Items: (–2.0) + (–3.05) + (–0.53) = –5.58, d. h. nachbarschaftliche Kontakte sind bei dieser Befragungsperson laut Selbstauskunft kaum vorhanden.
  • Eine Untersuchungsperson hat auf der Guttman-Skala zur vorehelichen Permissivität (› Abschn. 8.6.2) das Item a bejaht und die anderen Items verneint. Welchen Skalenwert erhält die Person und wie ist dieser inhaltlich zu interpretieren?

    Lösung

    Der Skalenwert der Person ergibt sich bei einer Guttman-Skala als Summe der bejahten Items: hier also Skalenwert 1 für ein bejahtes Items, d. h. die sexuelle Freizügigkeit ist bei der Befragungsperson sehr gering ausgeprägt.
  • Auf welchem Skalenniveau sollten Daten erhoben werden? Was ist zu tun, wenn Daten in einem ungeeigneten Skalenniveau vorliegen?

    Lösung

    – Die Datenerherbung erfolgt normalerweise auf dem höchstmöglichen Skalenniveau, sofern die Untersuchungsteilnehmenden dadurch nicht überfordert werden und die Information im Rahmen der Studie sinnvoll nutzbar ist.
    – Daten auf zu geringem Skalenniveau können unter bestimmten Voraussetzungen mit speziellen statistischen Techniken auf ein höheres Skalenniveau transformiert werden (z. B. Ordinaldaten aus direkter Rangordnung lassen sich mittels „Law of Categorial Judgement“ und Ordinaldaten aus indirekter Rangordnung mittels „Law of Comparative Judgement“ jeweils in Intervalldaten überführen).
    – Daten auf zu hohem Skalenniveau können immer auf jedes beliebige niedrigere Skalenniveau heruntertransformiert werden, was allerdings mit Informationsverlust verbunden ist.
  • Was versteht man unter einer Vollerhebung und wann ist sie der Stichprobenziehung vorzuziehen?

    Lösung

    Unter einer Vollerhebung versteht man die Untersuchung aller Objekte der Zielpopulation. Vollerhebungen sind möglich, wenn es sich um überschaubare und gut erreichbare Populationen handelt. Sie sind notwendig, wenn eine kleine Population sehr heterogen ist und Stichproben das Gesamtbild verfehlen würden.
  • Erklären Sie die Unterschiede zwischen Ziel-, Auswahl- und Interferenzpopulation!

    Lösung

    Unter der Zielpopulation (angestrebte Grundgesamtheit) versteht man die Gesamtmenge aller Untersuchungseinheiten (z. B. Personen, Verhaltensweisen, Objekte), über die im Rahmen einer empirischen Studie Aussagen getroffen werden sollen. Die Auswahlpopulation meint dagegen die Gesamtheit aller Objekte, die sich im Auswahlrahmen befinden und somit prinzipiell eine Chance haben, in die Stichprobe zu gelangen. Angesichts von Stichprobenausfällen (d. h. Personen, die zur geplanten Stichprobe gehören, aber nicht erreichbar sind oder die Teilnahme verweigern) erlaubt eine konkrete Stichprobe meist keinen direkten Rückschluss auf die Auswahlpopulation, sondern nur auf die Inferenzpopulation, die Gesamtheit aller Objekte, aus der die Stichprobe tatsächlich stammt (also die Auswahlpopulation abzüglich der nicht-erreichbaren und nicht-teilnahmebereiten Personen).
  • In der Presse ist oft von „repräsentativen Studien“ die Rede. Warum ist diese Bezeichnung irreführend?

    Lösung

    Repräsentativität ist ein Qualitätsmerkmal, das sich nur auf das Verhältnis zwischen Stichprobe und Population bezieht, nicht auf eine gesamte Studie. Eine quantitative Studie, die mit einer repräsentativen Stichprobe operiert, kann dennoch wissenschaftlich wertlos sein, wenn z.B. beim Untersuchungsdesign, bei der Operationalisierung oder bei der Datenanalyse Fehler gemacht werden, welche die Validität der Studie gefährden.
  • Was versteht man unter einer „Theoretischen Stichprobe“ und wann wird sie eingesetzt?

    Lösung

    Die Theoretische Stichprobe („theoretical sample“) ist eine Auswahlmethode aus der Grounded-Theory-Methodologie, die in der qualitativen Forschung bei theoriebildenden Studien zum Einsatz kommt. Die Fallauswahl wird ganz bewusst so gesteuert, dass ein maximaler theoretischer Erkenntniswert resultiert. Dabei erfolgt die Fallauswahl schrittweise im Zuge der Datenerhebung und Datenauswertung: Anhand der bisherigen Ergebnisse der Studie wird jeweils entschieden, welche weiteren Fälle (Personen, Gruppen, Institutionen, Ereignisse) als nächstes in das Sample aufzunehmen sind. Stichprobenauswahl, Datenerhebung und Datenanalyse werden nicht linear, sondern mehrfach zirkulär abgearbeitet. Es können verschiedene und wechselnde Kriterien zur bewussten Auswahl von Fällen herangezogen werden. Wird durch weitere Fälle kein neuer Informationsgehalt für die Theoriebildung generiert, so ist die Stichprobenbildung abgeschlossen (theoretische Sättigung).
  • Wie ist die „einfache Zufallsstichprobe“ definiert?

    Lösung

    Man zieht eine einfache Zufallsstichprobe („simple random sample“), indem man aus einer möglichst vollständigen Liste aller N Objekte der Zielpopulation (Auswahlrahmen) nach einem „blinden“ statistischen Zufallsprinzip eine Anzahl n von Objekten auswählt, wobei die Auswahlwahrscheinlichkeiten aller Objekte gleich groß sein müssen.
  • Ist die Gelegenheitsstichprobe eine Zufallsstichprobe? Begründen Sie Ihre Antwort!

    Lösung

    Gelegenheitsstichproben werden oft fälschlich als „Zufallsstichproben“ bezeichnet. Die Gelegenheitsstichprobe basiert aber auf einer willkürlichen Auswahl von Fällen, die gerade verfügbar sind. Die Gelegenheitsstichprobe weist die niedrigste, die Zufallsstichprobe dagegen die höchste Stichprobenqualität im Sinne globaler Repräsentativität auf.
  • Was versteht man unter „probabilistischen Stichproben“, wozu werden sie eingesetzt und welche Arten von probabilistischen Stichproben sind zu unterscheiden?

    Lösung

    Probabilistische Stichproben basieren auf einem Auswahlrahmen, d. h. einer möglichst vollständigen Liste aller Objekte der Zielpopulation, und einem darauf angewendeten statistischen Zufallsverfahren. Sie sind aufwändig und teuer, aber für populationsbeschreibende quantitative Untersuchungen unerlässlich, in denen es auf globale Repräsentativität der Stichprobe ankommt. Es werden vier Arten von probabilistischen Stichproben unterschieden: die einfache Zufallsstichprobe, die geschichtete Zufallsstichprobe, die Klumpenstichprobe und die mehrstufige Zufallsstichprobe.
  • Worin unterscheidet sich die Klumpenstichprobe von der geschichteten Stichprobe?

    Lösung

    Bei einer Klumpenstichprobe wird eine Zufallsauswahl von natürlichen Gruppen (= Klumpen) von Untersuchungseinheiten gezogen (z. B. Schulklassen, Abteilungen), die vollständig untersucht werden. Bei einer geschichteten Stichprobe wird die Population gemäß den Ausprägungen mindestens einer Schichtungsvariable (z.B. Einkommen: unterdurchschnittliches, durchschnittliches, überdurchschnittliches Einkommen) in Teilpopulationen (= Schichten) eingeteilt, aus denen dann jeweils einfache Zufallstichproben gezogen werden.
  • In der Zeitung lesen Sie unter der Überschrift „Haschisch macht müde und faul“ folgende Meldung: „Wie eine amerikanische Repräsentativstudie zeigt, haben 70 % aller Haschischkonsumenten unterdurchschnittliche Schulleistungen. Gleichzeitig schlafen sie überdurchschnittlich lange. Diese Befunde belegen eindrücklich, wie gefährlich eine liberale Drogenpolitik ist.“ In dieser Nachricht sind 5 Fehler versteckt. Welche?

    Lösung

    Die Zeitungsmeldung enthält die folgenden Ungenauigkeiten und Fehler:
    1. Vom korrelativen Zusammenhang zwischen Müdigkeit und Schulleistung einerseits und Haschischkonsum andererseits kann nicht auf kausale Wirkungsrichtungen geschlossen werden (vielleicht motiviert Müdigkeit zum Haschischkonsum, oder es spielen noch ganz andere Faktoren eine Rolle).
    2. Es werden Aussagen über die Population aller Haschischkonsumenten gemacht. Diese Population ist unbekannt, so dass keine probabilistischen („repräsentativen“) Stichproben gezogen werden können. Statt von einer „Repräsentativstudie“ zu sprechen, wäre hier eine kurze Beschreibung des Auswahlverfahrens und der resultierenden Größe und Zusammensetzung der Stichprobe sinnvoller gewesen.
    3. Auf der Basis von Stichprobenergebnissen lassen sich Populationsparameter nur unter Unsicherheit schätzen. Die „70 %“-Angabe müsste also in irgendeiner Weise relativiert werden (etwa durch Angabe des Konfidenzintervalls).
    4. „Überdurchschnittliches“ Schlafen und „unterdurchschnittliche“ Leistungen – damit ist allein die Richtung von Unterschieden angesprochen. Die entscheidende Frage lautet nun, wie groß diese Effekte sind. „Überdurchschnittlich“ kann z. B. bedeuten „3 Minuten länger“ oder „4 Stunden länger“ – die Effektgröße sollte in der Darstellung konkretisiert werden.
    Aussagen über Effekte ohne Angabe der Effektgröße sind weitgehend informationslos.
    5. Die praktische Schlussfolgerung, eine „liberale Drogenpolitik“ sei „gefährlich“, steht mit dem Thema der Untersuchung in keinerlei Zusammenhang. Die Studie behandelt Merkmalsausprägungen bei Haschischkonsumenten und kann weder sagen, ob die Merkmalsausprägungen vom Haschischkonsum verursacht werden, noch ob eine „liberale Drogenpolitik“ zum Haschischkonsum führt (wie implizit angedeutet wird).
  • Nennen Sie Vor- und Nachteile probabilistischer Stichprobenverfahren.

    Lösung

    Probabilistische Stichprobenverfahren sind die beste Möglichkeit, um aus einer definierten Zielpopulation eine global repräsentative Stichprobe zu ziehen. Sie sind deswegen für populationsbeschreibende quantitative Studien meist unverzichtbar. Nachteilig ist, dass probabilistische Stichproben mit hohem Aufwand und hohen Kosten verbunden sind. Oft können sie auch gar nicht angewendet werden, weil für viele Zielpopulationen kein passender Auswahlrahmen (d. h. keine Liste aller oder fast aller Populationselemente) zur Verfügung steht.
  • Nennen Sie fünf Vorzüge der Beobachtung gegenüber der Befragung mit jeweils einem Beispiel.

    Lösung

    Fünf Vorzüge der Beobachtung gegenüber der Befragung:
    1. beobachtbar sind Personen, die nicht befragt werden können (z. B. Säuglinge);
    2. beobachtbar sind Phänomene, über die Personen keine genauen Selbstauskünfte geben können (z. B. Details der eigenen Mimik);
    3. beobachtbar sind Phänomene, über die Personen keine Auskunft geben wollen (z. B. normabweichende Verhaltensweisen);
    4. beobachtbar sind Phänomene im kontinuierlichen Zeitverlauf, während die Befragung summarische Aussagen erhebt (z. B. Schülerverhalten im Laufe einer ganzen Unterrichtsstunde)
    und
    5. beobachtet werden kann nonreaktiv, d. h. ohne direkten Eingriff in das beobachtete Geschehen, während die Befragung auf die aktive und bewusste Teilnahme der Befragten angewiesen ist und entsprechenden Verzerrungen unterliegt (z.B. Beobachtung des hinterlassenen Hausmülls).
  • Was ist unter Perspektivität, Selektivität und Konstruiertheit der Beobachtung zu verstehen?

    Lösung

    – Perspektivität der Beobachtung: Mit welchem Ziel, aus welcher Perspektive, von welchem Standpunkt aus wird beobachtet?
    – Selektivität der Beobachtung: Was geht in die Beobachtung ein, und was geht nicht ein?
    – Konstruktivität/Konstruiertheit der Beobachtung: Wie werden die Beobachtungen registriert, dokumentiert und interpretiert? Mit welchen Begriffen und Konzepten wird auf das beobachtete Geschehen Bezug genommen?
  • In welchem Zusammenhang fällt bei der qualitativen und qantitativen Beobachtung jeweils besonders viel Arbeit an?

    Lösung

    Die Beobachtungsmethode ist generell aufwändiger als die Datenerhebung per Befragung:
    – Besonderer Zeitaufwand bei der qualitativen Beobachtung: Dokumentation und qualitative Auswertung der nicht- oder teil-standardisierten Beobachtungsprotokolle.
    – Besonderer Zeitaufwand bei der quantitativen Beobachtung: Entwicklung und Überprüfung des standardisierten Beobachtungsinstrumentes
  • Wie überprüfen Sie die Beobachterübereinstimmung wenn a) zwei Beobachter registrieren, ob Autofahrer angeschnallt sind oder nicht; b) zwei Beobachter auf Ratingskalen bewerten, wie intensiv Versuchspersonen flirten, c) zwei Beobachter protokollieren, ob Schulkinder im Unterricht unangemessenes Verhalten zeigen und dabei den Schweregrad des Verhaltens einstufen (leichtes, mittelschweres und schweres Fehlverhalten)?

    Lösung

    a) Prozentuale Übereinstimmung oder das zufallskorrigierte Cohens Kappa (nominalskaliertes Merkmal).
    b) Intra-Class-Correlation ICC (intervallskaliertes Merkmal).
    c) Das zufallskorrigierte Cohens Weighted Kappa oder Spearmans Rho bzw. bei kleinen Stichproben Kendalls Tau (ordinalskaliertes Merkmal).
  • Welche Varianten der Stichprobenziehung sind für quantitative Beobachtungsstudien relevant und wann werden sie eingesetzt?

    Lösung

    Bei einer quantitativen Beobachtung kann generell zwischen Zeit- und Ereignisstichprobe gewählt werden. Die Zeitstichprobe ist bei zeitlich ausgedehnten Verhaltensweisen (z. B. Flirtverhalten, Essrituale) indiziert. Dabei erfassen die Beobachter in regelmäßigen Abständen die aktuelle Ausprägung des Verhaltens. Die Ereignisstichprobe ist indiziert, wenn Einzelereignisse oder kurze Verhaltenssequenzen erfasst werden sollen (z. B. passierende Fahrzeuge).
  • Welche Aussage/n stimmen?
    a) Eine ethnografische Feldbeobachtung ist immer teilnehmend.
    b) Ohne die Zustimmung des Gatekeepers darf eine ethnografische Feldbeobachtung nicht stattfinden.
    c) Während einer ethnografischen Feldbeobachtung können Notizen, Fotos und Videos erstellt werden.
    d) Eine ethnografische Feldbeobachtung ist verdeckt durchzuführen.

    Lösung

    c
  • Was ist eine strukturierte Verhaltensbeobachtung, wie und wo wird sie durchgeführt?

    Lösung

    Bei der strukturierten Verhaltensbeobachtung als einer Variante der quantitativen Beobachtung geht es darum, zahlreiche und komplexe Merkmale und Verhaltensweisen in ihrer Häufigkeit, Dauer und/oder Intensität zu messen. Es kommen komplexe und hinsichtlich ihrer Gütekriterien überprüfte standardisierte Beobachtungsinstrumente zum Einsatz. Strukturierte Verhaltensbeobachtungen finden sowohl im Feld als auch im Labor statt.
  • Was ist eine nonreaktive Beobachtung, wie und wo kommt sie zum Einsatz?

    Lösung

    Die nonreaktive Beobachtung ist eine Spezialform der nonreaktiven Datenerhebung und bezieht sich auf die Erfassung von quantifizierbaren Verhaltensspuren mithilfe menschlicher Sinnesorgane und/oder technischer Sensoren zum Zeitpunkt (oder im Zeitraum) ihres Auftretens. Typischerweise findet sie im Feld statt und zwar entweder offline oder online.
  • In einem Schnellrestaurant wird von einem Sitzplatz in der Nähe des Verkaufstresens aus beobachtet, wie oft und von wem das Aktionsangebot der Woche bestellt wird und wie oft das Personal ausdrücklich auf das Angebot hinweist. Was trifft auf diese Studie zu?
    a) Es handelt sich um eine ethnografische Feldbeobachtung.
    b) Es handelt sich um eine nicht-teilnehmende Beobachtung.
    c) Es handelt sich um eine strukturierte Verhaltensbeobachtung.
    d) Es handelt sich um eine Zeitstichprobe.
    e) Es handelt sich um eine quantitative Beobachtung mit geringem Komplexitätsgrad.

    Lösung

    b, e
  • Was versteht man unter der Lost-Letter-Technik?

    Lösung

    Bei der Lost-Letter-Technik werden frankierte und vermeintlich an verschiedene Organisationen adressierte Briefe im öffentlichen Raumausgelegt, so dass sie den Eindruck erwecken, verloren worden zu sein. Der Rücklauf der Briefe zum Forschungsteam wird als Indikator für die Einstellung gegenüber den genannten Organisationen betrachtet.
  • Nennen Sie drei Techniken der unstrukturierten mündlichen Befragung!

    Lösung

    1. Narratives Interview
    2. Ethnografisches Feldinterview
    3. Methode des lauten Denkens
  • Was stimmt?
    a) Bei einer offenen Frage werden keine Antwortalternativen vorgegeben.
    b) Qualitative Interviews arbeiten fast ausschließlich mit offenen Fragen.
    c) In quantitativen Interviews werden vereinzelt auch offene Fragen eingesetzt.

    Lösung

    Alle richtig
  • Grenzen Sie die Datenerhebung mittels Interview von der Fragebogenmethode ab und zwar hinsichtlich ihrer zentralen Merkmale sowie ihrer Vor- und Nachteile!

    Lösung

    Beim Interview findet ein interaktiver Kontakt zwischen Interviewer/in und Befragungsperson statt und die Äußerungen erfolgen im Modus der Mündlichkeit. Demgegenüber wird ein Fragebogen selbstständig ausgefüllt und schriftlich beantwortet. Interviews sind zu bevorzugen, wenn man offene Fragen stellen möchte (diese werden eher mündlich beantwortet als schriftlich ausformuliert) und dabei individuell auf die Befragungsperson eingehen will (z. B. Rückfragen, Ergänzungsfragen) und/oder wenn man viele geschlossene Fragen vorlegen möchte (hier motiviert der Interviewer zur Fortsetzung der Befragung, während bei langen Fragebögen eher abgebrochen wird). Die Interview-Methode hat durch den Einsatz der Interviewenden den Nachteil deutlich größeren Aufwandes und höherer Kosten als das Austeilen und Einsammeln von Fragebögen. Zudem kann die Interaktion mit den Interviewenden bei heiklen Fragen, sozial ängstlichen Befragungspersonen etc. die Auskunftswilligkeit einschränken, so dass hier die schriftliche Befragung zu bevorzugen ist.
  • Worin bestehen die besonderen Herausforderungen bei Experteninterviews?

    Lösung

    Herausforderungen des Experteninterviews:
    a) Definition der Experten
    b) Erreichbarkeit der Experten
    c) Festlegung der Rolle des Interviewers als Laie oder Co-Experte
  • Was ist zu beachten, wenn ein standardisierter Interview-Fragebogen entwickelt wird, der sowohl in mündlichen als auch telefonischen Interviews zum Einsatz kommen soll?

    Lösung

    Herausforderungen einer Mixed-Mode-Interview-Studie, bei der derselbe Interview-Fragebogen mündlich und fernmündlich eingesetzt werden soll:
    a) Die Fragebogen-Länge muss für mündliche und fernmündliche Interviewformen adäquat sein (bei Telefon-Interviews Obergrenze von ca. 20 Minuten)
    b) Die Fragebogen-Items müssen bei mündlichen und fernmündlchen Interviewformen gleichermaßen anwendbar sein (Verzicht auf visuelle Vorlagen sowie auf zu viele verschiedene Antwortvorgaben pro Item, da diese telefonisch nicht funktionieren)
  • Welche Unterschiede und Gemeinsamkeiten haben das fokussierte Interview und die Fokusgruppen-Diskussion?

    Lösung

    Gemeinsamkeiten und Unterschiede zwischen fokussiertem Interview und Fokusgruppen-Diskussion:
    a) Bei beiden Verfahren werden die Befragungspersonen mit konkreten Anschauungsobjekten konfrontiert (z. B. Filmausschnitte, Produktproben), zu denen sie Auskunft geben sollen
    b) Bei beiden Verfahren können mehrere Personen gleichzeitig befragt werden
    c) Beim fokussierten Interview stehen die Reaktionen auf das fokussierte Objekt (meist Medienangebote wie z. B. Filmausschnitte) im Zentrum, während bei Fokusgruppen-Diskussionen oft auch neue Gestaltungsvorschläge erörtert werden (z. B. Verbesserung von Produkten)
    d) Während das fokussierte Interview als Einzel- oder Gruppeninterview stattfinden kann, ist eine Fokusgruppen-Diskussion nur mit mehreren Personen möglich.
  • Wie gehen Sie vor, um ein bevölkerungsrepräsentatives Sample von n = 500 Personen Ihres Bundeslandes telefonisch zu befragen (Interview-Fragebogen liegt vor)? Erläutern Sie Stichprobenziehung, Rekrutierung und Voraussetzungen der Interview-Durchführung!

    Lösung

    Um eine bevölkerungsrepräsentative Stichprobe von n = 500 Personen eines Bundeslandes für eine Interview-Studie zusammenzustellen, sind aufgrund der Struktur des Rufnummernsystems in Deutschland prinzipiell das Gabler-Häder-Design sowie das ADM-Design nutzbar. Da das ADM-Design nur ADM-Mitgliedern zur Verfügung steht, ist auf das Gabler-Häder-Design zurückzugreifen.
    a) Beschaffung einer repräsentativen Stichprobe von regionalen Telefonnummern von Privathaushalten gemäß Gabler-Häder-Design über die Abteilung SDM der GESIS (die angeforderte Zahl der Telefonnummern – die Brutto-Stichprobe – muss wegen der hohen Zahl der zu erwartenden Ausfälle ca. doppelt so groß sein wie die angezielte Netto-Stichprobe),
    b) Rekrutierung und Schulung der Interviewer,
    c) Kontaktierung aller Telefonnummern der Stichprobenliste über ein Telefonstudio,
    d) bei telefonisch erreichten Haushalten Zufallsauswahl der Befragungsperson durch die geschulten Interviewer anhand Schwedenschlüssel oder Last/Next-Birthday-Methode,
    e) erneute Kontaktversuche, wenn die Befragungsperson nicht direkt erreichbar ist,
    f) Durchführung der Interviews.
  • Wie gehen Sie hinsichtlich Stichprobenkonstruktion vor, um in einer bestimmten Stadt eine bevölkerungsrepräsentative persönlich-mündliche Interviewstudie mit n = 300 Personen durchzuführen?

    Lösung

    Um eine bevölkerungsrepräsentative Stichprobe von n = 300 Personen einer Stadt für eine Interview-Studie zusammenzustellen, sind prinzipiell die Verfahren der Register-Stichprobe, Random-Route und das ADM-Mastersample nutzbar. Da das ADM-Mastersample nur von ADM-Mitgliedern genutzt und das Random-Route-Verfahren sehr aufwändig ist, empfiehlt sich die Register-Stichprobe: Beim zuständigen Einwohnermeldeamt wird eine Zufallsauswahl von Adressen von Privatpersonen zusammen mit Basisinformationen (Geschlecht, Nationalität, akademischer Titel etc.) für wissenschaftliche Zwecke angefordert. Bei der Festlegung der angeforderten Stichprobengröße (Brutto-Stichprobe) werden zu erwartende Ausfälle (nicht erreichte Personen, Teilnahmeverweigerung) berücksichtigt, d. h. die angeforderte Brutto-Stichprobe ist entsprechend größer zu wählen (z. B. n = 600) als die angestrebte Netto- Stichprobe.
  • Welche Fehler beeinträchtigen gemäß Total-Survey-Error-Modell die Aussagekraft von quantitativen Interviewstudien?

    Lösung

    Das Total-Survey-Error-Modell benennt fünf Fehlerquellen bei quantitativen Umfragen:
    1. Coverage Error
    2. Nonresponse Error
    3. Sampling Error
    4. Measurement Error
    5. Postsurvey Error
  • Wie kann man Befragungsfehler durch die Interviewenden verhindern bzw. verringern?

    Lösung

    Verringerung bzw. Verhinderung von Interviewfehlern, die durch die Interviewenden verursacht werden:
    a) Auswahl geeigneter Interviewer
    b) Schulung der Interviewer
    c) Kontrolle der Interviewer
  • Welche Fehler enthält dieses Item? „Intensive Computernutzung beeinträchtigt Kinder nicht pauschal in ihrer Intelligenzentwicklung, vielmehr kommt es auf die Förderung ihrer Interessen im Elternhaus an.“ stimmt gar nicht – stimmt wenig – stimmt teils-teils – stimmt ziemlich – stimmt völlig

    Lösung

    Das Item enthält drei Fehler:
    – Lange und komplizierte Aussage
    – Vermischung mehrerer Inhalte
    – Doppelte Verneinung zwischen Aussage und Antwortskala
  • Nennen Sie zwei Vor- und zwei Nachteile selbstadministrierter Fragebögen im Vergleich zu intervieweradministrierten Befragungen!

    Lösung

    – Vorteile selbstadministrierter Fragebögen im Vergleich zum Interview: höherer Grad an Diskretion und höhere Effizienz
    – Nachteile selbstadministrierter Fragebögen im Vergleich zum Interview: höhere Anforderungen an die Befragten (Lese-/Schreibkompetenzen, Konzentration, Motivation) und geringere Gestaltbarkeit/Transparenz der Befragungs- bzw. Ausfüllsituation für die Forschenden
  • Nennen Sie wichtige Klassifikationskriterien zur Differenzierung wissenschaftlicher Fragebogenstudien!

    Lösung

    Sechs wichtige Kriterien zur Klassifikation wissenschaftlicher Fragebogenstudien:
    1. Grad der Standardisierung des Fragebogens (teilstandardisiert, vollstandardisiert)
    2. Modus der schriftlichen Befragung (z.B. Paper-Pencil-Fragebogen, elektronischer Fragebogen)
    3. Verbreitungsweg des Fragebogens (z.B. Austeilen-und-Einsammeln, postalisch)
    4. Art der Befragungspersonen (Laien oder Experten)
    5. Befragung zu Einzelpersonen oder zu Gruppen
    6. Spezielles Abfrageformat (z. B. Tagebuch-Methode; Delphi-Methode)
  • Was versteht man unter T-ACASI?

    Lösung

    Bei T-ACASI (Telephone Audio Computer Assisted Self-Interviewing) handelt es sich um eine selbstadmistrierte Telefon-Befragung, die über ein Computersystem gesteuert wird. Das System liest den Fragebogen vor, die Befragungperson antwortet per Tastendruck auf dem Telefon oder mündlich.
  • Grenzen Sie die strukturierte Tagebuch-Methode und das Ambulante Assessment voneinander ab!

    Lösung

    Die strukturierte Tagebuch-Methode und das Ambulante Assessment dienen beide der fortlaufenden Datenerfassung im Feld über längere Zeitspannen hinweg. Dabei fragt die Tagebuch-Methode Selbstauskünfte ab, während beim Ambulanten Assessment u. a. physiologische Messungen durchgeführt werden.
  • Mit welchen Maßnahmen lässt sich ein neu konstruierter standardisierter Fragebogen vor der Haupterhebung überprüfen und verbessern?

    Lösung

    Im Zuge der Konstruktion eines standardisierten Fragebogens, sollten drei Überprüfungen vorgenommen werden:
    1. qualitativer Pretest
    2. Fragebogen-Konferenz
    3. quantitativer Pretest
  • Nennen Sie fünf Typen von Funktionsitems! Welche davon sind Wegwerf-Fragen bzw. Wegwerf-Items?

    Lösung

    – Fünf Typen von Funktionsitems: 1) Eisbrecher-, 2) Puffer- und 3) Distraktor- 4) Filter- und 5) Kontroll-Items
    – davon Wegwerf-Items: Eisbrecher-, Puffer- und Distraktor-Items
  • Was versteht man unter projektiven Fragetechniken?

    Lösung

    Bei projektiven Fragetechniken werden u. a. uneindeutige Reizvorlagen (z. B. Fotos, Geschichten- oder Satzanfänge) präsentiert, die von den Befragungspersonen zu beschreiben oder zu ergänzen sind. Dabei projizieren die Befragten innerpsychische Vorgänge auf die Reizvorlage, so dass unbewusste Einstellungen oder Motive hervorgelockt werden können.
  • Differenzieren Sie zwischen Rücklaufquote, Rücklaufkurve und Rücklaufstatistik!

    Lösung

    – Rücklaufquote: Anteil der beantworteten von den ausgesendeten Fragebögen
    – Rücklaufkurve: Zeitverlauf des Eingangs der beantworteten Fragebögen
    – Rücklaufstatistik: sozialstatistische Merkmale der Respondenten im Vergleich zu Nicht-Respondenten
  • Grenzen Sie eine Mixed-Mode-Umfrage von einer Mixed-Methods-Studie ab!

    Lösung

    Mixed-Mode-Umfrage: Eine vollstrukturierte Umfrage, die mindestens zwei verschiedene Befragungs-Modi kombiniert, z.B. strukturierte Online-Befragung plus strukturierte postalische Befragung mit demselben Fragebogen. Mixed-Methods-Studie: Eine empirische Untersuchung, die mindestens eine quantitative und eine qualitative Datenerhebungsmethode systematisch kombiniert.
  • Nennen Sie die Haupt- und Nebengütekriterien psychometrischer Tests!

    Lösung

    – Drei Hauptgütekritierien: Objektivität, Reliabilität, Validität
    – Sieben Nebengütekriterien: Skalierung, Normierung, Testökonomie, Nützlichkeit, Zumutbarkeit, Nicht-Verfälschbarkeit, Testfairness
  • Welche Techniken zur Abschätzung der Reliabilität eines psychometrischen Tests werden verwendet?

    Lösung

    Vier Methoden der Reliabilitätsschätzung:
    – Retest-Reliabilität
    – Paralleltest-Reliabilität
    – Testhalbierungs-Reliabilität
    – Interne Konsistenz
  • Was versteht man unter einer Item-Charakteristik und wie wird sie dargestellt?

    Lösung

    Die Item-Charakteristik beschreibt den Zusammenhang zwischen den latenten Merkmalsausprägungen von Personen und den Wahrscheinlichkeiten bestimmter Itembeantwortungen. Sie wird im Rahmen der PTT bzw. IRT als Funktion oder Kurve dargestellt.
  • Bei der Korrelation eines Intelligenztests mit der aktuellen Schulleistung spricht man von: a) Vorhersagevalidität, b) Übereinstimmungsvalidität, c) Konstruktvalidität, d) Augenscheinvalidität?

    Lösung

    Richtig: b
  • Die Korrelation zwischen zwei Testhälften ist eine a) Unterschätzung, b) exakte Schätzung, c) Überschätzung der Reliabilität des Tests.

    Lösung

    Richtig: a (Unterschätzung durch verminderte Testlänge bei der Testhalbierung)
  • Welche Maßnahmen werden zur Kontrolle bzw. Verhinderung sozial erwünschten Antwortens in Persönlichkeitstests diskutiert und welche werden im Normalfall eingesetzt?

    Lösung

    – Normalfall: Zusicherung von Anonymität und Aufforderung zu ehrlichem Antworten
    – Spezialtechniken:
    1. Bogus-Pipeline-Methode
    2. Objektive Persönlichkeitstests
    3. Random-Response-Technik
    4. Ausbalancierte Antwortvorgaben
    5. Kontrollskalen
  • Sie planen eine Untersuchung zur sozialen Kompetenz von Polizisten. In der Literatur finden Sie zwei Kompetenz-Tests. Der eine hat eine Reliabilität von .76 und eine Kriteriumsvalidität von .48. Der andere weist eine Reliabilität von .41 und eine Kriteriumsvalidität von .75 auf. Welchen Test wählen Sie und warum?

    Lösung

    Den ersten Test, denn der zweite Test wird offensichtlich durch falsche Angaben gekennzeichnet: die Validität kann nicht größer sein als die Wurzel aus der Reliabilität
  • Wie ist die Item-Trennschärfe definiert und in welcher Relation steht sie zur Reliabilität?

    Lösung

    Die Itemtrennschärfe ist definiert als Korrelation eines Items mit dem Testwert. Items mit hoher Trennschärfe steigern die Reliabilität eines Tests, Items mit geringer Trennschärfe reduzieren die Reliabilität eines Tests und können im Zuge einer Itemanalyse identifiziert und ggf. aus der Skala herausgenommen werden.
  • Welche Klassifikationskriterien sind zur Einteilung psychometrischer Tests einschlägig und welche Gruppen von Tests werden durch sie gebildet?

    Lösung

    1. Art des gemessenen Merkmals: Persönlichkeitstests mit Unterformen versus Leistungstests mit Unterformen
    2. Testtheoretische Grundlagen: Tests auf der Basis der KTT versus Tests auf der Basis der PTT bzw. IRT
  • Wozu dient das 3PLModell?

    Lösung

    Das 3PL-Modell (Drei-Parameter-Logistische-Modell) gehört zur Gruppe der dichotomen logistischen Latent-Trait-Modelle: Ein kontinuierliches latentes Merkmal wird mit einem Test gemessen, der aus dichotomen Items besteht. Die Lösungswahrscheinlichkeit der Items wird berechnet auf der Basis einer logistischen Funktion, wobei die Ausprägung des latenten Merkmals (Personenparameter) sowie zusätzlich drei weitere Parameter eingehen: Itemschwierigkeits-, Itemtrennschärfe- und Rateparameter.
  • Warum werden physiologische Messungen auch als „objektive“ Datenerhebungsmethoden bezeichnet?

    Lösung

    Die physiologischen Messverfahren, bei denen die Daten apparativ erhoben werden, sind als objektive Messmethoden von Datenerhebungsmethoden abzugrenzen, die subjektive Selbstauskünfte erfassen (z. B. Interview, Fragebogen) und dadurch stärker von kognitiven und sozialen Verzerrungen und Verfälschungen betroffen sind.
  • Welche Messprobleme treten bei der Erhebung physiologischer Daten auf?

    Lösung

    1. Probleme mit physiologischen und technischen Artefakten
    2. Spezifitätsproblematik
    3. Ausgangwertproblematik
  • Grenzen Sie EEG und fMRT zur Messung von Hirnaktivität hinsichtlich physiologischer Grundlagen, Kosten und Informationsgehalt voneinander ab!

    Lösung

    1. EEG: elektrische Spannungsfelder generiert von Nervenzellverbünden des Gehirns; fMRT: Sauerstoffgehalt im Blut des Gehirns
    2. fMRT ist um ein Vielfaches teurer als EEG
    3. fMRt ermöglicht präzisere Lokalisation aktivierter Hirnareale sowie Untersuchung subkortikaler Prozesse
    4. das EEG hat eine bessere zeitliche Auflösung
  • In welchen Bereichen bewegt sich üblicherweise die Herzschlagfrequenz beim gesunden Erwachsenen im Ruhe- sowie im maximalen Belastungszustand?

    Lösung

    1. Herzfrequenz bei gesunden Erwachsenen im Ruhezustand: ca. 60–70 bps/min -1
    2. Herzfrequenz bei gesunden Erwachsenen im maximalen Belastungszustand ca. 150–180 bps/min -1
  • Warum wird bei EP im EEG mit der „Mittelungstechnik“ gearbeitet?

    Lösung

    Bei EP (evozierten Potenzialen) wird mit der Mittelungs- oder Summationstechnik gearbeitet, um die kleinen Amplituden der EP sichtbar zu machen und von den Spontan- EEG-Amplituden abzugrenzen.
  • Welche Parallele besteht zwischen Spontan-EEG und Ruhe-EKG?

    Lösung

    Sowohl beim Spontan-EEG als auch beim Ruhe-EKG handelt es sich um die Erfassung der tonischen/langfristigen – im Unterschied zur phasischen/ereignisbezogenen – Aktivität des betreffenden Organsystems Gehirn bzw. Herz-Kreislauf-System.
  • Wie lässt sich ein Ansteigen der Hautleitfähigkeit psychologisch interpretieren?

    Lösung

    Das Ansteigen der Hautleitfähigkeit kommt duch vermehrte Schweißdrüsenaktivität zustande und signalisiert wachsende Aktiviertheit des Organismus, vor allem im Kontext negativer Emotionen wie z. B. Angst.
  • Welche psychologischen Rückschlüsse lassen sich aus der Messung der Aktivität von Gesichtsmuskeln ziehen?

    Lösung

    Anhand der Messung der Gesichtsmuskelaktivität lassen sich vor allem Rückschlüsse auf Emotionen ziehen.
  • Wie werden Blickbewegungen gemessen und in welchen sozialwissenschaftlichen Forschungsfeldern spielen sie eine wichtige Rolle?

    Lösung

    1. Blickbewegungen werden meist mittels Blickbewegungskamera bzw. Eyetracker gemessen, das ist genauer als per Elektrookulografie.
    2. Die Messung von Blickbewegungen spielt u. a. in der sozialwissenschaftlichen Forschung zum Leseverhalten, zur visuellen Informationsverarbeitung, zu psychischen Erkrankungen wie z. B. Schizophrenie, zu Werbewirkungen sowie zu Bildschirm-/Web-Design und Usability eine Rolle. Auch in der Methodenforschung kommen Blickbewegungsmessungen zum Einsatz (z. B. grafische Gestaltung von Fragebogen Instrumenten).
  • Intensivierte Genitaldurchblutung ist ein spezifischer physiologischer Indikator sexueller Erregung des Organismus. In welcher Beziehung steht er zu subjektiv erlebter sexueller Erregung?

    Lösung

    Genau wie bei anderen physiologischen Indikatoren kann nicht direkt auf das subjektive Erleben geschlossen werden.
  • Wodurch kann die Qualität von vorgefundenen Dokumenten eingeschränkt sein?

    Lösung

    Mögliche Einschränkungen der Qualität bei vorgefundenen Dokumenten:
    1. unklare Authentizität
    2. zweifelhafte Glaubwürdigkeit
    3. begrenzte Repräsentativität
    4. beschränkte Interpretierbarkeit
  • Welche Arbeitsschritte gehören zur zusammenfassenden qualitativen Inhaltsanalyse nach Mayring?

    Lösung

    Vier Arbeitsschritte der zusammenfassenden qualitativen Inhaltsanalyse:
    1. Paraphrasierung
    2. Generalisierung auf das Abstraktionsniveau
    3. Erste Reduktion
    4. Zweite Reduktion
  • Auf welche Dokumententypen ist die Interpretative Phänomenologische Analyse (IPA) nicht anwendbar?

    Lösung

    Die IPA ist nicht anwendbar auf Dokumente, die keinen autobiografischen Charakter haben.
  • Wie erfolgt eine Kodierung gemäß Grounded-Theory-Methodologie?

    Lösung

    Gemäß GTM erfolgt die Kodierung nach der Methode des permanenten Vergleichs, dies beinhaltet Offenes Kodieren, Axiales Kodieren und Selektives Kodieren.
  • Welche Arbeitsschritte sind im Kontext der quantitativen Inhaltsanalyse notwendig für die Konstruktion eines standardisierten Kategoriensystems?

    Lösung

    Fünf Arbeitsschritte zur Konstruktion eines vollstandardisierten Kategoriensystems im Kontext der quantitativen Inhaltsanalyse:
    1. Deduktiver Entwurf des Kategoriensystems (sowie des Codebuchs) anhand von Forschungsliteratur/Theorien
    2. Induktive Überarbeitung des Kategoriensystems (sowie des Codebuchs) anhand der Inspektion von Dokumenten aus der Zielpopulation
    3. Pretest und Revision des Kategoriensystems (sowie des Codebuchs)
    4. Kodiererschulung
    5. Reliabilitätsanalyse des Kategoriensystems mit geschulten Kodierern und Finalisierung des Kategoriensystems (sowie des Codebuchs)
  • Die Darstellung von Wissenschaftlerinnen und Wissenschaftlern in den Edutainment-TV-Formaten „Galileo“, „Nano“ und „Wunder Welt Wissen“ soll untersucht werden.
    Nennen Sie
    a) eine sinnvolle ordinalskalierte formale Kategorie mit ihren Ausprägungen;
    b) eine sinnvolle kardinalskalierte formale Kategorie mit ihren Ausprägungen;
    c) eine sinnvolle nominalskalierte inhaltliche Kategorie mit ihren Ausprägungen und
    d) eine sinnvolle kardinalskalierte inhaltliche Kategorie mit ihren Ausprägungen!

    Lösung

    Kategorien für die quantitative Inhaltsanalyse von Wissensmagazinen im Fernsehen:
    a) Platzierung des Beitrags, in dem Wissenschaftler/innen auftreten, im Kontext der Sendung: 1., 2., 3., 4., 5. usw. Beitrag
    b) Dauer des Beitrags, in dem Wissenschaftler/innen auftreten: in Minuten und Sekunden
    c) Fachrichtung der Wissenschaftler/innen: Naturwissenschaften/Technikwissenschaften/Sozialwissenschaften/Geisteswissenschaften/Formalwissenschaften
    d) Rating der Darstellung fachlicher Kompetenz der Wissenschaftler/innen: sehr geringe – eher geringe – mittlere – eher hohe – sehr hohe fachliche Kompetenz (muss im Codebuch durch Erläuterung und Beispiele unterlegt werden)
  • Wozu dient Cohens Kappa im Rahmen der Dokumentenanalyse und was zeichnet diesen Koeffizienten aus?

    Lösung

    Cohens Kappa-Koeffizient ist ein statistischer Reliabilitäts-Koeffizient für den Grad der Intra- oder Inter-Kodierer-Übereinstimmung einer nominalen Kategorie im Rahmen einer quantitativen Inhaltsanalyse. Er bereinigt die Kodiererübereinstimmung um Zufallsübereinstimmungen.
  • Im Rahmen einer quantitativen Dokumentenanalyse werden 50 Zeitungsartikel von 2 Kodierern mit einem aus 30 dichotomen Kategorien bestehenden inhaltsanalytischen Kategoriensystem kodiert. Wie viele Reliabilitätskoeffizienten sind zur Beurteilung der Messgenauigkeit des Kategoriensystems zu bestimmen?

    Lösung

    Es sind 30 Reliabilitätskoeffizienten zu bestimmen (je ein Inter-Kodierer- Reliabilitätskoeffizient pro Kategorie)
  • Wozu dient im Kontext der quantitativen Inhaltsanalyse die Intra-Klassen-Korrelation (ICC)?

    Lösung

    Mittels der Intra-Klassen-Korrelation ICC wird bei einer quantitativen Inhaltsanalyse die Inter- oder Intra-Kodierer-Übereinstimmung für kardinalskalierte Kategorien bestimmt.
  • Was versteht man unter der Transitorik von Dokumenten und welche Bedeutung hat sie für die Online-Inhaltsanalyse?

    Lösung

    Transitorik meint die Flüchtigkeit von Online-Dokumenten, die fortwährend geändert werden können und nicht zentral archiviert werden. Die Transitorik erfordert im Kontext wissenschaftlicher Dokumentenanalysen eine umfangreiche Archivierung des auszuwertenden Rohdaten-Materials durch die Forschenden, wobei alle relevanten Merkmale der Online-Dokumente – z.B. Verlinkungen – zu erhalten sind.
  • Nennen Sie drei Funktionen, die eine Datenaufbereitung zwecks Steigerung der Datenqualität erfüllt!

    Lösung

    Drei Funktionen der Datenaufbereitung:
    1. Verhinderung von Schwierigkeiten bei der Datenanalyse (z. B. wenn die Bedeutung von Messwerten wegen mangelnder Kommentierung des Datensatzes später nicht mehr rekonstruierbar ist)
    2. Verhinderung fehlerhafter Ergebnisse der statistischen Analyse (z. B. verzerrte Mittelwerte, wenn sich im Datensatz unrealistische Ausreißerwerte oder Tippfehler befinden)
    3. Verhinderung von ethischen Problemen (z.B. Datenschutzverletzung durch mangelnde Anonymisierung)
  • Warum hat die Datenaufbereitung eine zunehmend größere Bedeutung in der sozialwissenschaftlichen Forschung?

    Lösung

    Vier Gründe für die wachsende Bedeutung systematischer Datenaufbereitung:
    1. Die computergestützte qualitative und quantitative Datenanalyse erfordert eine digitale Aufbereitung des Datenmaterials.
    2. Kooperative Forschungsprojekte erfordern eine sorgfältige Aufbereitung der Datensätze, damit Forschungspartner mit ihnen arbeiten können.
    3. Sekundäranalysen und Datenarchive verlangen ebenfalls eine systematische Aufbereitung des Datenmaterials, damit externe Forschungsteams mit ihnen arbeiten können.
    4. In der digitalisierten Gesellschaft fallen große Mengen an digitalen Daten an, die für die sozialwissenschaftliche Forschung nur durch entsprechende Datenaufbereitung erschlossen werden können.
  • Wie können Fehler in Interview-Transkripten entdeckt werden?

    Lösung

    Aufdeckung von Fehlern in Transkripten:
    1. Abgleich zwischen Transkript und Audio-/Videoaufzeichnung
    2. Abgleich von zwei Transkripten (erstellt von verschiedenen Personen) derselben Audio oder Videoaufzeichnung
    3. Kontrolle und ggf. Kommentierung des Transkripts durch die interviewte Person
  • Welche Probleme können bei der Anonymisierung von Transskripten auftreten?

    Lösung

    Mögliche Probleme bei der Anonymisierung von Transkripten:
    1. Hoher Arbeitsaufwand.
    2. Eliminierung identifizierender Details kann zu Informationsverlust führen.
    3. Manchmal ist schwer abschätzbar, welche Details zur Identifizierbarkeit führen könnten.
  • Wie sind Messwerte außerhalb des zulässigen Wertebereichs im Zuge der Datenaufbereitung zu verhindern bzw. zu erkennen?

    Lösung

    1. Verhinderung von Werten außerhalb des gültigen Wertebereichs: Manuelle Dateneingabe über Dateneingabemasken (die keine ungültigen Werte zulassen) anstatt direkt in die Datenmatrix; Datenerhebung mittels elektronischer Fragebögen oder Formulare (die keine ungültigen Werte zulassen) anstelle von Paper-Pencil-Instrumenten.
    2. Erkennung von Werten außerhalb des gültigen Wertebereichs: Systematische Betrachtung der Häufigkeitsverteilungen aller Variablen im Datensatz.
  • Nennen Sie die sechs Kriterien für gute Datenqualität bei quantitativen Daten!

    Lösung

    Kriterien guter Qualität bei quantitativen Daten:
    1. Vollständigkeit
    2. Einheitlichkeit
    3. Ausschluss von Dubletten
    4. Behandlung fehlender Werte
    5. Behandlung von Ausreißer-Werten
    6. Plausibilität der Antwortmuster
  • Was versteht man unter einem Masterdatensatz?

    Lösung

    Ein Masterdatensatz ist ein kommentierter/gelabelter, anonymisierter und bereinigter quantitativer Datensatz mit allen Variablen und Fällen im Ursprungszustand, der als Referenz archiviert wird. Die Datentransformation (z. B. Umkodierung und Zusammenfassung von Variablen) erfolgt anhand von Arbeitskopien.
  • Nennen Sie drei Möglichkeiten, fehlende Werte in einem quantitativen Datensatz zu behandeln!

    Lösung

    Drei Verfahren zu Behandlung von Missings:
    1. Ausschluss-Verfahren
    2. Imputationsbasierte Verfahren
    3. Modellbasierte Verfahren
  • Was soll durch eine Umpolung von Variablen erreicht werden?

    Lösung

    1. Durch Umpolung von Variablenausprägungen sollen hohe Werte starke Merkmalsausprägungen repräsentieren, um die intuitive Verständlichkeit der Ergebnisse zu erhöhen.
    2. Variablen, die gemeinsam ein Konstrukt erfassen, müssen alle gleichgerichtet gepolt sein, um sinnvoll interpretierbare Skalen- oder Indexwerte zu berechnen. Dies kann eine Umpolung erforderlich machen.
  • Erläutern Sie die Funktion von Gewichtungsverfahren und wann man sie einsetzt!

    Lösung

    Gewichtungsverfahren zielen auf die Anpassung der Stichprobenstruktur an die Populationszusammensetzung durch Hochgewichten unterrepräsentierter und Heruntergewichten überrepräsentierter Fälle ab. Anwendungsgebiet sind vor allem probabilistische Stichproben im Rahmen populationsbeschreibender Studien.
  • Nennen Sie vier Beispiele für Datenmaterial, das einer qualitativen Datenanalyse zu unterziehen ist!

    Lösung

    Qualitatives Datenmaterial:
    1. Notizen und Bilddokumente ethnografischer Feldbeobachtungen
    2. Transkripte von nicht- oder halbstrukturierten Interviews
    3. Freitextantworten aus nicht- oder halbstrukturierten Fragebögen
    4. vorgefundene Dokumente wie z.B. Zeitungsartikel, Online-Tagebücher
  • Worin unterscheiden sich spezialisierte und allgemeine Verfahren der qualitativen Datenanalyse?

    Lösung

    a) Spezialisierte Verfahren der qualitativen Datenanalyse sind auf bestimmte Arten von Datenmaterial und/oder bestimmte inhaltliche Fragestellungen zugeschnitten.
    b) Allgemeine Verfahren der qualitativen Datenanalyse sind relativ breit für unterschiedliches Datenmaterial und für unterschiedliche inhaltliche Fragestellungen einsetzbar.
  • Grenzen Sie die diskursive Analyse und die Kritische Diskursanalyse voneinander ab und nennen Sie eine Gemeinsamkeit!

    Lösung

    Die diskursive Analyse bzw. Gesprächs- oder Konversationsanalyse befasst sich mit der Auswertung von interpersonalen Gesprächen (z. B. Alltagsgespräche oder Fokusgruppendiskussionen). Die Kritische Diskursanalyse zielt auf die Analyse gesellschaftlicher Machtverhältnisse, die sich in öffentlichen Diskursen widerspiegeln und durch diese erzeugt werden, wobei als Analysematerial oft auf Beiträge aus den Massenmedien zurückgegriffen wird. Beide Methoden zählen zu den spezialisierten qualitativen Analysemethoden.
  • Grenzen Sie Tiefenhermeneutik und Objektive Hermeneutik als qualitative Analysemethoden voneinander ab und nennen Sie eine Gemeinsamkeit!

    Lösung

    Die Tiefenhermeneutik ist eine spezialisierte qualitative Auswertungsmethode, die kulturelle Artefakte (z. B. Märchen, Kinofilme) psychoanalytisch deutet. Die Objektive Hermeneutik ist eine allgemeine qualitative Auswertungsmethode, die Texte bzw. Protokolle hinsichtlich ihrer algorithmischen Erzeugungsregeln sequenzanalytisch auswertet. Beide Methoden sind im deutschsprachigen Raum beheimatet.
  • Schildern Sie die Arbeitsschritte bei der kategorienbildenden qualitativen Datenanalyse und benennen Sie die nicht-kategorienbildende Auswertungsstrategie!

    Lösung

    – Bei der kategorienbildenden Auswertung wird der Text 1.) in sinnvolle Texteinheiten (Analyseeinheiten) segmentiert, 2.) den Textstellen werden Codes zugeordnet und 3.) inhaltsähnliche Codes werden zu übergeordneten Kategorien zusammengefasst.
    – Neben der kategorienbildenden Auswertung existiert die sequenzanalytische Auswertung.
  • Welche Auswertungsebenen werden bei der qualitativen Datenanalyse unterschieden?

    Lösung

    Ebenen der qualitativen Datenanalyse:
    a) fallbezogene Auswertung
    b) fallübergreifende Auswertung
  • Nennen Sie drei Varianten der fallübergreifenden qualitativen Datenauswertung!

    Lösung

    Drei Varianten der fallübergreifenden qualitativen Datenanalyse:
    1. thematische Analyse
    2. Typenbildung
    3. Theoriebildung
  • Mit welchen Hilfsmitteln kann eine qualitative Datenanalyse erfolgen?

    Lösung

    Hilfsmittel für die qualitative Datenanalyse:
    a) manuelle Auswertung mit Farbstiften, Schere, Klebstoff etc. zum Unterstreichen, Ausschneiden, Gruppieren des Materials
    b) computergestützte Analyse mit Bürosoftware (v. a. Microsoft Word, Excel)
    c) computergestützte Analyse mit QDA-Software
  • Nennen Sie zwei QDA-Programme, die in Deutschland verbreitet sind!

    Lösung

    Atlas.ti und MaxQDA sind in Deutschland aktuell verbreitete QDA-Programme.
  • Lässt sich qualitatives Datenmaterial auch statistisch auswerten? (Begründung)

    Lösung

    Qualitatives Datenmaterial lässt sich quantifizieren und dann statistisch auswerten.
  • Wovon hängt die statistische Auswertungsstrategie bei quantitativen Studien ab?

    Lösung

    Die statistische Auswertungsstrategie hängt primär vom Erkenntnisinteresse einer quantitativen Studie ab:
    1. Explorativ-hypothesenbildend
    2. Deskriptiv-populationsbeschreibend
    3. Explanantiv-hypothesenprüfend
  • Mit welchen Datenerhebungsmethoden wird quantitatives Datenmaterial in den Human- und Sozialwissenschaften üblicherweise gewonnen?

    Lösung

    Wege der Gewinnung quantitativer Daten (Messwerte) in der empirischen Sozialforschung:
    1. Strukturierte Beobachtung
    2. Strukturierte mündliche Befragung (Interview)
    3. Strukturierte schriftliche Befragung
    4. Psychometrische Tests
    5. Physiologische Messungen
    6. Quantitative Inhaltsanalyse
  • Welche Ansätze der inferenzstatistischen Hypothesenprüfung sind zu unterscheiden?

    Lösung

    Verschiedene Ansätze der inferenzstatistischen Hypothesenprüfung:
    1. Klassischer Signifikanztest
    2. Minimum-Effektgrößen-Test
    3. Strukturgleichungsmodelle
    4. Resampling-Verfahren
    5. Verfahren der Bayes-Statistik
  • Die Stichprobenbeschreibung einer Studie sollte mit Tabellen und Grafiken veranschaulicht werden. Diskutieren Sie diese Aussage!

    Lösung

    Die Stichprobenbeschreibung ist eine Hintergrundinformation jeder quantitativen Studie, die in der Regel in einem Absatz im Fließtext behandelt wird. Tabellarische und grafische Darstellungen sind den zentralen inhaltlichen Befunden einer Studie vorbehalten.
  • Mit der inferenzstatistischen Datenanalyse ist die statistische Prüfung der Forschungshypothesen gemeint. Richtig oder falsch?

    Lösung

    Falsch, denn zu Inferenzstatistik gehören neben Methoden der Hypothesenprüfung auch Verfahren der Parameterschätzungen (Punkt- und Intervallschätzungen) sowie Tests zur Voraussetzungsprüfung statistischer Verfahren (z. B. Test auf Varianzhomogenität, Test auf Normalverteilung).
  • Was stimmt?
    a) Der statistische Signifikanztest stellt die einzige Möglichkeit der Prüfung quantitativer Hypothesen dar.
    b) Zur Deskriptivstatistik zählen die Bestimmung von Stichprobenkennwerten sowie von Populationsparametern.
    c) Wenn ein Ergebnis statistisch nicht signifikant ist, dann gilt automatisch die Nullhypothese als bestätigt.
    d) Wenn ein Ergebnis statistisch signifikant ist, dann handelt es sich um einen praktisch bedeutsamen Effekt.
    e) Ein Ergebnis ist signifikant, wenn das Alpha-Fehlerniveau unter 5 % liegt.

    Lösung

    Alle Antwortvorgaben sind falsch.
  • Grenzen Sie den klassischen Signifikanztest von Resampling-Verfahren und Verfahren der Bayes-Statistik ab!

    Lösung

    Beim klassischen Signifikanztest wird als Prüfverteilung eine theoretische Verteilung verwendet, bei Resampling-Verfahren dagegen eine empirische (d. h. aus den Daten erzeugte) Verteilung. Bei Verfahren der Bayes-Statistik wird das Vorwissen der Forschenden (bzw. der aktuelle Forschungsstand) über die getesteten Effekte einbezogen.
  • Nennen Sie mindestens drei allgemeine Statistik-Programmpakete, die in den Sozialwissenschaften verbreitet sind!

    Lösung

    In den Sozialwissenschaften verbreitete Statistik-Programmpakete:
    5 SPSS
    5 SAS
    5 R etc.
  • Deskriptivstatistische Methoden werden im Rahmen jeder quantitativen Studie eingesetzt. Wozu?

    Lösung

    Deskriptivstatistische Verfahren werden im Rahmen jeder quantitativ-empirischen Studie für die Stichprobenbeschreibung und die Dateninspektion genutzt.
  • Das Ergebnis einer empirisch-quantitativen Studie zeigt sich im Output des verwendeten Statistik-Programms. Diskutieren Sie diese Aussage!

    Lösung

    Der Output eines Statistik-Programms ist nicht das Ergebnis einer Studie, ihm müssen vielmehr zunächst die für das Forschungsproblem relevanten statistischen Kennwerte entnommen und diese dann im Gesamtbild der Befunde inhaltlich interpretiert werden.
  • Was ist der Unterschied zwischen der explorativen Datenanalyse (EDA) und der konfirmativen Datenanalyse (CDA)?

    Lösung

    EDA dient dazu, Strukturen und Trends in einem quantitativen Datensatz zu entdecken, in der CDA wird die Analyse auf die laut Hypothesen interessierenden Effekte beschränkt.
  • Welche Techniken werden im Rahmen der explorativen Datenanalyse eingesetzt?

    Lösung

    Im Rahmen der explorativen Datenanalyse werden vor allem drei Techniken eingesetzt:
    1. Visualisierungstechniken
    2. Explorative multivariate Verfahren
    3. Techniken des Data Mining
  • Welche Werte können Boxplots entnommen werden?

    Lösung

    Einem Box-Plot können folgende statistische Kennwerte entnommen werden:
    a) Medianwert
    b) Interquartilbereich
    c) Streuung
    d) Ausreißerwerte
  • Grenzen Sie die Zielsetzungen einer explorativen Faktorenanalye und einer Clusteranalye voneinander ab.

    Lösung

    – Explorative Faktorenanalyse: Bündelung von Variablen zu Faktoren, also zu Variablen höherer Ordnung
    – Clusteranalyse: Zusammenfassung von Untersuchungsobjekten zu Clustern, also zu Typen, deren Untersuchungsobjekte sich jeweils innerhalb eines Clusters stark ähneln und zwischen den Clustern unterscheiden
  • Was unterscheidet einen „Signifikanztest auf Probe“ von einem „Pseudo- Signifikanztest“?

    Lösung

    Bei einem „Signifikanztest auf Probe“ wird ein induktiv in den Daten gefundener – d. h. nicht per theoretisch fundierter Hypothese vorausgesagter – Effekt probehalber gegen den Zufall getestet, um auf dieser Basis Hypothesen für zukünftige Studien zu bilden. Beim Pseudo-Signifikanztest wird ein induktiv in den Daten gefundener Effekt gegen den Zufall getestet und das Ergebnis im Nachhinein als Hypothesentest ausgegeben.
  • Welches Hauptmerkmal kennzeichnet eine A-priori-Hypothese?

    Lösung

    A-priori-Hypothesen sind dadurch gekennzeichnet, dass sie vor der Datenerhebung auf der Basis von Theorien und/oder früheren Studienergebnissen formuliert werden. Typischerweise handelt es sich um gerichtete Hypothesen, idealerweise auch mit Angabe zur Effektgröße.
  • Handelt es sich bei Auswertungen mit dem Tool Google „Trends“ (http://www. google.com/trends/) um „web usage mining“? (Begründung)

    Lösung

    Das Tool „Trends“ von Google bietet der Öffentlichkeit nur einfache Häufigkeitsanalysen für Suchbegriffe an, die nicht unter Data-Mining fallen. Die dahinter liegende Datenbank ist jedoch geeignet, um Web Usage Mining durchzuführen und Muster in den weltweiten Google-Suchanfragen zu erkunden.
  • Was versteht man unter Big Data?

    Lösung

    Unter Big Data versteht man die Sammlung, Archivierung und Analyse sehr großer Datenmengen, die durch automatische Datenaufzeichnung entstehen.
  • Wozu nutzt man die Multidimensionale Skalierung?

    Lösung

    Die Multidimensionale Skalierung dient dazu, die Ähnlichkeit bzw. Unähnlichkeit von Urteilsobjekten in einem 2- oder 3-dimensionalen Wahrnehmungsraum abzubilden.
  • Welcher Statistiker hat die explorative Datenanalyse namhaft propagiert?

    Lösung

    Ein wichtiger Vertreter des EDA-Ansatzes ist der Statistiker John Tukey.
  • Welche Qualitätskriterien sollen Punktschätzer erfüllen?

    Lösung

    Punktschätzer sollen fünf Qualitätskriterien erfüllen:
    1. Erwartungstreue
    2. Konsistenz
    3. Effizienz
    4. Suffizienz
    5. Robustheit
  • Bei der Körpergröße handelt es sich um eine normalverteilte Zufallsvariable. Wie groß ist die Wahrscheinlichkeit für das Auftreten einer ganz bestimmten Körpergröße bei einer untersuchten Person?

    Lösung

    Wie bei allen kontinuierlichen Zufallsvariablen, die mit theoretisch beliebiger Genauigkeit erfasst werden können, ist die Wahrscheinlichkeit für ein Einzelereignis Null, es kann nur die Wahrscheinlichkeit für einen Wertebereich angegeben werden.
  • Welche Aussagen stimmen?
    a) Je höher der Konfidenzkoeffizient, umso breiter ist das Konfidenzintervall.
    b) Je größer die Populationsstreuung, umso breiter ist das Konfidenzintervall.
    c) Die Varianz einer einfachen Zufallsstichprobe ist ein erwartungstreuer Schätzer der Populationsvarianz.
    d) Der Mittelwert einer einfachen Zufallsstichprobe ist ein erwartungstreuer Schätzer des Populationsmittelwertes.

    Lösung

    Richtig sind: a, b und d
  • Warum ist es erforderlich, Parameterschätzungen mit einem Konfidenzintervall zu versehen?

    Lösung

    Die Schätzung von Populationsparametern auf der Basis von Daten über nur einen (meist verhältnismäßig kleinen) Teil der Population (Stichprobenuntersuchung) ist immer mit Unsicherheit behaftet. Bei der Intervallschätzung mittels Konfidenzintervall kann diese Unsicherheit in Form eines Wahrscheinlichkeitswertes (Konfidenzkoeffizient) quantifiziert und kontrolliert werden.
  • Welche Methoden der Punktschätzung werden unterschieden?

    Lösung

    Methoden der Punktschätzung von Populationsparametern:
    1. Momenten-Methode
    2. Kleinstquadrat-Methode
    3. Maximum-Likelihood-Methode
    4. Resampling-Verfahren
    5. Bayes-Verfahren
  • Welche Aussagen stimmen nicht?
    a) die z-Transformation überführt jede Verteilung in eine Verteilung mit Mittelwert 1 und Streuung 0.
    b) die z-Transformation überführt jede Verteilung in eine Verteilung mit Mittelwert 1 und Varianz 0
    c) die z-Transformation überführt jede Verteilung in eine Verteilung mit Mittelwert 0 und Varianz 1
    d) die z-Transformation überführt jede Verteilung in eine Standardnormalverteilung

    Lösung

    Falsch sind: a, b und d
  • Bei dem sog. Standardfehler handelt es sich um:
    a) die Streuung der Stichprobe,
    b) die Streuung der Population,
    c) die Streuung der Stichprobenkennwerteverteilung,
    d) die Differenz zwischen Schätzwert und Populationsparameter.

    Lösung

    Richtig ist: c
  • Für die Berechnung des Konfidenzintervalls des Mittelwertes liegen zwei verschiedene Formeln vor. Warum?

    Lösung

    Die Berechnung des Konfidenzintervalls des Mittelwertes erfolgt bei unbekannter Populationsstreuung und einem kleinen Stichprobenumfang (n < 30) anhand kritischer Werte aus der t-Verteilung, bei bekannter Populationsstreuung sowie bei großem Stichprobenumfang (n ? 30) anhand kritischer Werte aus der Standardnormalverteilung.
  • Um im Vorfeld einer deskriptiven Studie zu bestimmen, welcher optimale Stichprobenumfang für die Intervallschätzung des interessierenden Populationsparameters notwendig ist, müssen welche Entscheidungen getroffen werden?

    Lösung

    Um den optimalen Stichprobenumfang für die Intervallschätzung des Populationsparameters zu bestimmen, müssen a) der Konfidenzkoeffizient (meist 95 % oder 99 %) und b) der zulässige Schätzfehler (in Prozent der Merkmalsstreuung) festgelegt werden.
  • Eine Lehrerin interessiert sich für die Frage, wie viel Zeit 11-jährige Schulkinder täglich für ihre Hausaufgaben aufwenden. Für ihre Untersuchung nimmt sie in Kauf, dass die wahre durchschnittliche Hausaufgabenzeit um maximal 3 Minuten verschätzt wird. Das zu ermittelnde Konfidenzintervall soll mit einem Konfidenzkoeffizienten von 99 % abgesichert werden. Die Streuung der Hausaufgabenzeit bei den Schulkindern der betrachteten Altersgruppe möge bei ? = 35 min liegen. Mit welchem optimalen Stichprobenumfang nopt sollte eine entsprechende empirische Studie angelegt sein, um – ohne Ressourcenvergeudung – ein aussagekräftiges Konfidenzintervall berechnen zu können?

    Lösung

    Schätzfehler: 3/35 ? 0.09 x ?; nopt = 821
  • Welche Aussage ist richtig?
    a) Wenig aussagekräftige Daten können vor der Hypothesenprüfung so aufbereitet werden, dass eine statistische Überprüfung sinnvoll stattfinden kann.
    b) Das Untersuchungsdesign entscheidet über den Informationsgehalt der Daten in Bezug auf die zu überprüfenden Hypothesen.
    c) Ungerichtete Hypothesen haben einen höheren Aussagegehalt als gerichtete Hypothesen.
    d) Hypothesen sollten nach der Betrachtung des empirischen Stichprobenergebnisses an die Datenlage angepasst werden.
    e) In wissenschaftlichen Publikationen werden immer die inhaltlichen und die statistischen Hypothesen genannt.

    Lösung

    Richtig: b
  • Wovon hängt die Auswahl eines passenden Signifikanztestes für einen inhaltlich sinnvollen statistischen Hypothesentest ab?

    Lösung

    1. Art der Hypothese (Zusammenhang, Unterschied, Veränderung, Einzelfall)
    2. Anzahl der Variablen
    3. Skalenniveau der Variablen
    4. Stichprobenumfang und Verteilungseigenschaften
  • Warum wird der klassische Signifikanztest auch als Nullhypothesen-Signifikanztest bezeichnet?

    Lösung

    Weil das empirische Ergebnis der jeweiligen Studie in der Logik des klassischen Signifikanztests anhand des H0-Modell (Stichprobenkennwerteverteilung unter der Annahme, dass in der Population kein Effekt vorliegt) geprüft wird.
  • Warum wird als Entscheidungsregel für die Signifikanz eines Ergebnisses einerseits [p(D| H) ? ?] und andererseits [|empirischer Wert| ? |kritischerWert|] angegeben?

    Lösung

    Beide Aussagen sind inhaltlich gleichbedeutend, da der empirische Wert der Prüfverteilung genau die Irrtumswahrscheinlichkeit p(D| H0) definiert und der kritische Wert das Alpha-Fehler-Niveau. In der Praxis wird die Signifikanzentscheidung beim Rechnen mit Statistik-Software direkt anhand der ausgegebenen Irrtumswahrscheinlichkeit getroffen, beim Rechnen per Hand anhand des empirischen Wertes.
  • Im klassischen Nullhypothesen-Signifikanztest werden bei großem Stichprobenumfang auch kleine Effekte statistisch signifikant, denn die Streuung des H0-Modells reduziert sich und der kritische Wert wird dem Betrag nach kleiner. Illustrieren Sie diese Aussage, indem Sie den kritischen t-Wert für die 5%-Signifikanzschwelle zur einseitigen Prüfung der bivariaten Korrelation jeweils für eine Stichprobengröße von n = 10, n = 20, n = 30 und n = 100 gegenüberstellen!

    Lösung

    Der kritische t -Wert zur Prüfung der bivariaten Korrelation hat df = n ? 1 Freiheitsgrade. Für die genannten n ergeben sich somit folgende kritische t-Werte laut austabellierter t-Verteilung für das 5 %-Niveau:
    – df = 9 ? t = 1.833
    – df = 19 ? t = 1.792
    – df = 29 ? t = 1.699
    – df = 120 (99 ist nicht austabelliert) ? t = 1.658
  • In einer Veröffentlichung lesen Sie, dass das Ergebnis eines Signifikanztests „höchst signifikant (p < .001) ausgefallen“ sei. Diskutieren Sie diese Aussage!

    Lösung

    Das Signifikanz- bzw. Alpha-Fehler-Niveau wird vor der Hypothesenprüfung festgelegt und muss begründet werden. Das Ergebnis kann dann nur signifikant (wenn die vorher festgelegte Schwelle von 5 %, 1 % oder 0.1 % unterschritten wird) oder nicht signifikant ausfallen. „Höchst signifikant“ oder „hoch signifikant“ sind demnach statistisch unsinnige Steigerungsformen.
  • „Bei einer Korrelation von r = ?.14 handelt es sich um einen kleinen und somit praktisch bedeutungslosen Effekt.“ Diskutieren Sie diese Aussage!

    Lösung

    Auch wenn ein Korrelationskoeffizient von r = ?.14 nominell als „klein“ klassifiziert wird, muss zur Einordnung der praktischen Bedeutsamkeit in Rechnung gestellt werden, um welche Inhalte es geht und mit welchen Effektgrößen in diesem Forschungsfeld normalerweise zu rechnen ist. Auch kleine Effekte können unter Umständen praktisch bedeutsam sein (z. B. wenn es um Gesundheit oder Menschenleben geht).
  • Welche Aussagen sind falsch?
    a) Ein einseitiger Signifikanztest ist teststärker als ein zweiseitiger Signifikanztest.
    b) Bei einem einseitigen Signifikanztest wird das Signifikanzniveauauf 10 % festgelegt, weil der kritische Wert nur auf einer Seite der Prüfverteilung abgetragen wird.
    c) Ein statistisch signifikantes Ergebnis deutet auf praktische Bedeutsamkeit hin.
    d) Die Verwendung von optimalen Stichprobenumfängen garantiert, dass statistisch signifikante Ergebnisse erzielt werden.

    Lösung

    Falsch: b), c), d)
  • Grenzen Sie Alpha- und Beta-Fehler-Wahrscheinlichkeit voneinander ab und geben Sie jeweils das korrekte Symbol an.

    Lösung

    – Alpha-Fehler-Wahrscheinlichkeit: p(D| H0): Bedingte Wahrscheinlichkeit des empirischen Stichprobenergebnisses unter Annahme der Gültigkeit der H0. Wenn bei geringer Alpha-Fehler- bzw. Irrtumswahrscheinlichkeit p(D| H0) ? ? die H1 angenommen wird, so entspricht die Irrtumswahrscheinlichkeit der Wahrscheinlichkeit, die H1 fälschlicherweise anzunehmen (denn auch wenn sich das Ergebnis nur sehr schlecht mit dem H0-Modell vereinbaren lässt – z.B. p = 3% – so ist es doch in 3 % der Fälle möglich, dass ein extremes Stichprobenergebnis zustande kommt, obwohl in der Population in Wirklichkeit die H0 gilt).
    – Beta-Fehler-Wahrscheinlichkeit: p(D| H1): Bedingte Wahrscheinlichkeit des empirischen Stichprobenergebnisses unter Annahme der Gültigkeit der H1. Wenn bei geringer Beta-Fehler-Wahrscheinlichkeit p(D| H1) ? ? die H0 angenommen wird, so entspricht die Beta-Fehler-Wahrscheinlichkeit der Wahrscheinlichkeit, die H0 fälschlicherweise beizubehalten.
  • Welches der folgenden Konfidenzintervalle (95 %) lässt keine Aussage über die Richtung des Effekts zu? Welches Konfidenzintervall schätzt den Populationseffekt am genauesten?
    a) –.21 ? p ? –.48
    b) +.15 ? p ? +.23
    c) –.01 ? p ? +.34
    d) +.31 ? p ? +.42

    Lösung

    keine Aussage über die Richtung des Effekts: c); genauester Schätzer: b)
  • Welche interne Validität weisen Interdependenzanalysen auf und wie ist diese im Hinblick auf kausale Interpretationen zu bewerten?

    Lösung

    Die interne Validität von Interdependenzanalysen ist in der Regel gering, vor allem, wenn es sich um Querschnittsstudien handelt. Denn der in einer Interdependenzanalyse gefundene Zusammenhang sagt zunächst nichts über Kausalbeziehungen der untersuchten Merkmale aus. Eine belastbare Kausalitätsaussage lässt sich nur auf Basis experimenteller Designs treffen. Die interne Validität kann durch zeitversetzte Messung von Prädiktor- und Kriteriumsvariablen (Zukünftiges kann Vergangenes nicht kausal bestimmen), Neutralisierung von Kontroll- und Störvariablen durch Partialkorrelation und Detailanalysen von Wirkungspfaden in komplexen Kausalmodellen (Pfadanalyse, Strukturgleichungsmodelle) erhöht werden.
  • Lässt sich durch einen Korrelationskoeffizienten von r = .58 auf einen starken Zusammenhang in der Population schließen?

    Lösung

    Nein, der Korrelationskoeffizient r quantifiziert nur Enge und Richtung des Zusammenhangs in der Stichprobe (deskriptiv-statistisches Ergebnis). Für den Rückschluss auf die Population wird ein inferenzstatistisches Ergebnis benötigt (Konfidenzintervall oder statistischer Signifikanztest).
  • Die multiplen Regressionskoeffizienten (d. h. die Beta-Gewichte einer multiplen Regression) entsprechen den bivariaten Korrelationskoeffizienten zwischen Prädiktoren und Kriterium. Diskutieren Sie diese Aussage!

    Lösung

    Den Beta-Gewichten einer multiplen Regressionsanalyse ist zu entnehmen, ob und wie die einzelnen Prädiktoren unter Berücksichtigung aller anderen Prädiktoren mit dem Kriterium korrelieren. Korrelationskoeffizienten in der bivariaten Korrelation werden dagegen unabhängig von anderen Prädiktoren berechnet. Der multiple Regressionskoeffizient eines Prädiktors entspricht nur dann seiner bivariaten Korrelation mit dem Kriterium, wenn die betrachteten Prädiktoren untereinander nicht korrelieren.
  • Was stimmt nicht?
    a) Das Ausschließen von Ausreißerwerten vor der Datenanalyse ist nicht zwingend notwendig, da Korrelationskoeffizienten durch diese kaum verzerrt werden.
    b) Eine kleine homogene Teilstichprobe aus der Population kann den wahren Zusammenhang unterschätzen.
    c) Die Extremgruppenselektion führt zu einer Unterschätzung des Zusammenhanges.
    d) Zur Prüfung von Zusammenhangshypothesen sollten Stichproben gezogen werden, die die Population möglichst gut repräsentieren.

    Lösung

    Falsch sind: a und c
  • Grenzen Sie die Partialkorrelation von der Semipartialkorrelation ab!

    Lösung

    Bei der Partialkorrelation wird der bivariate Zusammenhang der Variablen X und Y um den Einfluss einer Variablen Z bereinigt, z. B. um zu überprüfen, ob zwischen den Variablen X und Y eine Scheinkorrelation vorliegt, die durch Z verursacht wird. Eine Semipartialkorrelation kommt zur Anwendung, wenn lediglich eine Variable (X oder Y) umden Einfluss der Variable Z bereinigt wird.
  • Was trifft zu?
    a) Multiple Zusammenhangshypothesen beziehen sich auf Zusammenhänge zwischen zwei kardinalskalierten Variablen.
    b) Multiple Zusammenhangshypothesen spielen eine untergeordnete Rolle in der Hypothesenprüfung.
    c) Die Überprüfung multipler Zusammenhangshypothesen erfolgt in der Regel über die multiple Korrelations- und Regressionsanalyse.
    d) In der sozialwissenschaftlichen Forschung sind lediglich lineare Zusammenhänge von Interesse.
    e) Multiple Korrelation und kanonische Korrelation sind Synonyme.
    f) Multiple Zusammenhänge sollten mittels multivariater Verfahren überprüft werden und nicht über eine Mehrfachberechnung von bivariaten Verfahren.

    Lösung

    Richtig sind: c und f
  • Wie ist ein Cross-Lagged-Panel-Design aufgebaut und wozu braucht man es?

    Lösung

    Ein Cross-Lagged-Panel-Design dient dazu, die Richtung einer theoretisch bzw. hypothetisch vorgegebenen Kausalbeziehung zwischen Variablen mit hoher interner Validität zu prüfen. Dabei macht man sich den Zeitfaktor zunutze, indem man die Variablen, zwischen denen eine Kausalrelation bestehen soll, mit zeitlichem Abstand (Lag) zweimal (oder auch mehrfach) erfasst (1. Messung: x1, y1; 2. Messung: x2, y2). Berechnet werden dann (im Fall von zwei Messungen) alle sechs bivariaten Korrelationen zwischen den vier Messwertreihen (x1x2, y1y2, x1y1, x1y2, x2y1, x2y2). Anhand der Größenverhältnisse dieser Korrelationen kann die Kausalrichtung abgeschätzt werden.
  • Was versteht man unter einer Pfadanalyse?

    Lösung

    Die Pfadanalyse nutzt die Techniken der Korrelations- und Regressionsanalyse (insbesondere die Partial- und Semipartialkorrelation), um ein a priori formuliertes komplexes Kausalmodell mit höherer interner Validität zu prüfen als es einfache bivariate (oder multiple) Korrelationen zwischen den beteiligten Variablen ermöglichen. Auch die Pfadanalyse kann jedoch Kausalhypothesen nur falsifizieren und nicht verifizieren.
  • Grenzen Sie Moderator- und Mediatorvariable voneinander ab!

    Lösung

    Eine Moderatorvariable beeinflusst Enge und/oder Richtung des Zusammenhangs zwischen zwei Variablen, während eine Mediatorvariable kausal zur Entstehung des Effektes beiträgt.
  • Welche Rolle spielen Metaanalysen bei der Überprüfung von kausalen Zusammenhangshypothesen?

    Lösung

    Wird eine Zusammenhangshypothese in einer Querschnittstudie einmalig überprüft, ist die Generalisierbarkeit dieses Effekts sehr eingeschränkt. Wird die gleiche Hypothese von mehreren Forschenden und unter verschiedenen Bedingungen geprüft, und wird ein entsprechender Zusammenhang immer wieder nachgewiesen, kann dieser Effekt überzeugender generalisiert werden. Metaanalysen können einen Überblick über statistische Ergebnisse vergleichbarer Studien geben. Neben einer Zusammenfassung zu einem Gesamtwert und einer Gesamtinterpretation können sie auch differenzieren, hinsichtlich welcher Subgruppen oder Untersuchungsbedingungen die Generalisierbarkeit eingeschränkt ist.
  • Ein experimenteller und ein quasi-experimenteller Viergruppenplan sollen jeweils statistisch ausgewertet werden. Welche der beiden Studien geht mit höherem Aufwand bei der statistischen Datenanalyse einher (Begründung)?

    Lösung

    Die experimentelle Studie ist einfacher auszuwerten, da durch Randomisierung die Störvariablen ausgeschaltet sind, während sie bei der quasi-experimentellen Studie möglichst umfassend statistisch kontrolliert werden müssen, was meist mit Zusatzaufwand verbunden ist (z.B. durch Kovarianzanalyse, Propensity-Score-Analyse).
  • In einem Seniorenwohnheim wird ein Jahr lang eine wöchentliche Kochgruppe durchgeführt. Die 25 Mitglieder berichteten nach dem Ende der Kochgruppe auf einem standardisierten Ernährungsfragebogen (1–10 Punkte) eine überdurchschnittlich gesundheitsbewusste Ernährung (M = 7.69). Eine Kontrollgruppe von 25 Senioren, die nicht an der Kochgruppe teilgenommen hatten, zeigte signifikant (t-Test für unabhängige Stichproben) weniger gesundheitsbewusstes Ernährungsverhalten (M = 3.45). Ist damit belegt, dass die Kochgruppe gesundheitsbewusste Ernährung bei Senioren fördert? (Begründung) Unter welchen Bedingungen kann eine solche Studie Auskunft über die Wirksamkeit der Kochgruppe geben? Welches statistische Auswertungsverfahren ist indiziert?

    Lösung

    Der Zwei-Gruppen-Plan mit ausschließlicher Nachher-Messung gibt wenig Auskunft über die Wirksamkeit der Kochgruppe, da unklar ist, wie gesundheitsbewusst sich die Senioren von vorne herein ernährten. Beruhte die Teilnahme am Kochkurs auf reiner Selbstselektion, könnten sich verstärkt ernährungsbewusste Personen bei der Kochgruppe angemeldet haben. Wurde die Kochgruppen-Teilnahme aus einer Liste von Interessierten per Los entschieden und somit Treatment- und Kontrollgruppe randomisiert, wären weniger Verzerrungen zu erwarten als bei reiner Selbstselektion. Aufgrund der geringen Gruppengrößen von n = 25 sind Verzerrungen aber auch bei Randomisierung nicht ausgeschlossen. Eine Möglichkeit, um die interne Validität zu steigern, bestünde in der Erhebung von Kontrollvariablen, die ebenfalls auf gesundheitsbewusste Ernährung Einfluss haben (z. B. Gesundheitszustand, Einstellungen etc.) und deren Einfluss aus der abhängigen Variablen herauspartialisiert werden könnte, auch eine Propensity-Score-Analyse wäre möglich. Beide Verfahren wären aber mit Mehraufwand für die Untersuchungspersonen verbunden (verlängerter Fragebogen) und würden Störeinflüsse nur insofern kontrollieren, als man sie vorab antizipieren kann. Eine aussagekräftige Studie müsste als Messwiederholungsdesign (Zwei-Gruppen-Prä-Post- Design) angelegt werden, um in beiden Gruppen mögliche Veränderungen des Ernährungsverhaltens zu erfassen, d. h. es müssten beim Untersuchungsdesign und bei der statistischen Auswertung Prinzipien zur Überprüfung von Veränderungshypthesen berücksichtigt werden. Die statistische Analyse könnte als Varianzanalyse mit Messwiederholung erfolgen, die Wirksamkeit der Maßnahme würde sich dann in einer signifikanten Interaktion zwischen Messzeitpunkt und Behandlungsgruppe zeigen (d. h. die Kontrollgruppe verändert sich nicht, während in der Kochgruppe das ernährungsbewusste Verhalten zunimmt). Alternativ könnte auch eine Kovarianzanalyse durchgeführt werden, bei der die Posttest-Werte statistisch um den Einfluss der Prätest-Werte bereinigt werden, d. h. die Prätest-Werte werden als Kovariate behandelt. Geht man davon aus, dass die Pretest-Messung mit dem Ernährungsfragebogen bereits einen Einfluss ausübt, wäre auch ein Solomon-Vier-Gruppen-Plan mit entsprechender Auswertung möglich.
  • Eine groß angelegte experimentelle Studie zum Vergleich zwischen herkömmlichen Frontalvorlesungen, Blended-Learning-Veranstaltungen (in denen Unterrichtsmaterialien begleitend auf einer E-Learning-Plattform bereitgestellt werden) und Online-Kursen (in denen alle Inhalte auf einer E-Learning-Plattform inklusive interaktiver Lernmaterialien bereitgestellt werden) habe ergeben, dass sich die Lernleistung signifikant zwischen den verschiedenen Unterrichtsformen unterscheidet. Welche Aussagen können Sie über die Effektivität der jeweiligen Lernformen treffen?

    Lösung

    Eine Aussage über die Effektivität der einzelnen Lernformen kann aufgrund dieser Information nicht gegeben werden. Wenn sich die Lernleistung signifikant zwischen den Gruppen unterscheidet (Overall-Effekt der einfaktoriellen Varianzanalyse), kann zunächst nur festgehalten werden, dass sich mindestens zwei Gruppen überzufällig unterscheiden. Für genauere Aussagen müssen die deskriptiven Statistiken und insbesondere Effektgrößen betrachtet werden. Möchte man angeben, welche der drei Gruppen sich jeweils signifikant voneinander unterscheiden, betrachtet man die Ergebnisse von Post-hoc-Einzelvergleichen oder (sofern entsprechende Hypothesen vorab formuliert wurden) von Kontrasten.
  • Grenzen Sie mehrfaktorielle und multivariate Varianzanalyse voneinander
    ab.

    Lösung

    Eine mehrfaktorielle Varianzanalyse berücksichtigt mehr als eine unabhängige Variable (d. h. mehr als einen Faktor), eine multivariate Varianzanalyse mehr als eine abhängige Variable. Diese Varianten können auch miteinander kombiniert werden (mehrfaktorielle multivariate Varianzanalyse).
  • Welche Aussage ist richtig?
    a) Wenn in einer zweifaktoriellen Varianzanalyse beide Haupteffekte signifikant werden, wird auch der Interaktionseffekt signifikant.
    b) Ein signifikanter Interaktionseffekt AxB besagt, dass beide Faktoren additiv zusammenwirken.
    c) Ordinale Interaktion und hybride Interaktion besagen das gleiche.
    d) Bei einer disordinalen Interaktion erster Ordnung kann keiner der beiden Haupteffekte global interpretiert werden.
    e) Interaktionseffekte sind in der Forschung kaum von Interesse.

    Lösung

    Richtig: d
  • Welche Möglichkeiten der Kontrolle von personengebundenen Störvariablen werden bei der Prüfung von Unterschiedshypothesen eingesetzt?

    Lösung

    a) Designtechnische Kontrolle: Randomisierung im Experiment.
    b) Statistische Kontrolle: Berücksichtigung von Kontrollvariablen bei quasi- und nicht-experimentellen Studien: Störvariablen können als zusätzliche unabhängige Variablen
    (Kontrollfaktoren) in die Berechnung eingehen (? mehrfaktorielle Varianzanalyse); Störvariablen können als Kontrollvariablen aus denWerten der abhängigen Variablen herauspartialisiert werden (? Kovarianzanalyse); Störvariablen können als Kontrollvariablen mit speziellen statistischen Verfahren wie der Propensity-Score-Analyse kontrolliert werden.
  • Was ist eine Interaktion zweiter Ordnung und wie benennt man sie?

    Lösung

    Eine Interaktion zweiter Ordnung liegt vor, wenn die Art der Interaktion zwischen zwei Faktoren von den Ausprägungen eines dritten Faktors abhängt. Sie wird oft als A x B x C- oder Triple-Interaktion bezeichnet.
  • „Hierarchische und teilhierarchische bzw. allgemein: unvollständige Pläne bieten die Möglichkeit, trotz fehlender Werte im Datensatz eine aussagekräftige statistische Analyse der Haupteffekte durchzuführen.“ Diskutieren Sie diese Aussage!

    Lösung

    Einzelne fehlende Werte im Datensatz (Missings) sind abzugrenzen von unvollständigen Plänen, bei denen einzelne Faktoren systematisch untereinander geschachtelt werden. Fehlende Werte sind im Zusammenhang mit der Datenaufbereitung zu behandeln. Hierarchische Pläne sind bereits bei der Untersuchungsplanung anzulegen. Bei unvollständigen Plänen sind Interaktionseffekte gar nicht oder nur teilweise überprüfbar.
  • Was stimmt nicht?
    a) Einflussreiche Kontrollvariablen korrelieren mit der abhängigen Variablen.
    b) Durch den Einfluss von Störvariablen werden Gruppenunterschiede generell abgeschwächt.
    c) Nominalskalierte Kontrollvariablen können bei der varianzanalytischen Auswertung von Unterschiedshypothesen nicht berücksichtigt werden.
    d) Eine Kovarianzanalyse kann nur in univariaten Versuchsplänen eingesetzt werden.

    Lösung

    Falsch sind: b, c und d
  • Im Rahmen eines Experiments soll überprüft werden, inwiefern die Publikumsbewertung einer Zeichnung von der Person des Künstlers abhängt. Dazu wurde dieselbe Zeichnung 4 Gruppen von Untersuchungspersonen zur Bewertung vorgelegt. Die Gruppen erhielten jeweils eine unterschiedliche Information dazu, von wem die Zeichnung stammt: a) von einem Kind, b) von einem Patienten einer Kunsttherapiegruppe, c) von einem Hobbymaler, d) von einem renommierten Künstler. Die Untersuchungsteilnehmenden wurden gebeten, jeweils auf Ratingskalen anzugeben, wie schön sie die Zeichnung finden und wie gut sie ihnen insgesamt gefällt. Was für ein Untersuchungsplan liegt vor und wie muss diese Studie statistisch ausgewertet werden?

    Lösung

    Es handelt sich um einen einfaktoriellen (eine UV: Person des Künstlers), multivariaten (zwei AV: Rating von „schön“, Rating von „gefallen“) Vier-Gruppen-Plan (vier Ausprägungen der UV). Die statistische Auswertung sollte über eine einfaktorielle multivariate Varianzanalyse oder eine Diskriminanzanalyse erfolgen.
  • Welches sind die typischen Anwendungsfälle der inferenzstatistischen Überprüfung von Veränderungshypothesen in den Sozialwissenschaften?

    Lösung

    Typische Anwendungsfälle der inferenzstatistischen Überprüfung von Veränderungshypothesen in den Sozialwissenschaften:
    1. Prüfung der Wirkung eines Treatments im Rahmen einer experimentellen Gruppenstudie.
    2. Prüfung der Wirkung eines Treatments im Rahmen einer quasi-experimentellen Gruppenstudie.
    3. Prüfung der Wirkung eines Treatments im Rahmen einer Einzelfallstudie.
    4. Prüfung des Einflusses von Lebensalter, Geburtsjahrgang/Kohorte und/oder Epoche auf Entwicklungen im Rahmen von Längsschnitt-, Querschnitt- und Zeitwandelstudien.
    5. Prüfung von Effekten in Zeitreihen.
  • Welche drei Hypothesenarten können mit der Box-Jenkins-Zeitreihenanalyse statistisch geprüft werden?

    Lösung

    Drei Hypothesenarten, die mit der Box-Jenkins-Zeitreihenanalyse prüfbar sind:
    1. Vorhersagemodelle: Hypothesen über die zukünftige Entwicklung der Zeitreihe.
    2. Interventionsmodelle: Hypothesen über den Einfluss einer Intervention auf die Zeitreihe.
    3. Transferfunktionsmodelle: Hypothesen über den Einfluss einer anderen Zeitreihe auf die betrachtete Zeitreihe.
  • Was sind Sequenzeffekte und wie kann man sie kontrollieren?

    Lösung

    Sequenzeffekte treten bei Messwiederholungen auf, wenn dieselben Untersuchungspersonen mehrere Aufgaben nacheinander bearbeiten und die Reihenfolge der Bearbeitung einen Einfluss auf die Beantwortung bzw. Reaktion hat. Sequenzeffekte können als untersuchungsbedingte Störvariablen aufgefasst werden und sind z. B. durch Konstanthalten auszuschalten (allerdings auf Kosten der externen Validität). Häufig lässt man die Untersuchungspersonen die Aufgaben auch in unterschiedlicher Reihenfolge bearbeiten und berücksichtigt die Reihenfolge als Kontrollfaktor im Untersuchungsdesign bzw. bei der varianzanalytischen Auswertung.
  • Skizzieren Sie die Vorgehensweise bei der Regressions-Diskontinuitäts-Analyse!

    Lösung

    Beim Regressions-Diskontinuitäts-Plan wird zur Bildung einer Experimental- und einer Kontrollgruppe eine kontinuierliche Personenvariable herangezogen (Zuweisungsvariable). Die Gruppeneinteilung wird anhand eines Cutoff-Points (z. B. Medianwert: Mediansplit) vorgenommen. Vor der Intervention wird für beide Gruppen der Zusammenhang bzw. die Regression zwischen der Zuweisungsvariablen und der abhängigen Variablen berechnet, nach dem Treatment geschieht dasselbe. Eine Wirkung des Treatments ist daran ablesbar, dass die Regression in der Experimentalgruppe nach dem Treatment anders verläuft als vor dem Treatment („Knick“ bzw. Diskontinuität) und dass die Regression in der Experimentalgruppe anders verläuft als in der Kontrollgruppe.
  • Diskutieren Sie Vor- und Nachteile von Querschnitt- und Längsschnittstudien und geben Sie an, welches statistische Auswertungsverfahren typisch ist!

    Lösung

    Mit untersuchungstechnisch sehr aufwändigen und teuren Längsschnittstudien können intraindividuelle Veränderungen (von Angehörigen einer oder mehrerer Geburtskohorten in einer bestimmten Epoche) verfolgt werden. Längsschnittstudien sind zur Prüfung von Entwicklungshypothesen besser geeignet als Querschnittuntersuchungen, weil letztere Alterseffekte nur interpersonal erfassen (die unterschiedlichen Altersgruppen werden parallel untersucht und entstammen verschiedenen Geburtsjahrgängen). Querschnittstudien sind untersuchungstechnisch weniger aufwändig. Die Konfundierung von Alter, Generation/Kohorte und Epoche kann mit beiden Plänen nicht gänzlich aufgelöst werden und beide Untersuchungsformen sind mit Fehlerquellen behaftet: Selektive Ausfälle (bei Querschnittstudien in der Population, bei Längsschnittstudien in der Stichprobe), mangelnde Vergleichbarkeit der Messinstrumente und damit auch der Messergebnisse (für unterschiedliche Altersgruppen) oder Testübung (beim Längsschnitt). Die statistische Auswertung erfolgt typischerweise über Varianzanalysen mit und ohne Messwiederholungen auf einem bzw. mehreren Faktoren.
  • Was versteht man im Kontext der Zeitreihenanalyse unter einer Autokorrelation?

    Lösung

    Im Kontext der Zeitreihenanalyse meint die Autokorrelation die Korrelation der Zeitreihe mit sich selbst bei Verschiebung der Messzeitpunkte.
  • Im Rahmen einer Längsschnittstudie zur Veränderung des Selbstwertgefühls über die Lebensspanne wird eine Stichprobe 20-Jähriger untersucht. Vier Folgeerhebungen finden jeweils im Abstand von 10 Jahren statt. Es liegen also Selbstwertdaten der Stichprobe im Alter von 20, 30, 40, 50 und 60 Jahren vor.
    a) Welche Hypothese wird mit einer einfaktoriellen Varianzanalyse geprüft?
    b) Lässt ein signifikanter Haupteffekt der Varianzanalyse den Schluss zu, dass sich der Selbstwert durch das Lebensalter verändert? Begründung!
    c) Mit welchen Verfahren ließe sich die Hypothese testen, dass der Selbstwert im Laufe des Lebens linear ansteigt?
    d) Wie ließe sich die Hypothese prüfen, dass sich v. a. der erste und der letzte Messzeitpunkt unterscheiden?

    Lösung

    a) H1: Zu mindestens zwei Messzeitpunkten unterscheidet sich der Selbstwert in der Population.
    b) Ein signifikanter Haupteffekt lässt sich nicht eindeutig als Alterseffekt interpretieren, denn Unterschiede zwischen den Altersstufen können durch Konfundierung auch auf Einflüsse des Messzeitpunktes zurückgehen (z. B. könnte ein Absinken des Selbstwertes mit 50 Jahren nicht durch das Lebensalter, sondern durch eine zum Untersuchungszeitpunkt auftretende Wirtschaftskrise verursacht sein). Diese Konfundierung kann z. B. aufgehoben werden, wenn vergleichend weitere Längsschnitte (mit anderen Messzeitpunkten) herangezogen werden.
    c) 1.) Mithilfe der Varianzanalyse: Trendtests; 2.) mithilfe von Strukturgleichungsmodellen: Latente Wachstumsmodelle.
    d) Durch A-priori-Kontraste anstelle der Berechnung der Overall-Signifikanz der Varianzanalyse.
  • Die monatlichen Umsatzzahlen des Online-Versandhauses Amazon.de liegen für März 2005, Februar 2006, Mai 2007, Februar 2008, Mai 2009, Juni 2010, Mai 2011, Juni 2012 und Juni 2013 vor. Handelt es sich um eine Zeitreihe? Begründung!

    Lösung

    Es handelt sich bei diesen Umsatzzahlen nicht um eine Zeitreihe, da bei einer Zeitreihe die Messwerte in exakt gleichen zeitlichen Abständen erhoben werden.
  • Auf welche drei Einflussfaktoren wird die Ausprägung eines Messwertes in einer Zeitreihe im Rahmen einer ARIMA-Analyse zurückgeführt?

    Lösung

    Bei einer Zeitreihenanalyse gemäß ARIMA-Modell werden drei Komponenten als Einflussfaktoren auf die Messwerte der Zeitreihe berücksichtigt:
    1. vorausgehender/zurückliegender Messwert (AR-Komponente)
    2. spezifischer stochastischer Trend (I-Komponente)
    3. vorausgehender/zurückliegender Zufallseinfluss (MA-Komponente)
  • Wozu dient der Solomon-Viergruppenplan?

    Lösung

    Der Solomon-Viergruppenplan dient dazu, die Veränderung bei einem Vorher-Nachher-Gruppenvergleich zu prüfen und dabei den möglichen Einfluss der Vorher-Messung zu kontrollieren.
  • Was ist unter einer hypothesenprüfenden Einzelfalluntersuchung zu verstehen?

    Lösung

    In einer hypothesenprüfenden Einzelfalluntersuchung geht es darum, Einzelfallhypothesen – also Annahmen über Merkmale oder Verhaltensweisen einer einzelnen Person bzw. eines einzelnen Objektes – anhand eines systematisch erhobenen quantitativen Datensatzes inferenzstatistisch zu überprüfen. Für hypothesenprüfende Einzelfallanalysen werden Verhaltensstichproben derselben Person in verschiedenen Situationen, zu unterschiedlichen Zeitpunkten und/oder unter variierenden Aufgabenstellungen gezogen.
  • Welche Vor- und Nachteile haben Einzelfalluntersuchungen gegenüber Stichprobenuntersuchungen?

    Lösung

    Der Hauptvorteil der quantitativen Einzelfallstudie gegenüber der Stichprobenuntersuchung besteht darin, dass die Besonderheiten des Einzelfalls gut überschaubar und besser kontrollierbar sind. Bei Interventionen, die passgenau auf eine Einzelperson zugeschnitten sind (z. B. individualisierte Therapie- und Trainingsprogramme), ist die Untersuchung der entsprechenden Intervention nur am Einzelfall möglich. Der Nachteil für die Untersuchungspersonen von hypothesenprüfenden quantitativen Einzelfallstudien besteht jedoch darin, dass sie sich jeweils sehr vielen wiederholten Messungen unterziehen müssen, was je nach Art der Datenerhebungsmethode mehr oder minder aufwändig sein kann.
  • Eine Schülerin erreicht in einem Intelligenztest einen IQ von 96. Heißt dies, dass sie unterdurchschnittlich intelligent ist?

    Lösung

    Nein, denn der Testwert ist messfehlerbehaftet. Zur genaueren Einschätzung im Rahmen der Einzelfalldiagnostik sollte unter Berücksichtigung der Reliabilität des betreffenden Tests das Konfidenzintervall des Testwertes der Schülerin bestimmt werden, das möglicherweise den Durchschitts-IQ von 100 enthält.
  • Was unterscheidet den A-BC-B-BC-Plan von dem A-B-A-B-Plan?

    Lösung

    Im Unterschied zum A-B-A-B-Plan, der neben der Baselinephase (A) eine einzelne Intervention (B) untersucht, wird beim A-BC-B-BC-Plan die Intervention (B) in Kombinationmit einer zweiten Intervention (C) untersucht. Die Intervention B wird dazu allein sowie in Kombination mit der Intervention C betrachtet.
  • Sind die Messfehler der Daten aus Einzelfallstudien voneinander unabhängig oder abhängig – und wie ist damit umzugehen?

    Lösung

    Bei Einzelfallstudien handelt sich durch die Messwiederholung an ein und derselben Untersuchungseinheit um abhängige Messungen bzw. Messwerte mit abhängigen Messfehlern. Um das Problem der seriellen Abhängigkeit von Einzelmessungen in der Single-Subject-Forschung zu umgehen, kann man Einzelmessungen z.B. zu Phasenmittelwerten zusammenfassen, die bei mindestens 10 Messwerten pro Phase in der Regel nahezu unabhängig sind.
  • In einem validen Test zur Messung von Sozialkompetenz (0–100 Punkte) erzielt ein Polizist einen Testwert von 56. Nach einem Kompetenztraining wird derselbe Test erneut durchgeführt und es resultiert ein Testwert von 67. Lässt sich aus diesen Daten schlussfolgern, dass das Training die Sozialkompetenz verbessert hat?

    Lösung

    Nein, denn es kann sich auch um eine reine Zufallsschwankung handeln, die umso größer ausfällt, je ungenauer ein Test ist. Unter Berücksichtigung der Reliabilität des Tests sollte im Rahmen der Einzelfalldiagnostik also geprüft werden, ob die gemessene Testwert-Verbesserung tatsächlich überzufällig ist. Zudem lässt die einfache Vorher-Nachher-Messung keinen sehr eindeutigen kausalen Rückschluss zu (geringe interne Validität), da auch viele andere mögliche Einflüsse einen geringeren Vorher- und/oder einen höheren Nachher-Wert erzeugt haben könnten. Überzeugender wäre z.B. ein A-B-A-B-Design.
  • Auf welche Weise kann bei dem Randomisierungstest die Teststärke erhöht werden?

    Lösung

    Die Teststärke kann bei einem Randomisierungstest durch mehr Messzeitpunkte – und somit mehr Messwerte – im Untersuchungsplan erhöht werden oder durch Vergrößerung der Stichprobe über eine Untersuchungseinheit (n = 1) hinaus. Bei sehr kleinen Stichproben mit sehr ähnlichen Untersuchungseinheiten wird immer noch von Single-Subject- Research gesprochen.
  • Für die Überprüfung von Einzelfallhypothesen stehen meist exakte und asymptotische Varianten des gleichen Signifikanztests zur Verfügung. Wann wird die jeweilige Testvariante eingesetzt?

    Lösung

    Allgemein werden exakte Signifikanztests bei kleineren Messwertreihen eingesetzt. Asymptotische Signifikanztests dienen zur Überprüfung von Einzelfallhypothesen bei größeren Messwertreihen bzw. größerer Anzahl an Messungen. Die genaue Anzahl der Messungen, ab der ein asymptotischer Signifikanztest eingesetzt wird, variiert je nach Typ des Signifikanztests.
  • In einem Artikel, der den Einfluss von Gartenarbeit auf die Depressivität eines Patienten mit einer Minor Depression untersucht, lesen Sie, dass Gartenarbeit zu keiner Verbesserung der Depressivität führt. Es wurde ein A-B-A-B-Plan eingesetzt und die Auswertung der Daten erfolgte mit dem Randomisierungstest. Ist die Beibehaltung der Nullhypothese korrekt? Bitte begründen Sie Ihre Antwort!

    Lösung

    Die Teststärke des Randomisierungstests ist bei einem 4-Phasen-Plan nicht ausreichend. Es werden bei n = 1 insgesamt mindestens 8 Phasen benötigt, damit der Randomisierungstest eine ausreichende Teststärke aufweist. Da die Teststärke nicht ausreichend war, ist bei einem nicht-signifikanten Ergebnis nicht klar, ob wirklich kein Effekt vorliegt, oder ein vorliegender Effekt nicht aufgedeckt werden konnte.
  • Wie ist im Rahmen der Einzelfalldiagnostik bei einem Vergleich von einem Untertestwert mit dem Gesamttestwert vorzugehen?

    Lösung

    Um zu bewerten, ob ein Untertestwert einer Testperson signifikant von ihrem Gesamttestwert abweicht, greift man auf die anhand von Eichstichproben ermittelten Testkennwerte zurück. Anhand der bekannten Korrelation des Untertests mit dem Gesamttest wird für den Gesamttestwert der Person der theoretisch erwartete zugehörige Untertestwert regressionsanalytisch bestimmt. Der empirische Untertestwert der Testperson wird mit diesem theoretischen erwarteten Wert verglichen, d. h. die Differenz wird auf Signifikanz geprüft.
  • Was versteht man unter doppelblindem Peer Review?

    Lösung

    Die Begutachtung (review) von wissenschaftlichen Fachartikeln, Vorträgen, Forschungsanträgen etc. durch Fachkollegen (peers). Dabei bleiben sowohl die Gutachtenden als auch die Begutachteten wechselseitig füreinander anonym (doppelblindes Vorgehen).
  • Worin unterscheidet sich der Peer-Review-Prozess bei Zeitschriftenartikeln von dem bei Konferenzvorträgen?

    Lösung

    – Peer-Review-Prozess bei wissenschaftlichen Konferenzvorträgen: einstufiges Peer Review, keine Nachbesserung möglich, dafür relativ zügig binnen mehrerer Wochen abgeschlossen.
    – Peer-Review-Prozess bei wissenschaftlichen Zeitschriftenartikeln: mehrstufiges Peer Review mit Möglichkeit zur ein- oder mehrmaligen Nachbesserung, kann mehrere Monate bis Jahre in Anspruch nehmen.
  • Was ist der Impact-Faktor und wann steigt er?

    Lösung

    Der Impact-Faktor ist eine bibliometrische Maßzahl, die die Relevanz einer wissenschaftlichen Fachzeitschrift beziffert. Je häufiger Artikel einer Zeitschrift in anderen Zeitschriften zitiert werden, umso höher wird ihr jährlich neu berechneter Impact-Factor.
  • Nennen Sie Unterschiede im Umgang mit Konferenzvorträgen in den Geistes-, Sozial- und Technikwissenschaften!

    Lösung

    Bedeutung von Konferenzvorträgen in unterschiedlichen Fachdisziplinen:
    – Technikwissenschaften: Konferenzvorträge haben einen hohen Stellenwert und gelten als vollwertige Publikationen durch ihre Veröffentlichung in Konferenzbänden bzw. Proceedings.
    – Sozialwissenschaften: Konferenzvorträge haben einen geringeren Stellenwert als Zeitschriftenartikel, werden frei vorgetragen.
    – Geistes- und Kulturwissenschaften: Konferenzvorträge werden oft wörtlich ausformuliert und vorgelesen.
  • Welches Format haben wissenschaftliche Poster üblicherweise?

    Lösung

    Wissenschaftliche Poster haben meist das Format DIN A0 (Hochformat).
  • Welche Vortragsformen auf Konferenzen sind zu unterscheiden?

    Lösung

    Drei Formen von Konferenzvorträgen:
    1. Forschungsreferat: Präsentation einer empirischen Studie
    2. Positionsreferat: Forschungsüberblick zu einem Thema
    3. Grundsatzreferat: eingeladener Beitrag von einer bekannten Forscherpersönlichkeit zu einem bestimmten Thema oder Forschungsgebiet
  • Warum sind die Erfolgschancen beim Peer Review bei wissenschaftlichen Postern meist höher als bei Konferenzvorträgen?

    Lösung

    Die Beurteilungskriterien sind bei Vorträgen strenger, u. a. weil die Zeitfenster für Vorträge auf einer Konferenz limitiert sind, während in Posterausstellungen organisatorisch relativ problemlos zusätzliche Poster aufgenommen werden können.
  • Worin unterscheiden sich wissenschaftliche Fachzeitschriften und Transferzeitschriften?

    Lösung

    Wissenschaftliche Fachzeitschriften richten sich an ein wissenschaftliches Publikum, Transferzeitschriften dagegen vermitteln wissenschaftliche Ergebnisse an Fachleute aus der Praxis, vor allem aus der Wirtschaft.
  • Welche Ergebnisse kann die Begutachtung eines bei einer Fachzeitschrift eingereichten Artikels haben?

    Lösung

    Mögliche Ergebnisse beim Peer Review einer Artikeleinreichung bei einer Fachzeitschrift:
    – Ablehnung
    – Einladung zu einer erneuten Einreichung und Begutachtung nach grundlegender Überarbeitung
    – Annahme zur Publikum (mit ggf. kleinen Korrektur-/Überarbeitungsauflagen)
  • Welche Einreichungsformen für Vorträge fordern Calls wissenschaftlicher Fachkonferenzen?

    Lösung

    Calls von wissenschaftlichen Konferenzen verlangen für die Einreichung von Vorträgen üblicherweise
    – Abstract,
    – Extended Abstract oder
    – Full Paper.
  • Was trifft zu? Ein Signifikanztest wird umso eher signifikant,
    a) je größer/kleiner der Effekt,
    b) je größer/kleiner der Stichprobenumfang,
    c) je größer/kleiner das Signifikanzniveau,
    d) je größer/kleiner die Teststärke.

    Lösung

    a) Je größer der Effekt
    b) Je größer der Stichprobenumfang
    c) Je größer (z. B. 5 %>1 %) die Teststärke
    d) Je größer die Teststärke
  • Was versteht man unter der „Effektgröße“?

    Lösung

    Die inhaltlich interessierenden Populationsparameter (z. B. Häufigkeiten, Mittelwertunterschiede, Variablenzusammenhänge; Häufigkeits- oder Mittelwertveränderungen) bezeichnet man als „Effekte“ und ihre Größe bzw. ihren Betrag als „Effektgröße“ oder „Effektstärke“. Die unstandardisierte Effektgröße (z. B. einfache Mittelwertdifferenz) ist nur bei verhältnisskalierten Variablen gut interpretierbar, meist werden deswegen standardisierte Effektgrößenmaße verwendet, die von der Messeinheit und vom Stichprobenumfang unabhängig sind. Standardisierte Effektgrößen werden gebildet, indem der Effekt an der Merkmalsstreuung relativiert wird (z. B. statt der einfachen Mittelwertdifferenz wird das standardisierte Effektgrößenmaß d von Cohen verwendet).
  • Was ist mit der „Power“ im Kontext von Signifikanztests gemeint und wovon hängt sie ab?

    Lösung

    Die Power (Teststärke) ist die Wahrscheinlichkeit, mit der ein Signifikanztest zu einem signifikanten Ergebnis führt, wenn in der Population die H1 (es muss sich dabei um eine spezifische Hypothese handeln) gilt. Man sagt auch: Die Teststärke ist die Wahrscheinlichkeit, mit der ein Signifikanztest einen vorhandenen Populationseffekt bestimmter Größe durch ein signifikantes Ergebnis aufdecken kann. Die Teststärke ist umso größer, je größer der Effekt, je größer der Stichprobenumfang und je größer das Signifikanzniveau (z. B. 5 %>1 %).
  • Anhand von Urlauberbefragungen hat ein Tourismusunternehmen 30 zufällig ausgewählte Ferienorte am Meer mit einem Punktwert versehen, der die Zufriedenheit mit dem Urlaubsort ausdrückt. Dann wurde untersucht, welche Bedeutung folgende Faktoren für die Bewertung des Urlaubsortes haben: Tageshöchsttemperatur, Wassertemperatur, Seegang, Wasserverschmutzung, Verschmutzung des Strandes, Anzahl der Besucher am Strand sowie Anzahl der aktiven Wassersportler im Umkreis von 1 km vor dem Strand. Interessanterweise konnte kein einziger signifikanter Effekt nachgewiesen werden. Woran könnte das liegen?

    Lösung

    Der Stichprobenumfang der Studie und somit die Teststärke waren vermutlich zu klein, vor allem in Anbetracht der Menge der untersuchten Variablen. Es kann natürlich auch sein, dass tatsächlich kein Zusammenhang zwischen den untersuchten Merkmalen des Urlaubsortes und der Zufriedenheit besteht, z. B. weil sich die Zufriedenheit an anderen Merkmalen orientierte.
  • Welches Problem tritt auf, wenn eine empirische Studie „underpowered“ ist?

    Lösung

    Wenn eine Studie „underpowered“ ist, hat sie eine ungenügende Teststärke, etwa weil sie auf einem – im Hinblick auf den untersuchten Effekt und dessen Größe – zu geringen Stichprobenumfang basiert, weil viele Störvariablen einwirken oder weil die unabhängige Variable zu schwach dosiert wurde und somit nur ein sehr kleiner Effekt untersuchbar war. Im Ergebnis liefert eine solche Studie nicht-signifikante Resultate, die hinsichtlich Hypothesenprüfung nicht aussagekräftig sind.
  • Grenzen Sie Vorgehensweise und Zielsetzung der A-priori- und der Post-hoc-Teststärkeanalyse voneinander ab!

    Lösung

    Bei der A-priori-Teststärkeanalyse wird mit Blick auf die interessierende Effektgröße der optimale Stichprobenumfang für eine geplante Studie im Voraus bestimmt. Bei der Post-hoc-Teststärkeanalyse wird bei einer bereits durchgeführten Studie im Nachgang (vor allem im Falle eines nicht-signifikanten Ergebnisses) die erreichte Teststärke bestimmt, um die Aussagekraft des Ergebnisses einschätzen zu können. Denn ein nicht-signifikantes Resultat darf nur bei ausreichender Teststärke als Hinweis auf die Gültigkeit der Nullhypothese gewertet werden. Bei einem signifikanten Ergebnis erübrigt sich meist eine Post-hoc-Teststärkeanalyse: Denn wenn ein signifikantes Ergebnis vorliegt, hatte der Test offenbar genügend Power, um Signifikanz erreichen zu können. (Es sei denn, das signifikante Ergebnis resultiert aus einem Alpha-Fehler, worauf geringe Teststärke bei einem signifikanten Ergebnis hindeuten würde.) Anstelle bzw. ergänzend zu einer Post-hoc-Teststärkeanalyse wird bei einem signifikanten Ergebnis vor allem die Effektgröße betrachtet, um sicherzugehen, dass der Test nicht durch übermäßige Teststärke einen praktisch bedeutungslosen Effekt hat signifikant werden lassen.
  • Warum gibt es viele verschiedene Effektgrößenmaße?

    Lösung

    Ein Effektgrößenmaß ist eine standardisierte Maßzahl für einen Effekt. Für unterschiedliche Arten von Effekten (z. B. Unterschied zwischen zwei oder mehr Gruppen, Zusammenhang zwischen zwei oder mehr Variablen, Veränderung zwischen zwei oder mehr Messzeitpunkten etc.) liegen jeweils unterschiedliche Effektgrößenmaße vor.
  • Welche Typen von Effektgrößenmaßen werden unterschieden?

    Lösung

    Die unterschiedlichen Effektgrößenmaße lassen sich in vier Gruppen einteilen: Gruppendifferenz-, Zusammenhangs-, Varianzaufklärungs- und Risiko-Effektgrößenmaße. Andere Klassifikationen sind möglich, etwa die Einteilung in zwei übergeordnete Gruppen: Effektgrößenmaße der d-Familie (Gruppendifferenz- und Risiko-Effektgrößenmaße) sowie Effektgrößenmaße der r-Familie (Zusammenhangs- und Varianzaufklärungsmaße).
  • Warumsollten die Ergebnisse einer quantitativen empirischen Studie immer auch in Form von Effektgrößenmaßen berichtet werden?

    Lösung

    Im Unterschied zur bloßen Signifikanzaussage (die wesentlich vom Stichprobenumfang der Studie abhängt), liefern Effektgrößenmaße Hinweise auf die theoretische und/oder praktische Bedeutsamkeit eines Effektes (und zwar unabhängig vom Stichprobenumfang der Studie). Darüber hinaus sind Angaben zur Effektgröße notwendig, um verschiedene Studien zur selben Fragestellung miteinander vergleichen oder im Rahmen einer Metaanalyse zu einer Schätzung des Gesamteffektes verrechnen zu können.
  • Welche Typen von Teststärkeanalysen werden differenziert?

    Lösung

    1. Post-hoc-Teststärkeanalyse
    2. A-priori-Teststärkeanalyse
    3. Sensitivitäts-Teststärkeanalyse
    4. Kriteriums-Teststärkeanalyse
    5. Kompromiss-Teststärkeanalyse
  • Worin unterscheidet sich die traditionelle Nullhypothese des statistischen Signifikanztests von einer Minimum-Effekt-Nullhypothese?

    Lösung

    Die traditionelle Nullhypothese bzw. Nil-Nullhypothese (H00) postuliert einen exakten Nulleffekt in der Population, es handelt sich um eine Punkthypothese, die in der Praxis sehr unrealistisch ist. Demgegenüber postuliert eine Minimum-Effekt-Nullhypothese um Null herum einen ganzen Bereich vernachlässigbar kleiner Effekte (typischerweise Varianzaufklärungen bis zu 1%: H01 bzw. bis zu 5%: H05) und ist somit als Bereichshypothese auch realistischer.
  • Was stimmt? Die Teststärke eines Signifikanztests ist umso höher,
    a) je größer der Stichprobenumfang,
    b) je liberaler das Signifikanzniveau,
    c) je größer der Populationseffekt und/oder
    d) je geringer die ?-Fehler-Wahrscheinlichkeit

    Lösung

    Richtig sind: a, b, c und d
  • Empfiehlt es sich, in Zukunft nur noch H05-Hypothesen zu überprüfen um sicherzustellen, dass keine praktisch zu vernachlässigenden Effekte postuliert werden? Begründen Sie!

    Lösung

    Nein. Die H05 sollte nur in gut begründeten Ausnahmefällen geprüft werden. Denn 5 % Varianzaufklärung sind in den Sozialwissenschaften oft nicht als vernachlässigbar geringe, sondern bereits als inhaltlich bedeutsame kleine bis mittlere Effekte einzuordnen. Stattdessen empfiehlt es sich eher, als Minimum-Effekt-Nullhypothese die H01 zu prüfen. Denn bis zu 1 % Varianzaufklärung ist vermutlich eine Größenordnung, die für die meisten Forschungsbereiche tatsächlich theoretisch und/oder praktisch zu vernachlässigen ist. Derartige Pauschalaussagen über die Bedeutung von Effektgrößen sind jedoch immer gegenstandsspezifisch zu relativieren.
  • Welche Aussage trifft jeweils zu?
    a) Eine H05 erklärt eine bivariate Populationskorrelation von ? .15 für unbedeutend klein.
    b) Bei einem traditionellen Signifikanztest kann eine multiple Korrelation von R = .007 in der Stichprobe statistisch signifikant werden.
    c) Beim Test einer H05 kann eine bivariate Korrelation von r = .20 nicht signifikant werden.
    d) Wenn ein Test der H01 signifikant wird, ist von mangelhafter Teststärke auszugehen.
    e) Wenn ein Test gegen die H05 signifikant geworden ist, weiß man, dass auch ein Test gegen H01 und H00 statistisch signifikant ausfallen würde.

    Lösung

    Richtig sind: b, c und e
  • Begründen Sie, warum Untersuchungen mit einer Teststärke unter 50 % nicht durchgeführt bzw. nicht publiziert werden sollten. Welche Teststärke ist zu fordern?

    Lösung

    Bei Studien mit einer Teststärke 1 - ? ? .50 ist im Falle eines nicht-signifikanten Ergebnisses unklar, ob tatsächlich kein Effekt in der Population vorliegt oder der Test nicht in der Lage war, den Effekt aufzudecken (z.B. aufgrund zu geringer Stichprobengröße oder zu großer Merkmalsstreuungen). Das Ergebnis der Studie muss deswegen als nicht interpretierbar gelten. Teststärken ab 80 % gelten als ausreichend.
  • Was versteht man unter dem optimalen Stichprobenumfang und wann und wie wird er festgelegt?

    Lösung

    Der optimale Stichprobenumfang bezeichnet denjenigen Stichprobenumfang, der – je nach erwarteter Effektgröße und festgelegtem Signifikanzniveau – eine ausreichende Teststärke von 80 % sicherstellt. Optimale Stichprobenumfänge für unterschiedliche Tests sind austabelliert und können mit entsprechenden Software-Tools bestimmt werden (z.B. g*power). Der optimale Stichprobenumfang wird idealerweise vor der Untersuchungsdurchführung bestimmt (A-priori-Teststärkeanalyse).
  • Was lässt sich über die Teststärken von Signifikanztests aussagen, bei denen eine Nil-Nullhyhpothese, eine 1 %-Minimum-Effekt-Nullhypothese oder eine 5 %-Minimum-Effekt- Nullhypothese verwendet wird?

    Lösung

    Unter sonst gleichen Bedingungen ist die Teststärke bei einem Signifikanztestmit Nil-Nullhypothese höher als bei 1 %-Minimum-Effekt-Nullhypothese. Bei einer 5 %-Minimum- Effekt-Nullhypothese ist die Teststärke am geringsten.
  • Was ist zu beachten, wenn bei einem Signifikanztest die Nullhypothese (Nil-Nullhypothese oder Minimum-Effekt-Nullhypothese) die von den Forschenden inhaltlich begründete und zu prüfende Wunschhypothese ist?

    Lösung

    Wenn die Nullhypothese die Wunschhypothese ist, muss die Teststärke des Signifikanztests möglichst hoch sein. Dies wird erreicht durch
    a) großen bzw. optimalen Stichprobenumfang,
    b) liberalisiertes Signifikanzniveau (? = 10 %) sowie
    c) zweiseitigen Test.
  • Eine Grundsatzkritik am klassischen Nil-Nullhypothesen-Signifikanztest lautet, er sei informationslos, weil letztlich jede empirische Studie ein signifikantes Ergebnis erzeugen könne, wenn nur eine entsprechend große Stichprobe gewählt wird. Wie ist mit dieser Kritik bei der statistischen Hypothesenprüfung umzugehen?

    Lösung

    Der klassische Signifikanztest ist nicht informationslos, wenn die statistische Signifikanz im Kontext der Stichprobengröße, Teststärke und Effektgröße interpretiert wird.
  • Was versteht man im Kontext von Minimum-Effekt-Tests unter einem F-Äquivalent?

    Lösung

    Ein F-Äquivalent drückt einen Populationseffekt aus, bei dem der Signifikanztest eine definierte Teststärke von 50 % oder 80 % hat.
  • Grenzen Sie vier verschiedene Formen der wissenschaftlichen Forschungssynthese charakterisierend voneinander ab!

    Lösung

    1. Narratives Review: Überblick über ein Forschungsfeld oder eine Forschungsfrage, wobei Literatursammlung und Ergebnisbewertung keinen festen Regeln folgen.
    2. Systematisches Review: Überblick über ein Forschungsfeld oder eine Forschungsfrage, wobei Literatursammlung und Ergebnisbewertung festen Regeln folgen und oft auch eine (quantitative) Metaanalyse enthalten.
    3. Quantitative Metaanalyse: Statistische Zusammenfassung eines einheitlichen Pools an quantitativen Studien zur Schätzung des Gesamteffekts (meist inklusive Moderatorvariablen-Analyse).
    4. Qualitative Metaanalyse: Interpretative Zusammenfassung eines einheitlichen Pools an qualitativen Studien zur Beantwortung einer konkreten Forschungsfrage (in der Praxis bislang kaum etabliert).
  • Was versteht man im Kontext der Metaanalyse unter abhängigen Untersuchungsergebnissen? Wie ist mit ihnen zu verfahren?

    Lösung

    Abhängige Untersuchungsergebnisse sind Teilergebnisse einer einzelnen Primärstudie, die an derselben Stichprobe gewonnen wurden. Teilergebnisse einer Primärstudie sollten nicht mehrfach in eine Metaanalyse eingebracht werden. Entweder man wählt ein Teilergebnis pro Primärstudie aus oder man aggregiert die Teilergebnisse einer Primärstudie zu einem Gesamtbefund, der einmalig mit dem Stichprobenumfang der Primärstudie in die Metaanalyse eingeht.
  • Was ist das ?-Maß und wozu wird es benötigt?

    Lösung

    Das ?-Maß ist ein universelles Effektgrößenmaß, in das fast jedes testspezifische Effektgrößenmaß (z.B. Gruppendifferenz-, Zusammenhangs- oder Varianzaufklärungsmaß) überführt werden kann. Die ?-Maße verschiedener Tests bzw. Untersuchungen sind dann direkt vergleichbar bzw. statistisch im Rahmen einer Metaanalyse aggregierbar. Das ?-Maß entspricht der bivariaten Produkt-Moment-Korrelation, d. h., es ist ein Korrelationsäquivalent.
  • Was sind kombinierte Signifikanztests?

    Lösung

    Wenn Primärstudien metaanalytisch zusammengefasst werden sollen, bei denen Angaben über Effektgrößen ganz oder teilweise fehlen, können mithilfe eines kombinierten Signifikanztests zumindest drei Typen von Aussagen getroffen werden:
    – Aussagen über statistisch signifikante Ergebnisse:
    – Deskriptiv: Ob signifikante Ergebnisse häufiger als nicht-signifikante auftreten (Vote Counting).
    – Test: Ob überzufällig mehr Ergebnisse signifikant als nicht-signifikant sind (Binomialtest).
    – Aussagen über positive (hypothesenkonforme) Ergebnisse:
    – Test: Ob mehr positive (hypothesenkonforme) als negative Ergebnisse (unabhängig von ihrer Signifikanz) vorliegen (Vorzeichentest).
    – Aussagen über die Irrtumswahrscheinlichkeiten:
    – Test: Ob die exakten Irrtumswahrscheinlichkeiten der Studien insgesamt die Signifikanzschwelle von 5 % unterschreiten (Stouffer-Test).
    – Test: Zusammenfassung exakter Irrtumswahrscheinlichkeiten und Stichprobenumfänge bei Zweigruppenvergleichen durch ein Korrelationsäquivalent (requivalent) und Konfidenzintervallbestimmung.
  • Was versteht man unter dem Publication-Bias? Wie geht man mit diesem Problem im Kontext der Metaanalyse um?

    Lösung

    Mit dem Publication-Bias ist gemeint, dass veröffentlichte Studien oftmals in der Richtung verzerrt sind, dass sie verstärkt hypothesenkonforme und signifikante Ergebnisse berichten und somit die untersuchten Effekte systematisch überschätzen. Denn hypothesenkonträre und nicht-signifikante Ergebnisse, die ebenfalls vorliegen und für die Gesamtbewertung des Effektes wichtig sind, bleiben oft unveröffentlicht.
    Da der Publication-Bias zu einer systematischen Überschätzung des interessierenden Effektes führt, sollten im Kontext der Metaanalyse folgende Gegenmaßnahmen ergriffen werden:
    1. Bei der Studienbeschaffung bemüht man sich, auch unveröffentlichte Studien (z. B. interne Projektberichte) zu finden und einzubeziehen, um einen weniger verzerrten Studienpool zu bilden (Maßnahmen hierzu sind jedoch nicht standardisiert, so dass von diesem Vorgehen teilweise auch abgeraten wird).
    2. Man fertigt einen Funnel-Plot an und prüft, ob die Darstellung auffällige Asymmetrien aufweist. Ist der Funnel-Plot weitgehend symmetrisch, liegt kein nennenswerter Publication-Bias vor.
    3. Man berechnet eine widerlegungssichere Untersuchungszahl, d. h. das „Fail-Safe-N“ (NFS), und prüft, ob NFS ? 5 ? k + 10 ist. In diesem Falle kann man davon ausgehen, dass ein signifikantes metaanalytisches Ergebnis der k Untersuchungen „widerlegungssicher“ ist.
    4. Ist auf der Basis des Funnel-Plots und/oder der Fail-Safe-N-Methode von einem deutlichen Publication-Bias auszugehen, so kann mittels Trim-and-Fill-Prozedur eine korrigierte Effektgrößenschätzung vorgenommen werden, die darauf basiert, dass der Einfluss unveröffentlichter „Schubladen-Studien“ abgeschätzt wird.
  • Wozu dient eine A-priori-Teststärkeanalyse im Kontext der Metaanalyse, welche Probleme sind damit verbunden und wie ist mit ihnen umzugehen?

    Lösung

    Mittels A-priori-Teststärkeanalyse wird generell bestimmt, welcher Mindeststichprobenumfang („optimaler Stichprobenumfang“) notwendig ist, damit ein Signifikanztest anhand der verwendeten Datenbasis überhaupt die Chance hat, einen Populationseffekt bestimmter Größe durch ein signifikantes Ergebnis aufzudecken. Prinzipiell sind A-priori-Teststärkeanalysen bei Metaanalysen ebenso wie bei Primärstudien sinnvoll, damit keine Studien geplant und durchgeführt werden, die sich im Nachgang mangels Teststärke als gar nicht aussagekräftig erweisen („underpowered studies“). Im Kontext der Metaanalyse durch A-priori-Teststärkeanalysen festzulegen, wie viele Primärstudien der zu aggregierende Studienpool enthalten muss, um a) die Homogenität der Einzeleffekte und b) die Signifikanz des Gesamteffekts mit ausreichender Teststärke prüfen zu können, ist vor allem deswegen problematisch, weil für die Teststärkebestimmung (vor allem des Homogenitätstests) im Vorfeld sehr genaue Kenntnisse des zu sammelnden Studienpools notwendig sind (Anzahl der Studien, Fallzahl pro Studie, mögliche Moderatorvariablen, Anzahl der Subgruppen pro Moderatorvariable, Anzahl der Studien pro Subgruppe, Effektgrößen in den Subgruppen etc.). Entsprechende Vorgaben sind meist sehr spekulativ. Selbst wenn es plausibel möglich wäre, diese Randbedingungen realistisch abzuschätzen und auf dieser Basis einen optimalen Stichprobenumfang festzulegen, stellt sich dann die Frage, ob es im jeweiligen Forschungsfeld überhaupt möglich ist, eine entsprechend große Zahl an thematisch einschlägigen und methodisch hochwertigen Studien zu finden. Angesichts dieser Probleme bleibt oft nur die Möglichkeit, die A-priori-Teststärkeanalyse zu überspringen und das Teststärkeproblem a posteriori zu behandeln, also nachträglich mögliche Teststärkeprobleme der Metaanalyse aufzudecken und in der Ergebnis-Diskussion anzusprechen. Es lässt sich argumentieren, dass eine metaanalytische Auswertung eines Studienpools auch bei geringer Studienzahl sinnvoll ist, da sie in eine systematische Zusammenfassung mündet, die methodenkritisch bewertet wird. Wird auf diese Form der systematischen Forschungssynthese verzichtet, versuchen Leserinnen und Leser intuitiv den Gesamteffekt abzuschätzen (z. B. durch einfaches Auszählen von Signifikanzen), was noch stärkeren Verzerrungen unterworfen ist.
  • Was unterscheidet eine Metaanalyse von einer Primärstudie und was sind die Vorteile der Metaanalyse?

    Lösung

    Eine Metaanalyse fasst die Ergebnisse einzelner Primärstudien zusammen, die sich auf die gleiche Fragestellung oder Hypothese beziehen. In der Metaanalyse sind jeweils ganze Primärstudien die Untersuchungseinheiten, während in Primärstudien in der Regel einzelne Personen oder Objekte die Untersuchungseinheiten bilden. Während Primärstudien Einzeleffekte abschätzen, wird mittels Metaanalysen ein Gesamteffekt in der Population geschätzt. Durch die breitere Datenbasis und damit höhere Teststärke ist die Metaanalyse besser als eine Primärstudie in der Lage, einen wahren Populationseffekt aufzudecken und dessen Größe präzise abzuschätzen. Zusätzlich können im Zuge einer Metaanalyse mittels Moderatorvariablen-Analyse die Umstände untersucht werden, unter denen der Effekt stärker oder schwächer ausfällt. Zusammenfassend lässt sich festhalten, dass eine Metaanalyse eine Primärstudie hinsichtlich interner und statistischer Validität sowie externer und Konstrukt-Validität in der Regel übertrifft.
  • Welche Aussagen sind richtig?
    a. Das Fixed-Effect-Modell geht davon aus, dass sich die zu aggregierenden Primärstudien systematisch unterscheiden.
    b. Das Random-Effects-Modell postuliert, dass in jeder Primärstudie eine andere Populationseffektgröße geschätzt wird.
    c. Ob ein Fixed-Effect- oder ein Random-Effects-Modell zum Einsatz kommen soll, ist vor der Durchführung der Metaanalyse inhaltlich-konzeptuell zu entscheiden.
    d. Im Fixed-Effect-Modell und im Random-Effects-Modell werden Studien mit geringem Stichprobenumfang geringer gewichtet.

    Lösung

    Richtig sind: b, c und d
  • Welche Aussagen sind falsch?
    a. Die Teststärke einer Metaanalyse übertrifft durch den größeren Gesamtstichprobenumfang die Teststärke der Primärstudien.
    b. Werden die unabhängigen Variablen in den Primärstudien unterschiedlich operationalisiert, sollte die Art der Operationalisierung als Moderatorvariable in der Metaanalyse berücksichtigt werden.
    c. Eine Zusammenfassung von Effektgrößen im Fixed-Effect-Modell ist nur sinnvoll, wenn die untersuchungsspezifischen Effektgrößen zumindest schwach heterogen sind.
    d. Eine vergleichbare Operationalisierung der abhängigen Variablen ist bei der Metaanalyse im Random-Effects-Modell nicht notwendig.

    Lösung

    Falsch sind: c und d
  • In welchen inhaltlichen Forschungsfeldern wurde die quantitative Metaanalyse ursprünglich entwickelt und wo kommt sie heute vermehrt zum Einsatz?

    Lösung

    Die quantitative Metaanalyse wurde in der Psychologie in den 1970er-Jahren entwickelt, vor allem im Zusammenhang mit der Erforschung von Psychotherapie-Wirkungen und interpersonalen Erwartungseffekten (Versuchsleiter-Effekt, Lehrererwartungs-Effekt). Heute spielt sie in der Psychologie, der Medizin und der Erziehungswissenschaft eine große Rolle. Sie dient vor allem dazu, den Forschungsstand zur Wirksamkeit von Maßnahmen (psychotherapeutische, medizinische, pädagogische Interventionen) zusammenfassend bewerten zu können. In der Medizin hat sich die Cochrane-Collaboration und in den Sozialwissenschaften die Campbell-Collaboration jeweils als Expertennetzwerk gebildet, das systematische Reviews und Metaanalysen nach strengen Qualitätskriterien erstellt und publiziert.
  • Welche Vorteile bietet die Analyse von Strukturgleichungsmodellen in den Human- und Sozialwissenschaften gegenüber Methoden auf der Ebene von beobachteten Variablen, wie z. B. Regressionsanalysen?

    Lösung

    Es gibt zumindest vier mögliche Vorteile.
    1. Reliabilität: Beobachtete Variablen enthalten oftmals Messfehleranteile. Bei mehreren Messungen pro Konstrukt können zufällige Messfehler in Strukturgleichungsmodellen berücksichtigt werden, so dass Schätzungen der Beziehungen zwischen Konstrukten unbeeinträchtigt von Messfehlern sind.
    2. Validität: Jedes Konstrukt kann durch mehrere unterschiedliche beobachtete Variablen operationalisiert werden (z.B. mehrere Tests oder Fragebögen). Wenn keine beobachtete Variable für sich alleine das Konstrukt optimal repräsentiert, werden durch die gleichzeitige Berücksichtigung mehrerer beobachteter Variablen validere Aussagen über das Konstrukt möglich.
    3. Komplexität: In Strukturgleichungsmodellen können komplexe Beziehungen vieler Variablen simultan analysiert werden, für die sonst mehrere einzelne Analysen durchgeführt werden müssten.
    4. Konfirmatorische Analyse: Mit Strukturgleichungsmodellen kann man konfirmatorisch prüfen, ob alle insgesamt bestehenden Beziehungen zwischen den beobachteten Variablen durch aufgestellte theoretische Annahmen zu erklären sind oder nicht.
  • Was sind manifeste und latente Variablen?

    Lösung

    Manifeste Variablen sind beobachtete Variablen (Indikatorvariablen), die zur Messung von latenten Variablen verwendet werden. Latente Variablen entsprechen theoretischen Konstrukten und sind damit nicht direkt beobachtbar. Ein inhaltlich definiertes psychologisches Konstrukt kann als latente Variable eines Strukturgleichungsmodells aufgefasst werden, wenn es mit lokal stochastisch unabhängigen manifesten Indikatorvariablen gemessen werden kann.
  • Was ist eine Mediatorvariable?

    Lösung

    Eine Mediatorvariable ist eine Variable, die ein Zwischenglied darstellt in einer angenommenen Beeinflussungskette von einer ersten Variable (Prädiktor) über eine zweite Variable (Mediator) auf eine dritte Variable (Kriterium). Die Mediatorvariable ist damit gleichzeitig abhängige Variable (sie wird durch die erste Variable vorhergesagt) wie auch unabhängige Variable (sie selbst sagt die dritte Variable vorher). Die Analyse solcher Mediatoreffekte ist mit Strukturgleichungsmodellen gut möglich, weil Variablen darin gleichzeitig Prädiktor- und Kriteriumsvariable sein können. Zur Abgrenzung: Bei Mediation verläuft die Beziehung zwischen Prädiktor- und Kriteriumsvariable vermittelt (mediiert) über eine dritte Variable zwischen Prädiktor und Kriterium (die Mediatorvariable). Bei Moderation dagegen verändert sich die Stärke der Beziehung zwischen Prädiktor- und Kriteriumsvariable abhängig vom Wert einer dritten Variable (der Moderatorvariablen).
  • Welche Teilmodelle kann man in Strukturgleichungsmodellen unterscheiden? Welche Beziehungen werden darin festgelegt?

    Lösung

    Man kann Messmodelle und Strukturmodelle unterscheiden. In Messmodellen wird dargestellt, wie Konstrukte gemessen werden, d. h. es werden die Beziehungen zwischen latenten und manifesten Variablen festgelegt. In Strukturmodellen werden Beziehungen zwischen Konstrukten dargestellt, d. h. Effekte zwischen den latenten Variablen untereinander. Dies können ungerichtete Beziehungen zwischen den latenten Variablen sein, gerichtete Effekte der exogenen Variablen auf endogene Variablen sowie gerichtete Effekte zwischen endogenen Variablen.
  • Was ist ein Skalierer? Wofür wird er benötigt?

    Lösung

    Pro latenter Variable wird die Faktorladung einer zugeordneten manifesten Variablen auf den Wert 1 fixiert. Diese manifeste Variable, deren Faktorladung vorgegeben wird, dient als Skalierer, um die Varianz der latenten Variable festzulegen. Die nicht beobachtbare Varianz der latenten Variablen wird so an der beobachtbaren Varianz der zugeordneten manifesten Variablen orientiert.
  • Was ist die modelltheoretische Kovarianzmatrix? Welche Einträge stehen darin?

    Lösung

    Die modelltheoretische Kovarianzmatrix enthält die im Modell reproduzierten Varianzen und Kovarianzen der manifesten Variablen, d. h.Werte für die Varianzen und Kovarianzen, wie sie sich aus den angenommenen Beziehungen und den dafür geschätzten Parametern ergeben.
  • Welche Hypothese prüft der ?²-Test im Zusammenhang mit Strukturgleichungsmodellen? Soll der Test für ein Modell, das zu den Daten passt, signifikant sein oder nicht?

    Lösung

    Der ?²-Test prüft die Hypothese, dass modelltheoretische und empirische Kovarianzmatrix nicht voneinander abweichen, d. h. dass das Modell die empirischen Varianzen und Kovarianzen perfekt reproduzieren kann. Für ein passendes Modell sollte das Ergebnis nicht signifikant sein, also keine Abweichungen anzeigen (hier ist somit die Nullhypothese die Wunschhypothese).
  • Angenommen, Sie möchten die vermuteten Zusammenhänge zwischen 4 Konstrukten mit einer konfirmatorischen Faktorenanalyse untersuchen. Zu jedem Konstrukt haben Sie Daten von zwei beobachteten Variablen erhoben. Ist dies ausreichend, damit das Modell identifiziert ist?

    Lösung

    Vorausgesetzt, dass die Konstrukte wie vermutet zusammenhängen, ist das Modell identifiziert: Bei k = 8 beobachteten Variablen erhalten Sie s = k(k + 1) / 2 = 36 empirische Varianzen und Kovarianzen. Hieraus würden Sie t = 22 Parameter schätzen: 8 Fehlervarianzen, 4 Faktorladungen (die 4 übrigen wären zur Skalierung auf den Wert 1 festgelegt), 4 Varianzen und 6 Kovarianzen der Konstrukte, entsprechend df = 36 ? 22 = 14. Dies funktioniert allerdings nur, wenn die Konstrukte tatsächlich zusammenhängen, denn mit nur jeweils 2 beobachteten Variablen wären die Messmodelle jedes einzelnen Konstruktes für sich alleine nicht identifiziert. Es wäre also sicherer, mehr beobachtete Variablen pro Konstrukt zu erheben.
  • Sie prüfen einen angenommenen Effekt von Arbeitsanforderungen auf Burnout mit einem Strukturgleichungsmodell. Die Analyse der Daten von N = 185 Beschäftigten ergibt einen standardisierten Pfadkoeffizienten der Arbeitsanforderungen auf Burnout von .38, p = .042. Als Modellgütekriterien erhalten Sie ?² = 55.40, df = 30, p = .003 sowie RMSEA = .18 und CFI = .83. Wie interpretieren Sie das Ergebnis? Besteht der angenommene Effekt?

    Lösung

    Der Effekt ist zwar signifikant, aber eine inhaltliche Aussage nicht sinnvoll, da das Modell nicht zu den Daten passt. Der ?²-Test zeigt signifikante Abweichungen zwischen Modell (modelltheoretische Kovarianzmatrix) und Daten (empirische Kovarianzmatrix) an. Zwar kann ein signifikantes Testergebnis in großen Stichproben auch durch sehr geringe Abweichungen zwischen Modell und Daten zustande kommen, die womöglich praktisch unbedeutend wären. Die deskriptiven Kriterien RMSEA und CFI weisen jedoch auf erhebliche Abweichungen zwischen Modell und Daten hin. Bei einem Modell, welches nicht zu den Daten passt, können die Ergebnisse der Parameterschätzung sinnfrei sein und sollten daher nicht interpretiert werden.
  • Sie untersuchen einen angenommenen Effekt von Burnout bei Mitarbeitern auf deren Kündigungsneigung mithilfe eines Strukturgleichungsmodells. Sie erhalten Daten von N = 112 Beschäftigten. Die Analyse ergibt einen signifikanten Effekt von Burnout auf die Kündigungsneigung (standardisierter Pfadkoeffizient .32, p = .011). Das Modell passt offenbar gut zu den Daten (?² = 9.32, df = 8, p = .316). Für das Item „Ich suche gezielt nach Stellenangeboten, die für mich infrage kommen“ erhalten Sie als standardisierte Parameterschätzungen eine Faktorladung von 1.05 und eine Fehlervarianz von ?.10.Wie interpretieren Sie dieses Ergebnis? Besteht der vermutete Effekt?

    Lösung

    Die negative Fehlervarianzschätzung des Items zusammen mit der standardisierten Faktorladung > 1 weisen auf einen Heywood Case hin, d. h. die Parameterschätzung hat Werte geliefert, die zwar die dem Modell zugrunde liegenden Gleichungen erfüllen, die aber empirisch unmöglich sind: Varianzen können nicht negativ sein. Selbst wenn das Item „Ich suche gezielt nach Stellenangeboten, die für mich infrage kommen“ die Kündigungsneigung gut misst, wird es keine perfekte Messung sein, sondern in der Praxis eine positive Fehlervarianz haben. Schätzergebnisse, die einen Heywood Case darstellen, sollten nicht interpretiert werden, eine Aussage über den vermuteten Effekt ist daher so nicht möglich. Ein Grund könnte in der für ein Strukturgleichungsmodell hier recht kleinen Stichprobe liegen, so dass mehr Daten oder womöglich eine andere Schätzmethode Abhilfe schaffen könnten.
  • Worin besteht der Unterschied zwischen formativer und summativer Evaluation?

    Lösung

    Die bilanzierend-summative Evaluation zielt auf eine abschließende Bewertung des Evaluationsgegenstandes, die gestaltend-formative Evaluation soll dagegen zu dessen schrittweiser Verbesserung beitragen.
  • Was kennzeichnet interne versus externe Evaluation und Selbst- versus Fremdevaluation?

    Lösung

    Rollenverteilung: Bei der Selbstevaluation wird die Evaluation einer Maßnahme von den Praktikern selbst organisiert und durchgeführt, sie sind Evaluierte und Evaluierende in Personalunion. Bei der Fremdevaluation sind Evaluierte und Evaluierende dagegen unterschiedliche Personen. Institutionelle Zugehörigkeit: Bei der Fremdevaluation wird weiter differenziert, ob die Evaluierenden derselben Institution angehören wie diejenigen, die auch für die Maßnahme verantwortlich ist (interne Fremdevaluation), oder ob sie aus einer anderen Institution stammen (externe Fremdevaluation). Eine Selbstevaluation ist definitionsgemäß immer intern.
  • Grenzen Sie Interventions- und Evaluationsforschung voneinander ab!

    Lösung

    Im Rahmen der Interventionsforschung werden Produkte, Methoden oder Veränderungsmaßnahmen entwickelt, im Rahmen der Evaluationsforschung werden sie bewertet.
  • Was versteht man unter dem CIPP-Modell?

    Lösung

    Das CIPP-Modell ist eine Variante des systemischen Evaluationsansatzes, der darauf abzielt, den Evaluationsgegenstand möglichst ganzheitlich im Kontext sowie im zeitlichen Verlauf zu betrachten. Gemäß CIPP-Modell werden Evaluationsstudien konzipiert und durchgeführt, die aus vier Teil-Evaluationen bestehen (Context-, Input-, Process- und Product- Evaluation).
  • Was unterscheidet die nutzungsorientierte von der partizipativen Evaluationsforschung?

    Lösung

    Sowohl bei nutzungsorientierten als auch bei partizipativen Evaluationsansätzen spielt die Einbeziehung der Stakeholder eine herausgehobene Rolle. Dabei orientiert sich die nutzungsorientierte Evaluation gemäß einer pragmatischen Philosophie vor allem an den intendierten Nutzerinnen und Nutzern der empirischen Evaluationsergebnisse. Sie sollen darin unterstützt werden, die Evaluationsergebnisse praktisch fruchtbar zu machen (z. B. Auftraggeber, Entscheidungsträger in Wirtschaft und Politik). Demgegenüber verfolgt die partizipative Evaluation gemäß einer demokratischen Philosophie das Ziel, die Betroffenen einer Maßnahme (insbesondere unterprivilegierte Zielgruppen) möglichst umfassend in Konzeption, Durchführung, Auswertung und Interpretation der Evaluationsstudie einzubeziehen und dadurch auch einen Beitrag zu ihrem Empowerment zu leisten.
  • Welche Ziele im Kontext der Evaluationsforschung verfolgen Metaanalyse und Metaevaluation?

    Lösung

    Eine Metaanalyse fasst die Befunde mehrerer einzelner Evaluationsstudien zum selben Evaluationsgegenstand statistisch zusammen und liefert somit eine Gesamtbewertung des Evaluationsgegenstandes, etwa seiner Effektivität oder Effizienz. Eine Metaevaluation betrachtet Evaluationsstudien dagegen nicht imHinblick auf ihre Ergebnisse, sondern auf ihre methodische Qualität; vor allem die Einhaltung von Evaluationsstandards wird geprüft.
  • Gute grundlagenwissenschaftliche Studien müssen Kriterien der methodischen und ethischen Strenge genügen.Wo sind diese in den Evaluationsstandards abgebildet?

    Lösung

    Methodische Strenge: v. a. Genauigkeitsstandards; ethische Strenge: v. a. Fairnessstandards.
  • Mit welchen Methoden wird die Effizienz eines Evaluationsgegenstandes im Kontext der ökonomischen Evaluation ermittelt?

    Lösung

    Kosten-Effektivitäts-Analyse, Kosten-Nutzwert-Analyse, Kosten-Nutzen-Analyse
  • Angenommen, die zahnmedizinische Versorgung soll dadurch verbessert werden, dass bei schmerzhaften Behandlungen auf die Injektion von Schmerzmitteln verzichtet und stattdessen mit modernen Hypnosetechniken gearbeitet wird. Hypnosetherapie hätte den Vorteil, dass Medikamente eingespart werden (Kostenersparnis, geringere Belastung des Organismus) und sich die Patienten während und nach der Behandlung evtl. besser fühlen. In einer Großstadt werden zufällig 5 Zahnarztpraxen, die mit Hypnose arbeiten, und 3 Praxen, die herkömmliche Methoden der Schmerzbehandlung einsetzen, ausgewählt. Während einer 4-wöchigen Untersuchungsphase wird direkt nach jeder Behandlung auf gesonderten Erhebungsbögen notiert, wie unangenehmdie Behandlung für den Patienten war (gar nicht, wenig, teils teils, ziemlich, völlig) und ob der Patient eine bessere Schmerzversorgung wünscht (ja, nein). Zudem werden Alter (in Jahren), Geschlecht (weiblich/männlich; zur Operationalisierung von Geschlecht Abschn. 8.4) und Art der Behandlung (z. B. Wurzelbehandlung, Krone, Inlay) aufgezeichnet. Am folgenden Tag wird telefonisch nachgefragt, ob nach der Behandlung noch unangenehme Nachwirkungen auftraten (gar nicht, wenig, teils teils, ziemlich, völlig). Wie würden Sie diese Evaluationsstudie anhand der folgenden Merkmale charakterisieren?
    1. Evaluationsfrage?
    2. Unabhängige Variable (und Skalenniveau)?
    3. Moderatorvariablen (und Skalenniveau)?
    4. Abhängige Variablen (und Skalenniveau)?
    5. Datenerhebungsmethode?
    6. Untersuchungsdesign?
    7. Verhältnis von Interventions- und Evaluationsstichprobe?
    8. Erfolgskriterium?

    Lösung

    1. Evaluationsfrage: Ist eine Hypnosebehandlung der herkömmlichen Schmerztherapie überlegen oder zumindest gleichwertig?
    2. Unabhängige Variable: Form der Schmerztherapie (Hypnose oder Schmerzmittel), nominale bzw. dichotome Variable
    3. Moderatorvariablen: Geschlecht und Art der Zahnbehandlung (beide nominalskaliert), Alter (kardinalskaliert)
    4. Abhängige Variablen: Intensität negativer Empfindungen während und nach der Behandlung (jeweils fünf äquidistante Intensitätsstufen; kardinalskaliert); Zufriedenheit mit der Behandlung (bessere Versorgung gewünscht ja/nein, nominalskaliert)
    5. Datenerhebungsmethode: Standardisierte Befragung der Patienten (mündlich und fernmündlich)
    6. Untersuchungsdesign: Quasi-experimentelle Untersuchung mit einer Experimentalgruppe (Hypnose) und einer Kontrollgruppe (Schmerzmittel). (Randomisierung ist vermutlich nicht möglich, da viele Patienten selbst über die Behandlungsform entscheiden wollen)
    7. Verhältnis von Interventions- und Evaluationsstichprobe: Da es sich nicht um ein gezielt initiiertes Interventionsprojekt handelt, ist die Interventionsstichprobe (Anzahl der Patienten, die unter Hypnose behandelt werden) unbekannt
    8. Erfolgskriterium: Die Experimentalgruppe empfindet die Behandlung deutlich und statistisch signifikant weniger unangenehm und wünscht seltener eine bessere Versorgung als die Kontrollgruppe (gerichtete Alternativhypothese als „starkes“ Erfolgskriterium).
  • Diskutieren Sie für das obige Beispiel die Problematik der internen und externen Validität. Angenommen, es stellt sich heraus, dass die Hypnosegruppe tatsächlich weniger Beschwerden berichtet als die Kontrollgruppe; welche Störeinflüsse könnten die interne Validität beeinträchtigt haben? Inwiefern sind Ergebnisse dieser Studie generalisierbar?

    Lösung

    – Interne Validität: Wie könnte ein positives Resultat bei der Experimentalgruppe zustande kommen, obwohl „in Wirklichkeit“ die Hypnosebehandlung gar nicht wirksam ist?
    – Probandeneffekt: Wer sich für die Hypnosebehandlung entscheidet, ist weniger schmerzempfindlich (Problem der Selbstselektion bei dem vorliegenden quasi-experimentellen Design, Schmerzempfindlichkeit wäre als Kontrollvariable zu erheben).
    – Arzteffekt: Ärzte, die Hypnose anbieten, arbeiten besonders gut und schmerzfrei.
    – Behandlungseffekt: Hypnose wird besonders bei „leichteren“, weniger schmerzintensiven Behandlungen eingesetzt (die Art der Behandlung wäre als Kontrollvariable bzw. Moderatorvariable zu berücksichtigen).
    – Externe Validität: Zur Zielpopulation gehören prinzipiell alle Zahnarztpatientinnen und -patienten. Bei der realisierten Stichprobe von Zahnarztpraxen ist jedoch zunächst nur auf die Gesamtheit der Patienten der lokalen Zahnarztpraxen der untersuchten Großstadt zu generalisieren.
  • Fertig!

    Zurück zu Frage 1
Zurück
Frage 1 von 309
Weiter

Dozentenmaterialien

Hier finden Sie die zum Buch gehörenden Dozentenmaterialien.
Registrieren Sie sich, oder melden Sie sich an, falls Sie bereits registriert sind.