Forschungsmethoden in Psychologie und Sozialwissenschaften für Bachelor

hussy_cover.png

Forschungsmethoden in Psychologie und Sozialwissenschaften für Bachelor

ISBN: 
978-3-642-34361-2

Quantitative und qualitative Methoden sind das Fundament aller Sozialwissenschaften und deshalb allgegenwärtig im Studium. Vielen fällt die »Methodik« nicht leicht, insbesondere wenn unter Zeit- und Erfolgsdruck gelernt werden muss. Aber halt: Jeder kann die Forschungsmethoden verstehen! Dieses Buch bietet einen leichten Einstieg und einen verständlichen Gesamtüberblick über alle wichtigen Verfahren, ihre Einsatzgebiete, Stärken und Schwachpunkte.

Weiterlesen

Das Buch ist gleichzeitig kompakt und doch vollständig: Neben grundlegenden Informationen zu wissenschaftlichem Arbeiten, Hypothesen, Variablen u.v.m. werden ausführlich die wichtigsten quantitativen und qualitativen Methoden beschrieben und - dem aktuellen Trend folgend – Kombinationen aus beiden, die sog. Mixed Methods. Die zweite Auflage wurde aktualisiert und um einige neue Aspekte ergänzt, z.B. Datenerhebung im Internet oder neurowissenschaftliche Methoden.

Alles ist lernfreundlich aufbereitet: Mit Fallbeispielen, Definitionen, Tipps für die Praxis, Lernzielen, Kontrollfragen und vertiefender Literatur. 

Für Studierende der Psychologie und Sozialwissenschaften sowie für alle, die einen verständlichen Einstieg in die Forschungsmethoden suchen.

 

Datei: 
AnhangGröße
PDF icon probeseiten.pdf533.38 KB
Datei: 
AnhangGröße
PDF icon inhaltsverzeichnis.pdf425.6 KB
BegriffErklärung
Abbildungensind systematisierende Darstellungen komplexer Zusammenhänge.
AbleitungsvaliditätDie Ableitungsvalidität der Hypothesenprüfung ist gegeben, wenn die Entscheidung auf der Ebene der Testhypothesen tatsächlich die a priori aufgestellte Theoretisch-inhaltliche Hypothese (TIH) prüft, wenn also die Liberalisierungsschritte (von der TIH in Richtung der Empirisch-inhaltliche Hypothese, der Statistischen Vorhersage und der Ebene der Testhypothesen) nicht zu einer inhaltlichen, formalen oder statistischen Veränderung der Ausgangshypothese führen.
Abweichender FallBeim diesem weist das interessierende Phänomen eine ungewöhnliche Ausprägung auf.
Ad-hoc-Fragensind Interviewfragen, die nicht vorab geplant sind, sondern spontan im Interviewverlauf generiert werden. Sie dienen der Vertiefung unerwarteter Aspekte.
Artefakte bei physiologischen Messungensind Signale, die nicht durch den interessierenden physiologischen bzw. biopsychologischen Prozess, sondern durch andere Faktoren (z. B. externe Quellen elektrischer Potenziale wie etwa Radiosender oder Mobiltelefone) verursacht werden. Es handelt sich also um Signale, die einen anderen Ursprung haben als das interessierende Biosignal.
Weitere Begriffe
Zurück
Frage 1 von 254
Weiter
  • Womit beschäftigt sich die Wissenschaft Psychologie?

    Lösung

    Die Wissenschaft Psychologie beschäftigt sich mit dem Erleben, Verhalten und Handeln des Menschen. Man spricht auch davon, dass der Gegenstand der Wissenschaft Psychologie das Erleben, Verhalten und Handeln des Menschen ist.
  • Nennen Sie einige inhaltliche Beispiele aus dem Gegenstandsbereich!

    Lösung

    1. Welche Prinzipien liegen der Wahrnehmung zugrunde?
    2. Wie verhält sich ein Mensch im Freundeskreis und wie bei Arbeitskollegen?
    3. Welche Bedeutung hat die Intelligenz im schulischen Kontext?
    4. Nach welchen Gesetzmäßigkeiten vollzieht sich das Lernen?
  • Geben Sie einige Gründe für die Methodenvielfalt an!

    Lösung

    1. Der Gegenstand ist sehr vielfältig!
    2. Erleben, Verhalten und Handeln" sind oft nicht direkt beobachtbar und müssen erst mit „methodischer" Hilfe erschlossen werden.
    3. Auch der wissenschaftliche Anspruch ist vielfältig. Man begnügt sich nicht damit, zu den einzelnen Fragen, die einen Wissenschaftler interessieren, sorgfältige Beschreibungen vorzulegen. Vielmehr hat man auch das Ziel, menschliches Erleben, Verhalten und Handeln zu erklären, also Ursachen dafür zu finden, Verhalten vorherzusagen oder gar zu verändern. Diese unterschiedlichen Ziele erfordern ebenfalls vielfältige Methoden.
  • Was bedeutet es, wenn sich eine Wissenschaft als empirisch bezeichnet?

    Lösung

    Eine empirische Wissenschaft ist daran interessiert, Hypothesen und Theorien zu den Fragen zu entwerfen, mit denen man sich gerade beschäftigt. Diese Hypothesen und Theorien werden nun ihrerseits mit der Realität konfrontiert. Man vergleicht also ‒ wie in anderen Naturwissenschaften auch ‒ die gedankliche Antwort auf die Frage mit den in der Realität diesbezüglich vorfindbaren Sachverhalten.
  • Wie ist das prinzipielle methodische Vorgehen einer empirischen Wissenschaft?

    Lösung

    Beim deduktiven Vorgehen versucht der Wissenschaftler, zunächst eine grundlegende Theorie zu finden, die eine Antwort auf seine Frage beinhalten könnte. Im zweiten Schritt leitet er aus dieser Theorie eine vorläufige Antwort auf seine Frage ab, eine sog. Hypothese. Nun führt er eine Untersuchung durch, um anhand der erhobenen Daten zu einer Entscheidung über die Richtigkeit der Hypothese zu kommen - und damit einen Hinweis zu erhalten, ob auch die Theorie als bewährt oder nicht bewährt anzusehen ist. Das induktive Vorgehen entspricht, im Grunde der Alltagsstrategie, Antworten auf Fragen durch das Heranziehen gleichlautender Erfahrungen zu erhalten. Der induktive Schluss vom Einzelnen auf das Allgemeine ist somit nicht unproblematisch; induktive Schlüsse haben nur Wahrscheinlichkeitscharakter, sie lassen sich nicht begründen oder beweisen und sollten stets kritisch hinterfragt werden. Dennoch kommt dieser Methode im Forschungsprozess große Bedeutung zu, da sich neue Regelhaftigkeiten und Gesetzmäßigkeiten mit anderen Methoden nicht erkennen bzw. erschließen lassen.
  • Was ist ein Problem?

    Lösung

    Aus allgemeinpsychologischer Sicht liegt ein Problem vor, wenn ein gegebener Ausgangszustand (eine vorläufige Antwort auf eine Frage) in einen Zielzustand (geprüfte Aussage) überführt werden soll, wobei eine Barriere diese Überführung erschwert.
  • Inwiefern kann man wissenschaftliche Tätigkeit als einen Problemlösevorgang verstehen?

    Lösung

    Die Aufgabe der Wissenschaft besteht, darin, möglichst zuverlässige und gültige Erkenntnisse zu generieren. Somit hat ein Wissenschaftler, der aus seinem Alltagsverständnis heraus nur vorläufige Antworten auf eine Frage besitzt, ein Problem und sein Job ist es, dieses Problem zu lösen. Wissenschaftliches Handeln kann man sich entsprechend als einen Prozess des Problemlösens vorstellen, denn der Wissenschaftler muss die Barriere überwinden, die ihn von einer eindeutigen und gesicherten Antwort auf seine Frage trennt.
  • Was sind psychologische Methoden?

    Lösung

    Unter psychologischen Methoden versteht man Vorgehensweisen, mit deren Hilfe Antworten auf Fragen aus dem Gegenstandsbereich der Psychologie gegeben werden können. Methoden sind folglich eingebunden in einen wissenschaftlichen Problemlöseprozess mit dem Ziel der Generierung von Erkenntnissen.
  • Welche Mittel und Wege zur wissenschaftlichen Erkenntnisgewinnung kennen Sie?

    Lösung

    In der langen Tradition wissenschaftlichen Handelns haben sich sehr viele und unterschiedliche Wege zur Erkenntnisgewinnung (Problemlösestrategien) herausgebildet. Zwei für die Psychologie typische Vorgehensweisen sind zum einen das induktive vs. deduktive Vorgehen und zum anderen der quantitative vs. qualitative Weg. In der Logik versteht man unter Induktion die Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine und Gesetzmäßige. Das umgekehrte Vorgehen kennzeichnet den deduktiven Weg. Unter Deduktion versteht man somit die Ableitung des Besonderen und Einzelnen aus dem Allgemeinen (aus Regeln, Gesetzmäßigkeiten, Modellen, Theorien). Beim quantitativen Ansatz kommen objektiv messende (standardisierte) Verfahren, beim qualitativen Ansatz eher sinnverstehende (unstandardisierte) Verfahren zum Einsatz.
  • Geben Sie ein Beispiel für den Einsatz der Deduktion im Rahmen des experimentellen Vorgehens?

    Lösung

    Um die allgemeine Theorie der Dissonanz nach Festinger mittels der deduktiven Methode zu überprüfen - also um eine Antwort auf die Frage zu erhalten, ob diese Theorie stimmt - muss eine konkrete Hypothese abgeleitet werden, die in einer Untersuchung überprüft werden kann. In einer typischen experimentellen Untersuchung zur Überprüfung dieser Theorie werden Personen vom Versuchsleiter oder von der Versuchsleiterin dazu verleitet, etwas zu tun, was kognitive Dissonanz erzeugt. Wenn die Theorie stimmt, müssten - so die konkrete Hypothese - sie auch in diesem Experiment etwas unternehmen, um die Dissonanz wieder zu reduzieren. Beispielsweise werden die Personen gebeten, recht stupide Aufgaben zu bearbeiten. Ein Teil von ihnen wird dafür gut, der andere Teil schlecht bezahlt. Die schlecht bezahlten Personen berichteten hinterher, dass sie die Aufgaben als interessant empfunden haben, während die gut bezahlten Personen angaben, dass sie die Aufgaben als langweilig empfanden. Wie die Theorie voraussagte, scheint auch hier eine Umbewertung stattgefunden zu haben.
  • Was versteht man unter »Beschreiben durch Operationalisieren«?

    Lösung

    Zum Beschreiben gehört das Operationalisieren, d.h. anzugeben, wie man ein bestimmtes Konzept - wie etwa Angst oder Intelligenz - empirisch erfassen will. Es kann die Form des Definierens annehmen: wenn etwa festlegt wird, dass Intelligenz jener Sachverhalt ist, den der Intelligenztest misst (operationale Definition). Operationalisierung kann auch bedeuten, eine Angabe zum Ausprägungsgrad eines konkreten Merkmals zu machen, das man direkt beobachten kann: „Person X hat einen Intelligenzquotient von 110" stellt eine Beschreibung dar, die durch Operationalisierung gewonnen wird.
  • Wie wird die Zusammenhangsrelation formal dargestellt?

    Lösung

    Die Zusammenhangsbeziehung ist ungerichtet und wird meist als Linie ohne Pfeil dargestellt.
  • Was versteht man unter einer Erklärung zweiter Ordnung?

    Lösung

    Direkte Abhängigkeiten zwischen zwei Sachverhalten sind in der Psychologie selten zu finden, denn man kann sich in der Regel immer noch nach dem „warum" fragen. Deshalb findet man häufig Konstruktionen, die zwischen der bedingenden und beeinflussten Variablen noch eine sog. intervenierende Variable postulieren, die ihrerseits nicht direkt beobachtbar ist und von daher erschlossen werden muss. Hierbei handelt es sich um Erklärungen zweiter Ordnung.
  • Geben Sie ein Beispiel für eine positive Kausalrelation zwischen zwei Variablen!

    Lösung

    Von einer positiven Kausalrelation spricht man, wenn die Richtung der Veränderung in der bedingenden und beeinflussten Variablen gleichsinnig ist: Je intelligenter Menschen sind, desto ängstlicher sind sie auch.
  • Bei welchen wissenschaftlichen Zielsetzungen spricht man von unabhängigen und abhängigen Variablen bzw. von Prädiktor- und Kriteriumsvariablen?

    Lösung

    Verfolgt man das wissenschaftliche Ziel des „Erklärens", so unterscheidet man die unabhängige (ursächliche) Variable von der abhängigen (beeinflussten) Variablen. Verfolgt man das wissenschaftliche Ziel des Vorhersagens, so unterscheidet man die Prädiktoren (vorhersagenden Variablen) vom Kriterium (der vorherzusagenden Variablen).
  • Wovon hängt die Vorhersagegenauigkeit eines Prognosemodells ab?

    Lösung

    Bedingungen für die Vorhersagegenauigkeit sind also:
    1. Präzision der Beschreibung der am Prognosemodell beteiligten Sachverhalte (Variablen),
    2. adäquate Auswahl der Prädiktoren (welche unabhängigen Variablen haben einen hohen Erklärungswert),
    3. die Gewichtung der Prädiktoren gemäß ihrer empirischen Bedeutung (welche Prädiktoren haben im vorliegenden Datensatz einen hohen Prognosewert) und
    4. der Zeitraum der Prognose (je länger, desto ungenauer).
  • Welche Arten von Veränderungen unterscheidet man?

    Lösung

    Man unterscheidet:
    1. Beeinflussen und Verändern als Korrektur: In diesem Fall gilt der Ausgangszustand als problematisch, gestört oder unnormal.
    2. Beeinflussen und Verändern als Förderung: Bei dieser Zielsetzung strebt man einen höheren, besseren Zustand an, ohne dass der Ausgangszustand als problematisch gilt.
    3. Beeinflussen und Verändern als Prävention: Hier geht es darum, das Eintreten eines schlechten Zustands zu verhindern.
  • Nennen Sie zwei Dimensionen für eine Systematik psychologischer Forschungsmethoden!

    Lösung

    Die erste Dimension unterscheidet qualitative von quantitativen Methoden, die zweite stellt den Bezug der Methoden zu den unterschiedlichen Phasen im Forschungsprozess her.
  • Welchen historischen Hintergrund haben die qualitativen Methoden?

    Lösung

    Neben den an den Naturwissenschaften ausgerichteten quantitativen Methoden entwickelte sich aber auch die ursprünglich geisteswissenschaftliche Ausrichtung der Psychologie weiter. Auf Dilthey geht die sog. geisteswissenschaftliche Psychologie zurück, die mit ihrer hermeneutischen Vorgehensweise die Grundlage für die heutigen qualitativen Methoden legte
  • Was versteht man unter Test-Retest-Reliabilität bzw. Interrater-Reliabilität?

    Lösung

    Die Test-Retest-Reliabilität beschreibt das Ausmaß der Übereinstimmung bei der wiederholten Anwendung eines Tests bei der gleichen Stichprobe.
    Unter Interrater-Reliabilität versteht man die Höhe der Übereinstimmungen der Einschätzungsergebnisse unterschiedlicher Testanwender (Rater).
  • Wie würden Sie die Methode der deskriptiven Feldforschung in die Systematik einordnen?

    Lösung

    Die deskriptive Feldforschung ist ein Forschungsansatz (ein Forschungsdesign) aus dem Bereich der qualitativen Methoden.
  • Geben Sie ein Beispiel für eine qualitative Erhebungsmethode!

    Lösung

    Neben den Interviewmethoden zählt die teilnehmende Beobachtung zu den am häufigsten gewählten Verfahren. Sie wird in der Regel in Kombination mit der deskriptiven Feldforschung eingesetzt und ist die Grundlage dafür, dass die Menschen in ihrer natürlichen Umgebung und im gewohnten Umfeld beobachtet werden können.
  • Nennen Sie eine quantitative Auswertungsmethode (Datenanalyse)!

    Lösung

    Die quantitativen Auswertungsmethoden unterteilt man in die beschreibenden und schlussfolgernden Verfahren. Zu den Beschreibenden Verfahren zählt bspw. die Bestimmung des Mittelwerts.
  • Worin unterscheiden sich Methoden der Intervention und der Evaluation?

    Lösung

    Unter einer Intervention versteht man in der Psychologie geplant und gezielt eingesetzte Maßnahmen, um Störungen vorzubeugen (Prävention), sie zu beheben (Psychotherapie) oder deren negative Folgen einzudämmen (Rehabilitation).
    Die Evaluation hat primär das Ziel, solche praktischen Maßnahmen zu überprüfen, zu verbessern oder über sie zu entscheiden und somit zur Handlungsoptimierung in komplexen Situationen beizutragen.
  • Welches ist der primäre Anwendungsschwerpunkt von diagnostischen Methoden?

    Lösung

    Die Methoden der Diagnostik sind primär die Testverfahren. Ihre Ergebnisse (werden verwendet, um Entscheidungen über nachfolgende Maßnahmen treffen zu können.
  • Nennen Sie ein Beispiel für eine quasiuniverselle Hypothese!

    Lösung

    Wenn Personen intelligent sind, dann sind sie zumeist auch ängstlich.
  • Warum wird diese Hypothesenart in der psychologischen Forschung so häufig verwendet?

    Lösung

    Die quasiuniverselle Hypothese treffen wir im Bereich der psychologischen Forschung am häufigsten an. Sie ermöglicht es, sich dem Ziel, allgemeingültige Aussagen formulieren und überprüfen zu können, anzunähern, erfordert aber andererseits einen großen statistischen und versuchsplanerischen Aufwand für ihre Überprüfung.
  • Formulieren Sie eine universelle Kausalhypothese.

    Lösung

    Wenn Personen intelligent sind, dann sind sie auch ängstlich.
  • Muss man wissenschaftliche Hypothesen in jedem Fall ausführlich begründen?

    Lösung

    Die Begründbarkeit einer Hypothese als Merkmal für ihre Wissenschaftlichkeit. Allerdings muss der Stand der Forschung zum jeweiligen Fragebereich berücksichtigt werden. Eine Hypothese sollte immer dann hinreichend begründet sein, wenn dazu theoretisches und empirisches Wissen in hinreichendem Umfang vorliegt. Allerdings gibt es genügend (neue) Forschungsbereiche, bei welchen kein umfangreiches Vorwissen existiert. Hier wäre es verfehlt, eine differenzierte Hypothesenbegründung zu verlangen, weil diese Forderung aufgrund mangelnden Wissens nicht erfüllbar wäre. Dennoch sollten Forscher sich in jedem Fall bemühen, die Überlegungen nachvollziehbar zu machen, die zur Aufstellung der Hypothese geführt haben.
  • Kann man Hypothesen auch im Nachhinein formulieren?

    Lösung

    In einem Prüfexperiment werden die Hypothesen vor der Untersuchungsdurchführung formuliert, bei einem Erkundungsexperiment dagegen werden die Hypothesen nach der Untersuchung auf der Grundlage der erhobenen Daten aufgestellt.
  • Welches ist der Unterschied zwischen einer hypothesenprüfenden und -generierenden Studie?

    Lösung

    Die hypothesenprüfende Untersuchung (Prüfexperiment) liefert eine geprüfte Aussage. Eine Entscheidung über Annahme oder Zurückweisung der Hypothese ist möglich.
    Die hypothesengenerierende Untersuchung (Erkundungsexperiment) liefert eine ungeprüfte Hypothese. Eine Entscheidung über Annahme oder Zurückweisung der Hypothese ist nicht möglich.
  • Geben Sie ein Beispiel für eine intuitive Hypothesengenerierung!

    Lösung

    Die Entdeckung der Grundlage der klassischen Konditionierung durch Pawlow kann als Beispiel dienen.
  • Beschreiben Sie den induktiven Weg der Hypothesengenerierung!

    Lösung

    Bei der induktiven Hypothesenbildung leitet der Forscher eine generelle Vermutung aus einer Reihe spezifischer Sachverhalte (z. B. aus einer Vielzahl von Einzelbeobachtungen) ab.
  • Welche Position hat die Hypothese im Forschungsprozess?

    Lösung

    Der gesamte Forschungsprozess ist als ein Vorgang des Problemlösens aufzufassen. Wie muss vorgegangen werden, damit die Konfrontation der Hypothese mit der Empirie zu einer Entscheidung über die Hypothese (und die Theorie) führt.
  • Was versteht man unter einer Variablen?

    Lösung

    Variablen sind veränderliche Beobachtungsgrößen. Eine Variable ist somit ein Merkmal, das unterschiedliche Ausprägungsgrade annehmen kann, welches also variiert.
  • Weshalb gibt es im Gegenstandsbereich der Psychologie unzählige Variablen, aber so gut wie keine Konstante?

    Lösung

    Konstanten sind Beobachtungsgrößen mit nur einer Ausprägung. Sie sind im Gegenstandsbereich der Psychologie kaum vorzufinden, weil menschliches Erleben, Verhalten und Handeln durch große Variabilität gekennzeichnet ist. Diese Variabilität besteht sowohl innerhalb einer Person (intraindividuell) als auch zwischen verschiedenen Personen (interindividuell).
  • Worin besteht der Unterschied zwischen einer abstrakten und konkreten Variablen?

    Lösung

    Abstrakte Variablen sind nicht direkt beobachtbar. Man sieht es Menschen meistens nicht an, wie intelligent oder vorausschauend sie sind. Die Komplexität einer Variablen ergibt sich aus der Anzahl ihrer Bedeutungsaspekte. In diesem Sinne ist die Reaktionszeit als konkrete und einfache Variable, die Intelligenz als abstrakte und komplexe Variable einzuordnen.
  • Was versteht man unter dem Bedeutungskern einer Variablen?

    Lösung

    Es gibt viele Arten, abstrakte und komplexe Variablen beobachtbar und messbar zu machen, weil das Bedeutungsspektrum solcher Variablen vielschichtig ist. Die wesentlichsten Aspekte des Bedeutungsspektrums eines Begriffs bilden den Bedeutungskern. Der Bedeutungskern bspw. des Begriffs „Fleiß" umfasst „arbeitsame Zielstrebigkeit".
  • Was versteht man unter Operationalisierung?

    Lösung

    Wenn eine Hypothese mit abstrakten und/oder komplexen Variablen geprüft, also mit der Realität konfrontiert werden soll, müssen diese Variablen der Beobachtung und Erfassung zugänglich gemacht werden, d. h., sie müssen operationalisiert werden. Dies geschieht dadurch, dass ihnen auf der Basis des vorliegenden Hintergrundwissens empirische Sachverhalte (d. h. konkret mess- bzw. beobachtbare Größen) zugeordnet werden. Dadurch wird entscheidbar, ob und in welcher Ausprägung die abstrakten (theoretischen) Begriffe in der (empirischen) Realität vorliegen. Ziel muss es sein, den Bedeutungskern mit der gewählten Form der Operationalisierung zu treffen.
  • Geben Sie ein Beispiel für eine TIH! Machen Sie daraus eine EIH!

    Lösung

    Dem Vorgang des Operationalisierens entsprechen zwei Hypothesenebenen, nämlich die theoretisch-inhaltliche Hypothese (TIH) für die nicht operationalisierte Form und die empirisch-inhaltliche Hypothese (EIH) für die operationalisierte Form.
    TIH: Es gibt zumeist einen Zusammenhang zwischen Intelligenz und Ängstlichkeit.
    EIH: Personen, die in einem Intelligenztest hohe Werte erzielt haben, erhalten auch in einem Ängstlichkeitsfragebogen zumeist hohe Werte und umgekehrt.
  • Welche Probleme hat man mit Einmalmessungen?

    Lösung

    Erfassen wir die Reaktionszeit eines Probanden mithilfe einer Stoppuhr ein einziges Mal und schließen daraus auf seine Reaktionsfähigkeit, so kann diese (eine) Messung zufällig stark messfehlerbehaftet und damit unreliabel sein. Folglich wäre auch der Schluss auf die generelle Reaktionsfähigkeit falsch.
  • Weshalb ist die ethische Problematik insbesondere in der psychologischen Forschung von Relevanz?

    Lösung

    Bedingt durch ihren Gegenstand ist empirischer Erkenntnisgewinn in der wissenschaftlichen Psychologie in der Regel an die Bereitschaft von Versuchspersonen gebunden, an Untersuchungen teilzunehmen. Hierbei können eine Reihe ethischer Probleme entstehen.
  • Stellen Sie am Beispiel der Milgram-Studie die wert- und zweckrationale Begründungsperspektive einander gegenüber!

    Lösung

    Beim wertrationalen Handeln werden moralische und/oder ethische Werte als unveränderbare Richtlinien interpretiert (die menschliche Würde und Integrität, die Privatsphäre usw.) dürfen unter keinen Umständen verletzt werden). Die Milgramstudie wird aus dieser Perspektive abgelehnt, weil die Teilnehmer massiv getäuscht wurden und Schaden und negative Folgen für sie nicht ausgeschlossen waren.
    Beim zweckrationalen Handeln werden Kosten-Nutzen-Abwägungen erstellt. Das Handeln orientiert sich am Abwägungsergebnis. Die Milgramstudie kann aus dieser Perspektive unterschiedlich beurteilt werden, je nachdem wie der Prozess des Abwägens endet. Der Nutzen ist dabei das Ausmaß der erwarteten oder beobachteten wissenschaftliche Erkenntnis, die Kosten sind Verletzungen der menschliche Würde und Integrität, der Privatsphäre usw. der Teilnehmer.
  • Was versteht man unter Kosten-Nutzen-Abwägung?

    Lösung

    Was kann man als Wissenschaftler gegenüber den Pbn verantworten (Kosten), um die gesuchte Information zu erhalten (Nutzen). Dabei ist zu beachten, dass die Relevanz der gesuchten Information für die Abwägung von großer Bedeutung ist. Je wichtiger die gesuchte Information, desto höher der Nutzen. Die Wichtigkeit lässt sich am Beitrag der gesuchten Information zu einer wichtigen psychologischen Theorie festmachen.
    Aber noch eine zweite Überlegung spielt hier eine entscheidende Rolle: Kann man die gesuchte Information vielleicht auch auf einem anderen, die Pbn weniger belastenden Weg erlangen? Man sucht somit nach einer Untersuchungsform, die diese Intransparenz und/oder Täuschung nicht mit sich bringt. Voruntersuchungen und Gespräche mit Fachkollegen helfen ebenfalls, diese Kosten-Nutzen-Abwägung verantwortlich zu vollziehen.
    Kosten-Nutzen-Abwägungen haben ihre Grenzen. Welcher Nutzen rechtfertigt spürbare und nachhaltige Verstöße gegen die psychische und physische Integrität bzw. Unversehrtheit der Untersuchungsteilnehmer?
  • Nennen Sie Beispiele für die Verletzung des Prinzips der Freiwilligkeit der Teilnahme!

    Lösung

    Grundsätzlich ist die Untersuchungsteilnahme freiwillig. Jeder wie auch immer geartete Druck oder Zwang ist zu vermeiden. Studierende der Psychologie müssen für die Zulassung zur Diplom-Vorprüfung in der Regel eine bestimmte Anzahl an Vpn-Stunden nachweisen. Damit ist die Freiwilligkeit der Teilnahme natürlich verletzt, auch wenn noch immer die Möglichkeit besteht, aus den angebotenen Untersuchungen auszuwählen.
    Sie ist auch verletzt, wenn Personen ohne ihr Wissen in Untersuchungen einbezogen werden (Beobachtung mit einer versteckten Kamera oder durch verdeckte Beobachtung).
  • Welche Punkte umfasst in der Regel ein Vertrag zwischen Versuchsleiter und Versuchspersonen?

    Lösung

    1. Freiwilligkeit der Teilnahme
    2. Schutz vor Schädigung und Belastung
    3. Abbruchsrecht
    4. Potenzielle Täuschung bzw. unvollständige Information
    5. Recht auf postexperimentelle Aufklärung
    6. Pflichten als Versuchsperson
    7. Gewährleistung der Anonymität
  • Welche institutionellen Hilfen zur Behandlung ethischer Probleme stehen dem Forscher zur Verfügung?

    Lösung

    Institutionelle Hilfen finden zunehmende Verbreitung. Hierbei werden ethische Richtlinien von Ethikkommissionen nicht nur erstellt, sondern sie sind auch zunehmend damit betraut, deren Einhaltung zu prüfen. Inzwischen gibt es z. B. in den USA an jeder Hochschule eine Ethikkommission, der jede am Menschen durchzuführende Untersuchung zur Genehmigung vorgelegt werden muss, wodurch die persönliche Beurteilung durch die Forschenden durch eine institutionelle Entscheidung ergänzt wird.
  • In welchen Hinsichten unterscheiden sich Datenerhebungen in der Psychologie von Datenerhebungen in anderen empirischen Wissenschaften? Welche besonderen Herausforderungen ergeben sich für psychologische Messungen?

    Lösung

    Ein Unterschied zu anderen empirischen Wissenschaften besteht darin, dass es bei Datenerhebungen in der Psychologie im Wesentlichen um die Erhellung nicht direkt beobachtbarer Phänomene geht und dass der Gegenstand auf die Untersuchung reagieren kann (Reaktivität).
    Besondere Herausforderungen für psychologische Messungen sind:
    1. Beschäftigung mit der Frage, ob die untersuchten Personen Zugang zu den relevanten psychischen Prozessen haben und sie über diese Prozesse ohne Verzerrungen Auskunft geben können.
    2. Reduktion der Reaktivität ergriffen werden (z.B. Zusicherung der Anonymität, Formulierung einer Coverstory oder Verwendung nichtreaktiver Messverfahren).
  • Was ist bei der Erhebung von Selbstauskünften von Versuchspersonen zu beachten?

    Lösung

    Bei der Erhebung von Selbstauskünften von Versuchspersonen ist zu beachten, dass diese hinreichend reliabel und valide sind. Falls dies nicht der Fall ist, so empfiehlt es sich, die relevanten Daten mithilfe von Verfahren zu erheben, die ohne Selbstauskünfte der Befragten auskommen (z.B. biopsychologische Messungen, implizite Tests).
  • Worin besteht das Problem der Reaktivität und wie kann es verringert werden?

    Lösung

    Reaktivität bei psychologischen Datenerhebungen bedeutet die Veränderung bzw. Verzerrung der erhobenen Daten alleine aufgrund der Kenntnis der untersuchten Personen darüber, dass sie Gegenstand einer Untersuchung sind. Aufgrund von Reaktivität verändert sich die Beschaffenheit des zu erforschenden Gegenstands in der Psychologie des menschlichen Erlebens bzw. psychischer Vorgänge. Reaktivität kann durch folgende Maßnahmen verringert werden:
    1. Die Untersuchten werden in Unkenntnis darüber gelassen, dass sie Gegenstand einer Untersuchung sind;
    2. Ihnen wird Anonymität wird zugesichert;
    3. eine Coverstory wird formuliert;
    4. nichtreaktive Messverfahren werden verwendet;
    5. implizite Messverfahren werden verwendet.
  • Inwiefern unterscheiden sich die Möglichkeiten zur Behandlung des Reaktivitätsproblems zwischen Feld- und Laborstudien?

    Lösung

    Es ist nur bei Feldstudien möglich, die Untersuchten in Unkenntnis darüber zu lassen, dass sie Gegenstand einer Untersuchung sind; denn bei der Teilnahme an Laborstudien sind sich die Untersuchten stets darüber bewusst. Die Zusicherung von Anonymität ist also bei Laborstudien von Bedeutung, jedoch weniger bei Feldstudien. In Laborstudien können nichtreaktive oder implizite Messverfahren angewandt werden, deren Ergebnisse von den Untersuchten kaum beeinflusst werden können. So können Verhaltensaspekte ausgewertet werden, deren Zusammenhang mit der Fragestellung den Untersuchten in der Regel verborgen ist.
  • Wozu dient die Formulierung einer Cover Story in psychologischen Forschungen?

    Lösung

    Eine Cover Story täuscht Versuchspersonen über den tatsächlichen Sinn und Zweck eines Experiments hinweg, damit diese in Unkenntnis der Hypothesen bleiben und die Validität und Präzision des Experiments nicht gefährden.
  • Welche Rolle können Reaktionszeiten bei der Behandlung des Reaktivitätsproblems in psychologischen Datenerhebungen spielen? Stellen Sie einen Bezug zu neueren impliziten Messverfahren her.

    Lösung

    Bei einigen neueren Verfahren, wie z.B. bei dem IAT, können Reaktionszeiten Schlüsse auf zugrunde liegende kognitive Strukturen und Prozesse zulassen. Beispielsweise soll mithilfe des IAT erfasst werden, wie schnell Personen verschiedene Stimuli miteinander assoziieren.
  • Wie ist wissenschaftliche Beobachtung definiert? Welche Aspekte werden in einem Beobachtungsplan festgelegt?

    Lösung

    Wissenschaftliche Beobachtung ist die systematische und regelgeleitete Registrierung des Auftretens bzw. der Ausprägung von ausgewählten, psychologisch relevanten Merkmalen oder Ereignissen. Sie folgt einem zuvor festgelegten Beobachtungsplan, der festlegt,
    1. was beobachtet werden soll (Kategorien für das/die interessierende/n Ereignis/se oder Merkmal/e);
    2. welche Aspekte weniger oder nicht relevant sind;
    3. welchen Interpretationsspielraum der Beobachtende bei der Beobachtung hat;
    4. wann, wie lange und wo die Beobachtung erfolgt (Zeitpunkte, Zeiträume, Situationen);
    5. auf welche Weise das Beobachtete registriert und protokolliert wird.
  • Inwiefern kann die Beobachtung von Ereignissen vollständig und uneingeschränkt sein?

    Lösung

    Eine vollständige und uneingeschränkte Beobachtung von Ereignissen kann nicht stattfinden, weil die (visuelle) Wahrnehmung selektiv und konstruktiv ist. Dieses Problem kann verringert werden, indem die Beobachtung – wie im Fall der wissenschaftlichen Beobachtung - systematisch und regelgeleitet erfolgt.
  • Worin unterscheidet sich eine Ereignisstichprobe von einer Zeitstichprobe?

    Lösung

    Während bei der Zeitstichprobe Beobachtungen in festen Intervallen aufgezeichnet werden, wird bei der Ereignisstichprobe das Auftreten, die Auftretensdauer (oder die Auftretenshäufigkeit) von definierten Ereignissen aufgezeichnet.
  • Für welche Art/en von Merkmalen eignet sich die Operation des Zählens?

    Lösung

    Zählen eignet sich für die Erfassung von Häufigkeiten bestimmter Ereignisse. Diskrete Merkmale können gezählt werden.
  • Was ist eine homomorphe Abbildung und welche Rolle spielt diese beim Messen?

    Lösung

    Eine homomorphe Abbildung bildet Relationen zwischen Objekten bzw. Ereignissen (dem empirischen Relativ) durch zugeordnete Zahlen (den numerischen Relativ) so ab, dass die Objekte bzw. Ereignisse und die Zahlen im korrekten Verhältnis zu einander stehen.
    Das Messen besteht in diesem Prozess der Zuordnung, die das Kriterium der homomorphen Abbildung erfüllen muss.
  • Welche Skalenniveaus werden in der Messtheorie unterschieden? Welche Relationen werden auf den verschiedenen Skalenniveaus erfasst?

    Lösung

    In der Messtheorie werden vier Skalenniveaus unterschieden: Die Nominalskala, die Ordinalskala, die Intervallskala und die Verhältnisskala.
    Auf Nominalskalenniveau geht es um die Relation der Verschiedenheit.
    Auf Ordinalskalenniveau geht es um die Relation der Rangordnung.
    Auf Intervallskalenniveau geht es um die Relation der Differenz.
    Schließlich wird auf Verhältnisskalenniveau das Verhältnis zwischen Merkmalsausprägungen angegeben; dabei gibt der Zahlenwert „0“an, dass ein gemessenes Merkmal nicht vorliegt.
  • Was sind zulässige Transformationen und welche Bedeutung haben diese für psychologische Datenerhebungen?

    Lösung

    Zulässige Transformationen sind solche, die die relevanten Relationen zwischen einzelnen Messobjekten bzw. Merkmalsträgern unverändert lassen d.h. diese homomorph abbilden. Welche Transformationen zulässig sind, hängt vom Skalenniveau ab.
    Die Bedeutung dieser Transformationen liegt in der Aufbereitung oder Analyse der Daten von Studien. Hier kommt es vor, dass die numerischen Informationen transformiert werden müssen, z.B. damit Voraussetzungen zum Einsatz bestimmter statistischer Verfahren erfüllt werden.
  • Auf welchen Skalenniveaus sind folgende Transformationen zulässig?

    Lösung

    1. f(x) = x2 + 273x → zulässig nur für Daten mit Nominal- und Ordinalskalenniveau
    2. f(x) = 1 → auf keinem Skalenniveau zulässig (da alle Werte auf eine Konstante gesetzt werden)
    3. f(x) = 100/x → zulässig nur für Daten mit Nominalskalenniveau
  • Welche Transformationen sind auf dem höchstmöglichen Skalenniveau für die folgenden numerischen Abbildungen zulässig?

    Lösung

    1. Nummern von Buslinien im Nahverkehr → alle eineindeutigen Transformationen (also alle auf Nominalskala zulässigen)
    2. Temperatur in Grad Celsius → alle Transformationen der Form f(x) = bx + a (also alle auf Intervallskala zulässigen)
  • Geben Sie bitte für die beiden folgenden Beispiele (S. 70) an, ob die numerische Abbildung des empirischen Relativs homomorph ist: http://www.lehrbuch-psychologie.de/atom/562

    Lösung

    a) Ja, denn die Relation der Verschiedenheit (relevant auf Nominalskalenniveau) bleibt erhalten.
    b) Nein, denn die Relationen der Verschiedenheit und Rangordnung (relevant auf Ordinal-, aber auch Intervallskalenniveau) werden nicht erhalten.
  • Selbstauskünfte erfordern kognitive Prozesse aufseiten der Befragten. Welche wesentlichen Prozesse werden angenommen?

    Lösung

    Der erste Prozess beinhaltet die Interpretation der Frage, d.h. die Beurteilung dessen, was der Forscher oder die Interviewerin mit der Frage meint.
    Der zweite Prozess umfasst den Abruf und die Konstruktion eines eigenen Urteils, das die Beantwortung der Frage erlaubt.
    Der dritte Prozess beinhaltet die Übersetzung des Urteils in eine kommunizierte Auskunft.
  • Mit welchen Einflüssen der Kommunikationssituation ist bei Selbstauskünften in Befragungen zu rechnen? Welche kommunikationspsychologischen Prozesse sollten bei der Interpretation von Selbstberichten berücksichtigt werden?

    Lösung

    Selbstauskünfte in Befragungen stellen einen intentionalen Akt der Kommunikation dar und implizieren somit auch eine Absicht des Senders, etwas mitzuteilen. Daher sollte ein Selbstbericht keinesfalls nur auf die übermittelte Information reduziert werden. Stattdessen ist zu bedenken, welche Intention die über sich selbst berichtende Person mit ihrer Mitteilung verfolgt. Bei der Interpretation von Selbstberichten sollten folgende kommunikationspsychologische Aspekte berücksichtigt werden:
    Interpretieren die Befragten die Frage/Themenstellung so, wie es die Forschenden vorgesehen haben?
    Wie wird sichergestellt, dass die Befragten möglichst an diejenigen Aspekte oder Themen denken, die die Forschenden bei der Formulierung der Frage im Blick hatten?
    Werden durch die Art der Befragung (z.B. durch die Wortwahl der Fragen) Informationen nahegelegt oder voraktiviert, die die Befragten zur Konstruktion einer Antwort oder eines Urteils heranziehen?
    Inwiefern ist gewährleistet, dass die Befragten ihre intern gebildeten Urteile in eine Antwort umsetzen können und diese wiederum in das vorgegeben Format übersetzt werden kann?
    Lassen sich die Absichten oder Motive der Befragten abschätzen, die der Mittelung von Antworten zugrunde liegen?
  • Wie unterscheiden sich schriftliche und mündliche Befragungen?

    Lösung

    Die schriftliche Befragung wird mittels Fragebogen durchgeführt, und sie findet häufiger in der quantitativen als in der qualitativen Forschung statt. Außerdem weisen schriftliche Befragungen oft einen höheren Grad an Standardisierung auf als Interviews und die Fragebögen enthalten meist geschlossene Fragen mit vorgegebenen Antworten. Demnach ist Vorwissen notwendig, um solche Fragen zu formulieren.
    Die mündliche Befragung (Interview) ist hingegen für die qualitative Forschung typischer. Interviews haben oft keinen vorgegebenen, für alle Befragten identischen, Ablauf und sie sind stärker mit dem Problem der Reaktivität behaftet. Das heißt, dass soziale Beeinflussungs- und Übertragungseffekte aufgrund des Verhaltens der befragenden Person mit einer größeren Wahrscheinlichkeit stattfinden. Ein positiver Aspekt ist, dass Befragte meist eher bereit sind, sich in Interviews als in schriftlichen Befragungen zu äußern. Jedoch sind Interviews in der Regel aufwändiger und kostenintensiver.
  • Welche Aspekte sollten bei der Formulierung von Fragen in Befragungen beachtet werden?

    Lösung

    Fragen sollten möglichst einfach und gut verständlich formuliert sein. Zu vermeiden sind daher ungebräuchliche Ausdrücke, Fachbegriffe oder Fremdwörter; lange, verschachtelte Sätze und ungewöhnliche Satzkonstruktionen; zu abstrakte oder komplizierte Sachverhalte. Außerdem sind Fragen problematisch, deren Beantwortung womöglich zu hohe Anforderungen an die mentale oder kognitive Leistungsfähigkeit der Befragten stellt, wie z.B. Fragen, die eine übermäßig präzise Gedächtnisleistung voraussetzen. Jedoch gelten die beiden genannten Hinweise nicht absolut, sondern relativ: eine adressatenorientierte Formulierung ist entscheidend.
    Des Weiteren sollten Fragen möglichst keine Verneinungen enthalten, sie sollten nicht überfrachtet sein und sie sollten keine Entscheidung bei unabhängig beantwortbaren Aspekten erzwingen. Ein Fragebogen sollte möglichst keine Fragen enthalten, die von Befragten vermutlich sehr ähnlich beantwortet werden, da dies nicht genug differenziert zwischen den Befragten und die Streuung damit gering bleibt. Schließlich sollten möglichst mehrere Items zur Beantwortung einer Frage eingesetzt werden, die Ausgewogenheit in der Reihenfolge der Fragen sollte beachtet werden, und eine klare und informative Instruktion sollte gegeben werden.
  • Welche wesentlichen Entscheidungen sind bei der Konstruktion von Ratingskalen zu treffen?

    Lösung

    Bei der Konstruktion von Ratingskalen muss entschieden werden, ob die Items die Form einer Frage oder Aussage haben, ob die Skalen unipolar und/oder bipolar formuliert sind und wie viele Stufen verwendet werden sollen. Zu beachten ist, dass eine ungerade Anzahl von Stufen einen neutralen Mittelpunkt suggeriert, was zu dem Ambivalenz-Indifferenz-Problem führt: Eine neutrale Beurteilung kann bedeuten, dass der Befragte entweder eine gleichgültige oder eine zwiespältige Einstellung hinsichtlich des fraglichen Gegenstandes hat. Abschließend muss entschieden werden, welche Bezeichnungen die Skalenstufen besitzen (numerische, verbale oder grafische).
  • Was ist ein Rating? Welche Urteilstendenzen können die Antworten auf Ratingskalen verzerren?

    Lösung

    Ein Rating ist eine Form von Selbstberichtsverfahren, bei der Befragte Urteile auf einer numerisch interpretierbaren Skala abgeben. Die folgenden Urteilstendenzen können die Antworten auf Ratingskalen verzerren:
    Eine Tendenz zur Mitte kann auftreten, wenn Urteilsobjekte wenig vertraut sind oder Unklarheit über die Endpunkte der Ratingskala besteht.
    Eine Folge ähnlicher Items kann zur gedankenlosen Reproduktion führen.
    Beim Primacy-Effekt können anfängliche Urteile folgende, ähnliche Urteile gleichsinnig beeinflussen.
    Beim Halo-Effekt kann die Beurteilung eines Objekts hinsichtlich verschiedener Merkmale durch das Urteil auf einem zentralen Merkmal beeinflusst werden.
  • Was ist ein semantisches Differenzial?

    Lösung

    Das semantische Differenzial ist eine spezielle Form von Ratingverfahren. Es liefert Polaritätsprofile, die eine schnelle Orientierung über zentrale Merkmale bzw. Unterschiede zwischen Merkmalsträgern erlauben.
  • Was ist ein psychologischer Test und welche Ziele werden mit ihm verfolgt?

    Lösung

    Ein (psychologischer) Test ist ein wissenschaftliches Verfahren zu Untersuchung eines oder mehrerer empirisch unterscheidbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst genauen quantitativen Aussage über den relativen Grad der individuellen Merkmalsausprägung. Ein Test besteht in der Regel aus mehreren Aufgaben oder Fragen (Items), die von verschiedenen Menschen mit unterschiedlichen Fähigkeiten oder Eigenschaften unterschiedlich gelöst bzw. beantwortet werden.
    Ein Test wird allgemein auch als eine standardisierte Verhaltensstichprobe definiert, die aus Antworten auf eine Mehrzahl von Items besteht. Aus den Antworten wird der Testwert der untersuchten Person aggregiert.
  • Worin unterscheiden sich die klassische Testtheorie und die probabilistische Testtheorie?

    Lösung

    Der klassischen Testtheorie zufolge gehen in einen gemessenen Testwert der wahre Wert der Person und ein Fehleranteil (Messfehler) ein. Ziel ist die möglichst direkte und präzise Schätzung des wahren Werts. Durch den Einsatz mehrerer Testitems soll der Fehleranteil insgesamt minimiert werden.
    Der probabilistischen Testtheorie zufolge sind Antworten auf Testitems Indikatoren von latenten Merkmalen; die Wahrscheinlichkeit, dass eine Person ein Item zur Erfassung eines Merkmals X positiv beantwortet, hängt von der (latenten) Ausprägung von X ab.
  • Was ist eine ICC und was stellt sie dar?

    Lösung

    ICC ist die Abkürzung für "Item-Characteristic-Curve". Eine ICC stellt den Zusammenhang zwischen dem Antwortverhalten (der Lösungswahrscheinlichkeit) auf der y-Achse und der Ausprägung des latenten Merkmals (der Fähigkeit) auf der x-Achse für verschiedene Items dar.
  • Worin bestehen die wesentlichen Unterschiede zwischen Leistungstests und Persönlichkeitstests?

    Lösung

    Leistungstests setzen (vor allem kognitive) Merkmale zu einem objektiven Gütestandard in Beziehung. Zu dieser Art des Tests zählen Intelligenz- und Eignungstests. Um zwischen Leistungen unterschiedlicher Personen unterscheiden zu können, müssen in dem Test verschiedene Schwierigkeitsgrade realisiert sein. Bei Speedtests ist die Bearbeitungszeit zu knapp angesetzt, so dass in der Regel nicht alle Aufgaben beantwortet werden können. Bei Powertests wird das Niveau der Aufgaben sukzessive gesteigert.
    Persönlichkeitstests hingegen liefern Daten, die nicht im Hinblick auf objektive Leistungsmaßstäbe, sondern auf emotional, motivational und sozial relevante Persönlichkeitseigenschaften hin interpretiert werden. Hier wird zwischen subjektiven und objektiven Persönlichkeitstests unterschieden. Erstere sind leicht durchschaubar für die getestete Person, während bei den letzteren versucht wird, den Zweck zu verschleiern.
  • Welche wünschenswerten Eigenschaften sollten Tests und Testitems aufweisen? Was bezeichnet die Reliabilität eines Tests? Welche Arten der Validität eines Tests können unterschieden werden?

    Lösung

    Zunächst sollten die Testitems einer Testskala homogen sein, d.h. ein einziges und nicht mehrere verschiedene Merkmale erfassen. Die Testskala sollte eine differenzierte Erfassung des interessierenden Merkmals erlauben, d.h. möglichst viele Ausprägungsgrade des Merkmals erfassen. Außerdem muss eine Testskala distinktionsfähig sein, d.h. eine eindeutige Unterscheidung zwischen Personen mit hoher und geringer Merkmalsausprägung ermöglichen.
    Darüber gelten auch allgemeine Kriterien der Güte der Datenerhebung. Erstens soll ein Test objektiv sein, d.h. dass das Ergebnis unabhängig von der Person sein soll, die den Test durchführt, auswertet und interpretiert.
    Zweitens soll ein Test reliabel sein. Damit ist gemeint, dass die ermittelten Testwerte verlässlich sind und der Test die Merkmalsausprägung ohne zu große Schwankungen erfasst. Die Reliabilität eines Tests kann berechnet werden durch die Retestreliabilität, die Paralleltestreliabilität, die Testhalbierungsreliabilität oder die interne Konsistenz.
    Drittens soll ein Test valide, also inhaltlich gültig sein. Unterschieden werden Konstruktvalidität und Kriteriumsvalidität. Die Konstruktvalidität ergibt sich aus den Relationen zu theoretisch verwandten und entfernten Konstrukten bzw. dem Vergleich mit Tests, die diese anderen Konstrukte erfassen. Dabei bezeichnet die konvergente Validität die Übereinstimmung mit als ähnlich angenommenen Tests; die diskriminante Validität bezeichnet die Abweichung von als unähnlich angenommenen Tests. Bei der Kriteriumsvalidität werden externe Kriterien herangezogen, um die Validität eines Tests zu bestimmen. Dabei kann die Übereinstimmung zwischen Test und Kriterium zum selben Zeitpunkt (simultane Kriteriumsvalidität) oder das Zutreffen einer Vorhersage des Kriteriums aus dem Test (Validität der Kriteriumsvorhersage) unterschieden werden.
  • Was ist gemeint mit der Schwierigkeit und Trennschärfe von Testitems? Worin besteht ihr Zusammenhang?

    Lösung

    Die Schwierigkeit von Testitems ist der Prozentsatz aller untersuchten Personen, die das Item gelöst bzw. positiv beantwortet haben. Bei der Testkonstruktion wird oft eine breitere Streuung der Schwierigkeiten angestrebt, damit der Testwert über das gesamte Spektrum zwischen Personen mit verschiedenen Merkmalsausprägungen differenziert.
    Der Trennschärfe eines Items ist zu entnehmen, wie gut das gesamte Testergebnis aufgrund der Beantwortung dieses einzelnen Items vorhersagbar ist. Damit gibt die Trennschärfe an, wie gut ein einzelnes Item den gesamten Test repräsentiert. Somit erreichen Personen, die einen hohen (niedrigen) Gesamttestwert aufweisen, auf einem trennscharfen Einzelitem eben einen hohen (niedrigen) Wert.
    Ihr Zusammenhang besteht darin, dass bei einer Steigerung der Schwierigkeit von Testitems die Trennschärfe geringer wird.
  • Welche möglichen Verfälschungen können bei Tests auftreten und welche Gegenmaßnahmen können eingesetzt werden?

    Lösung

    Leistungstests können durch das Erraten der richtigen Antwort verfälscht werden. Gegenmaßnahmen sind der Einsatz von Distraktoren oder die Ratekorrektur.
    Die Ergebnisse von Persönlichkeitstests können verfälscht werden durch das Bemühen um positive Selbstdarstellung, die Orientierung an sozialer Erwünschtheit und schematische Antworttendenzen der untersuchten Personen.
    Eine Gegenmaßnahme zur Verringerung von Testverfälschungen besteht darin, die Antwortvorgaben auszubalancieren. Eine weitere Möglichkeit ist es, die Untersuchten zu korrektem Antwortverhalten aufzufordern. Des Weiteren können Kontrollskalen eingesetzt werden; diese erfassen anhand von Angaben zu eindeutig antinormativen, aber trotzdem geläufigen Verhaltensweisen, die Tendenz von Personen, sozial erwünscht zu antworten. Schließlich kann die Randomized-Response-Technik eingesetzt werden, die durch die Vorgabe einer Regel für zufällige unehrliche Antworten auf der Gruppenebene die Schätzungen von Antwortverfälschungen erlaubt.
  • Wie funktioniert die Randomized-Response-Technik?

    Lösung

    Die Befragten werden bei der Randomized-Response-Technik aufgefordert, den Wahrheitsgehalt ihrer Antwort bei jeder einzelnen Frage von einem nur ihnen bekannten Zufallsereignis (z.B. Augenzahl eines Würfels) abhängig zu machen. Eine Instruktion könnte zum Beispiel sein, eine Frage nur dann wahrheitsgemäß zu beantworten, wenn eine Eins, Zwei, Vier oder Sechs gewürfelt wird und die Frage in jedem Fall zu bejahen, wenn eine Drei oder Fünf gewürfelt wird. Da der/die Testleiter/in die das Ergebnis des Würfelns nicht kennt, ist bei der Auswertung nicht bekannt, ob eine Frage wahrheitsgemäß beantwortet wurde oder nicht. Da die befragte Person dies weiß, kann sie je nach Zufallsereignis wahrheitsgemäß antworten. Auf der Gruppenebene kann dann die Wahrscheinlichkeit einer Verfälschung geschätzt werden, indem eine Stichprobe der Randomized-Response-Technik mit einer Stichprobe verglichen wird, die den Test ohne diese Technik beantwortet hat. Zudem kann der Anteil von Befragten, die durch das Zufallsereignis zu einer »Ja«-Antwort veranlasst wurden, geschätzt werden, da die zugrunde liegende Zufallsverteilung (z. B. Wahrscheinlichkeit einer Drei oder Fünf beim Würfeln) bekannt ist. Aufgrund der Wahrscheinlichkeitsschätzungen können die Antworten in zukünftigen Testduchführungen entsprechend korrigiert werden.
  • Was sind die besonderen Vorteile biopsychologischer Methoden gegenüber anderen Methoden der Psychologie?

    Lösung

    Biopsychologische Methoden versprechen Einblicke in zugrunde liegende psychologische Strukturen und Prozesse, die mit anderen Methoden nicht erzielt werden können. Ein Vorteil ist, dass Messungen von biologischen Indikatoren das Risiko der gezielten Einflussnahme oder Verfälschung von Daten durch die untersuchten Personen verringern. Die Erforschung der wechselseitigen Einflüsse zwischen biologischen und psychischen Prozessen kann zu einem verbesserten, stärker integrierten Verständnis der erforschten Phänomene beitragen.
  • Was sind nichtinvasive Methoden?

    Lösung

    Nichtinvasive Methoden kommen ohne ein Eindringen unter die Körperoberfläche bzw. in das organische Gewebe aus. Bei nichtinvasiven Methoden werden verschiedene Biosignale (z.B. elektrische Ströme oder Felder) aufgezeichnet und, zumeist mithilfe von Computern, weiterverarbeitet.
  • Welche Messverfahren erfassen Indikatoren der Aktivität des zentralen Nervensystems?

    Lösung

    Es lassen sich im Wesentlichen drei verschiedene Klassen von Methoden zur Registrierung der Gehirnaktivität unterscheiden:
    Verfahren zu Aufzeichnung von elektrischen Potenzialen, die durch die elektrochemische Aktivität von Gehirnneuronen entstehen, vor allem mittels des Elektroenzephalogramms (EEG);
    Verfahren zur Registrierung von Magnetfeldern, die durch elektrische Potenziale von Gehirnneuronen entstehen, vor allem mit dem Magnetenzephalogramm (MEG);
    Bildgebende Verfahren, die die Struktur und Funktion des Gehirns durch weiträumige Abbildungen wiedergeben, z.B. fMRT.
  • Worin besteht der Unterschied zwischen der Spontanaktivität und evozierten Potenzialen bei EEG-Messungen? Über welche psychologischen Phänomene können evozierte Potenziale Auskunft geben?

    Lösung

    Bei der Spontanaktivität handelt es sich um ständig auftretende rhythmische Potenzialänderungen mit einer Frequenz von 0,5 bis maximal 100Hz und Amplituden von 1 bis 100μV (Mikrovolt). Bei evozierten Potenzialen hingegen handelt es sich um kurzzeitige (d.h. weniger als 1 Sekunde andauernde) Reaktionen auf innere oder äußere Reize, die einen komplexen Verlauf mit interpretierbaren Höhe- und Tiefpunkten aufweisen.
    Psychologische relevant sind vor allem lokale Maxima und Minima evozierter Potenziale, die bei bestimmten sensorischen, motorischen und mentalen Prozessen auftreten. Je nach Ausschlag in positive (P) oder negative (N) Richtung und zeitlichem Intervall nach Beginn eines Reizes (z.B. 100 oder 300ms) werden charakteristische Komponenten (wie P300 oder N100) von evozierten Potenzialen identifiziert und verschiedenen Arten der Reizverarbeitung in Verbindung gebracht. So tritt die P3-Komponente deutlich hervor, wenn Personen Reize wahrnehmen, die ihre Erwartungen verletzen und daher auffällig sind. Ein anderes Beispiel ist die N1-Komponente, die als das früheste Anzeichen für die Verarbeitung eines beachteten Reizes interpretiert wird.
  • Was sind Tracer und bei welchen biopsychologischen Messungen werden sie eingesetzt?

    Lösung

    Tracer sind radioaktive Markierungssubstanzen, die in den Körper der untersuchten Personen eingebracht werden (oft durch Injektion in den Blutkreislauf). Die wichtigsten Techniken, bei denen Tracer eingesetzt werden, sind die Positronenemissionstomografie (PET) sowie die Single-Photon-Emissions-Computertomografie (SPECT).
  • Was ist das Funktionsprinzip von MRT und fMRT, und welche psychologisch relevanten Phänomene lassen sich mit diesen erfassen? Worin bestehen die Hauptunterschiede zwischen den beiden Verfahren?

    Lösung

    Die Magnetresonanztomografie (MRT) nutzt die Eigenschaften von Protonen von Wasserstoffatomen innerhalb eines starken stabilen Hauptmagnetfelds, in das zusätzlich elektromagnetische Energie eingestrahlt wird. Magnetische Resonanz entsteht, wenn die extern erzeugte elektromagnetische Frequenz und die Kernspinfrequenz der Protonen übereinstimmen. Diese Resonanz führt dazu, dass die sich weiterhin drehenden Protonen aus ihrer ursprünglichen parallelen Ausrichtung im stabilen Hauptmagnetfeld „wegkippen“ und eine Präzessionsbewegung ausführen. Wird das externe elektromagnetische Feld wieder ausgeschaltet, kippen die Protonen wieder in ihre Ausgangsrichtung parallel zum stabilen Hauptmagnetfeld zurück (Relaxation). Aus der Zeit zwischen Erlöschen des externen Frequenzfeldes und dem Auftreten der Relaxationssignale schließt man auf die Art des Gewebes (Gehirnflüssigkeit oder Nervenzellen), in dem sich die reagierenden Wasserstoffprotonen befinden. Um eine Lokalisation des gemessenen Gewebes vornehmen zu können, werden kurzzeitig weitere Magnetfelder in allen drei Raumdimensionen zugeschaltet. Da die Stärke dieser Felder je nach Ort variiert, lässt ihr Effekt auf die empfangenen Signale Rückschlüsse auf den Ort des gemessenen Gewebes zu. Die Informationen zu Ort und Dichte des Gewebes werden abschließend in Bilder überführt.
    Die funktionelle Magnetresonanztomografie (fMRT) nutzt magnetische Effekte der Anreicherung aktiver ZNS-Regionen mit sauerstoffreichem Hämoglobin, um psychische Funktionen und Prozesse bildhaft darzustellen. Das Grundprinzip ist folgendes: Wenn eine Region im ZNS aktiv ist, wird sie mit mehr Blut versorgt, um den Bedarf an Sauerstoff zu decken. Als Resultat entsteht in dieser Region kurzzeitig ein Überangebot an Sauerstoff, was sich in einem größeren Anteil von sauerstoffreichem Hämoglobin gegenüber sauerstoffarmem Hämoglobin niederschlägt. Aufgrund der ferromagnetischen Eigenschaften von Hämoglobin geht dieses Ungleichgewicht zugunsten des sauerstoffreichen Hämoglobins mit einer Magnetfeldverschiebung einher. Dieser magnetische Effekt wird bei der fMRT ausgenutzt, um auf den zerebralen Blutfluss und damit die Aktivierung der umgebenden Neurone zu schließen. Im abschließenden Schritt der Bilderstellung werden diejenigen Hirnareale farblich hervorgehoben, die in einem bestimmten Moment überdurchschnittlich aktiviert sind. Die fMRT wird eingesetzt zur Erforschung sozial-kognitiver Phänomene, etwa der neuronalen Aktivitäten bei der Wahrnehmung von Handlungen und Bewegungen von Menschen oder der neuronalen Korrelate von Empathie, Perspektivübernahme und Theory of Mind.
    Die MRT nutzt die Eigenschaften der Protonen von Wasserstoffatomen, während die fMRT die magnetischen Effekte sauerstoffreichen Hämoglobins ausnutzt. Die fMRT geht über die MRT hinaus, da sie nicht nur die Identifikation eines Gewebes anstrebt, sondern psychologisch relevante Funktionen abzubilden versucht.
  • Welche Arten von Artefakten können biopsychologische Messungen beeinflussen? Was sind typische Artefakte bei einer EEG-Messung?

    Lösung

    Im Wesentlichen lassen sich drei Arten von Artefakten unterscheiden:
    Artefakte physiologischer Herkunft, wie z.B. Muskelaktivitäten, die eigentlich nicht erfasst werden sollen;
    Bewegungsartefakte, d.h. Bewegungen der untersuchten Person oder der Messapparatur;
    Artefakte durch externe Einstreuungen, d.h. Signale aus externen Quellen (z.B. von Radiosendern oder elektrischen Geräten).
    Zum Beispiel können elektrische Biosignale wie Gehirnströme (EEG) durch Signale überlagert werden, die auf elementare Muskelaktivitäten zurückgehen.
  • Welche Möglichkeiten und Vorteile bietet die Datenerhebung im Internet für die psychologische Forschung?

    Lösung

    Es lassen sich zwei Klassen von Vorteilen unterscheiden. Zum einen steigert das Internet die Effizienz bzw. das Verhältnis von Aufwand zu Kosten und erleichtert die Datenerhebung (quantitativer Aspekt). Zum anderen ergeben sich durch die Nutzung des Internets neuartige Forschungsmöglichkeiten und –themen (qualitativer Aspekt).
    Zum quantitativen Aspekt gehört, dass bei Datenerhebungen im Internet prinzipiell sehr große Stichproben untersucht werden können. Datenerhebungen im Internet können außerdem mit geringem Zeitaufwand erfolgen, u.a. aufgrund der großen Verbreitung und Flexibilität. Hinzu kommt, dass die Datenerhebung aufgrund der Automatisierung ohne Versuchsleitung und mögliche Versuchsleitereffekte auskommt. Des Weiteren ist der Teilnehmerkreis bei Internetstudien im Vergleich zu Laborstudien potenziell erweitert und diverser. Darüber hinaus nehmen Personen in der Regel freiwillig an Internetstudien teil, was vermutlich in einem größeren Ausmaß zur Bearbeitung von Aufgaben motiviert. Schließlich bietet die Datenerhebung im Internet eine größere Transparenz und Überprüfbarkeit für andere Forschende.
    Zum qualitativen Aspekt gehört, dass im Internet Phänomene erforscht werden können, die bisher kaum untersuchbar waren oder gar nicht existierten. Außerdem können Daten aus dem Internet oft ohne Kenntnis der untersuchten Personen aufgezeichnet werden, was zu einer Verringerung des Reaktivitätsproblems führt. Schließlich ermöglicht es die Datenerhebung im Internet, Stichproben mit hochspezifischen Merkmalen leichter zu erreichen.
  • Wie ist die Freiwilligkeit der Teilnahme an Internetstudien zu beurteilen?

    Lösung

    Die Freiwilligkeit der Teilnahme an Internetstudien ist aus forschungsethischer Sicht positiv zu bewerten, da die intrinsische Motivation zur Teilnahme an Internetstudien vermutlich relativ hoch ist.
  • Welche neuartigen Forschungsthemen und -gegenstände erlauben Internetstudien?

    Lösung

    Zu neuen Forschungsthemen zählen bestimmte Interaktions-, Kommunikations- und Gruppenprozesse. Zum Beispiel gehören dazu die Struktur globaler sozialer Netzwerke, die Konstruktion von Identitäten in "multi user domains" oder die Verbreitung von Gerüchten in Chat-Foren, Newsgroups oder Mailinglisten. Schließlich ergeben sich aus der Nutzung des Internets auch gänzlich neuartige Forschungsthemen wie etwa der Entwurf von und das Spiel mit alternativen Identitäten, die Auswirkungen computervermittelter Kommunikation auf interpersonelle Wahrnehmung, der Einfluss von WWW-Inhalten auf die Entwicklung von Kindern und Jugendlichen oder die Ausbildung von Vorurteilen.
  • Welche Risiken und Nachteile sind bei der Internet-Datenerhebung zu beachten?

    Lösung

    Risiken und Nachteile der Internet-Datenerhebung betreffen die Güte der Untersuchung sowie Aspekte der Forschungsethik. Die Güte der Untersuchung ist betroffen, da die Repräsentativität der Stichproben verringert sein kann und damit die Befunde weniger generalisierbar sind. Darüber hinaus ist es schwieriger, die Einhaltung von Instruktionen zu prüfen und sicherzustellen.
    Zu forschungsethischen Risiken zählt die erschwerte Prüfung der Identifizierbarkeit der Teilnehmenden. Zudem ist es aufgrund der fehlenden Interaktion zwischen Forschenden und Untersuchten in Internetstudien schwieriger, Gefährdungen der Untersuchten festzutellen. Schließlich ist es ebenfalls schwieriger zu überprüfen, ob die Untersuchten forschungsethisch relevante Informationen lesen und verstehen.
  • Worin liegt die Effizienzsteigerung bei der Datenerhebung im Internet?

    Lösung

    Bei Datenerhebungen im Internet können sehr umfangreiche Stichproben untersucht werden, wodurch wiederum die Teststärke für Signifikanztests steigt. Datenerhebungen im Internet können außerdem mit geringem Zeitaufwand erfolgen, u.a. aufgrund der großen Verbreitung und Flexibilität. Hinzu kommt, dass die Datenerhebung aufgrund der Automatisierung ohne Versuchsleitung und mögliche Versuchsleitereffekte auskommt
  • Wie ist die Güte von Untersuchungen im Internet zu bewerten?

    Lösung

    Die Repräsentativität der Stichproben kann verringert sein, so dass die Befunde weniger generalisierbar sind. Zudem ist es schwieriger, die Bedingungen der Datenerhebung bzw. die Einhaltung von Instruktionen zu kontrollieren.
  • Welche speziellen forschungsethischen Probleme werfen Internetstudien auf?

    Lösung

    Die erschwerte Prüfung der Identifizierbarkeit der Teilnehmenden stellt ein forschungsethisches Risiko dar. Denn bei Internetstudien ist weniger eindeutig feststellbar, ob die Teilnehmenden identifizierbar sind oder ob Anonymität gewährleistet ist. Außerdem ist es aufgrund der fehlenden Interaktion zwischen Forschenden und Untersuchten in Internetstudien schwieriger, Gefährdungen der Untersuchten festzustellen. Schließlich ist es ebenfalls schwieriger zu überprüfen, ob die Untersuchten forschungsethisch relevante Informationen lesen und verstehen.
  • Wie ist das Reaktivitätsproblem bei Internetstudien im Vergleich zu Laborstudien zu beurteilen?

    Lösung

    Daten aus dem Internet können ohne Kenntnis der untersuchten Personen aufgezeichnet werden, so dass nicht mit einer Reaktivität zur untersuchten Personen zu rechnen ist.
  • Wie kann die unerwünschte Mehrfachteilnahme an derselben Internetstudie kontrolliert werden? Wie kann die Ernsthaftigkeit der Teilnahme an diesen Studien erhöht werden?

    Lösung

    Um eine unerwünschte Mehrfachteilnahme an derselben Internetstudie zu kontrollieren, sollten zumindest minimale Informationen zur Identität der Befragten angefordert werden wie z.B. E-Mail-Adresse oder IP-Adresse. Die Ernsthaftigkeit der Teilnahme an diesen Studien kann durch vertraute Kommunikationsformen, eine Personalisierung der Interaktion oder eine Offenlegung von Hintergrundinformationen über die Studie bzw. die Forscherinnen und Forscher erhöht werden.
  • Welche Vor- und Nachteile weisen Experimente im WWW auf? Geben Sie ein Beispiel für eine Einschränkung der internen Validität bei Web-Experimenten.

    Lösung

    Web-Experimente weisen im Vergleich zu Labor-Experimenten potenziell eine höhere externe Validität, aber geringere interne Validität auf. Die Präzision von Web-Experimenten ist potenziell reduziert, vor allem durch die größere Fehlervarianz, die aus Ablenkung, einer größeren Streuung der Tageszeiten bei der Versuchsdurchführung oder Nichtbefolgung der Instruktionen (u. a. aufgrund der Distanz zum Versuchsleiter) resultieren kann.
    Ein Beispiel für eine Einschränkung der internen Validität ist ein Experiment, das den Einfluss der Schwierigkeit von Aufgaben auf Lernmotivation und Lernerfolg erfassen soll. Versuchspersonen können in einem Web-Experiment viel eher auf externe Hilfestellungen zurückgreifen als Versuchspersonen in einem Laborexperiment. Da die Motivation zu unerwünschten Nutzung von Hilfsmitteln in der Bedingung „hohe Aufgabenschwierigkeit“ vermutlich besonders ausgeprägt ist, besteht die Gefahr, dass die interne Validität des Experiments eingeschränkt ist.
  • Welche Hypothesenebenen kennen Sie?

    Lösung

    Man unterscheidet zwischen der Ebene der
    1. theoretisch-inhaltlichen Hypothese (TIH),
    2. empirisch-inhaltlichen Hypothese (EIH),
    3. statistischen Vorhersage (SV) und
    4. Testhypothesen (Thn)
  • Weshalb muss man inhaltliche Hypothesen zum Zweck ihrer statistischen Überprüfung ableiten?

    Lösung

    Hintergrund für die Konkretisierungsschritte ist die Erkenntnis, dass inhaltliche Hypothesen statistisch nicht prüfbar sind, sondern zunächst in eine Sprache überführt werden müssen, die einer statistischen Überprüfung zugänglich ist.
  • Welches Entscheidungskriterium wird auf der Ebene der Testhypothesen herangezogen?

    Lösung

    Das alleinige Entscheidungskriterium auf dieser Hypothesenebene (sowie auf der Ebene der statistischen Vorhersage) ist die statistische Signifikanz.
  • Was versteht man unter Effektgröße?

    Lösung

    Die Effektgröße drückt aus, inwiefern ein Mittelwertsunterschied nicht nur statistisch, sondern auch psychologisch-inhaltlich bedeutsam (relevant) ist.
  • Was ist eine Klumpenstichprobe?

    Lösung

    Es handelt sich dabei um eine Teilmenge aus der Grundgesamtheit, die durch Zufallsauswahl bestimmt wird und somit die strenge Forderung nach der Merkmalsadäquanz erfüllt. Im Einzelnen wird dabei die Grundgesamtheit in kleinere Teilmengen (Klumpen) zerlegt und per Zufall daraus eine bestimmte Anzahl gezogen. Alle Mitglieder dieser gezogenen Klumpen werden untersucht (befragt, getestet usw.).
  • Welches sind Merkmale des experimentellen Vorgehens?

    Lösung

    Unter einem Experiment versteht man die systematische Beobachtung einer abhängigen Variablen unter verschiedenen Bedingungen einer unabhängigen Variablen bei gleichzeitiger Kontrolle der Störvariablen, wobei die zufällige Zuordnung von Probanden und experimentellen Bedingungen gewährleistet sein muss.
  • Was sind Störvariablen und weshalb muss man sie kontrollieren?

    Lösung

    Es gibt neben der unabhängigen Variable (UV) weitere Einflussgrößen auf die abhängige Variable (AV), die man Störvariablen nennt. Zu Störvariablen werden andere Einflussgrößen erst dann, wenn sie systematisch mit den Stufen einer UV variieren und auf die AV einwirken. Diesen Sachverhalt nennt man Konfundierung.
    Zu verhindern ist also die systematische Variation einer potenziellen Einflussgröße mit den Stufen einer oder mehrerer UVn, weil man bei einer vorliegenden Konfundierung nicht eindeutig bestimmen kann, ob ein beobachteter Effekt auf der AV durch die UV, durch Störvariablen oder durch beides bedingt ist und somit keine eindeutige Kausalaussage getroffen werden kann.
  • Wie kann man sie kontrollieren?

    Lösung

    Folgende Kontrolltechniken können für die allgemeinen Störeffekte eingesetzt werden:
    1. Konstanthaltung,
    2. Elimination,
    3. systematische Variation,
    4. zufällige Variation,
    5. Randomisieren,
    6. Parallelisieren,
    7. Blindversuche.
    Die speziellen Störeffekte werden durch Ausbalancieren kontrolliert. Eine vollständige Kontrolle der Sequenzeffekte gewährleistet alleine das vollständige interindividuelle Ausbalancieren.
  • Was ist eine Versuchsplananlage?

    Lösung

    Unter einer Versuchsplananlage (VPL-A) versteht man eine Menge von bewährten Schemata zur Anordnung von unabhängigen Variablen (Faktoren) und ihren Ausprägungen (Stufen), mit deren Hilfe eine möglichst informationshaltige und gleichzeitig ökonomische symbolische Repräsentation der Variablenausprägungen (Faktorstufen) erreicht werden kann.
  • Wie unterscheidet sie sich von einem Versuchsplan?

    Lösung

    Unter einem Versuchsplan versteht man eine möglichst konkrete Handlungsanweisung zur Erhebung von Daten zum Zweck der ökonomischen, validen und präzisen experimentellen Hypothesenprüfung. Die Konkretisierung erfolgt auf der Grundlage einer zugehörigen Versuchsplananlage und mithilfe folgender vier Entscheidungen, die die Bedingungen angeben, unter welchen die Vpn beobachtet werden:
    1. vollständige oder teilweise Realisierung der angelegten Zellen,
    2. Bestimmung der Anzahl der Beobachtungen pro Zelle,
    3. interindividuelle oder intraindividuelle Bedingungsvariation,
    4. randomisierte oder nichtrandomisierte Zuordnung der Vpn zu den Zellen.
  • Geben Sie je ein Beispiel für einen mehrfaktoriellen reinen bzw. gemischten Versuchsplan.

    Lösung

    Ein VPL2RR ist ein (reiner) zweifaktorieller, vollrandomisierter Versuchsplan. In diesem Versuchsplan werden die Pbn nur unter einer experimentellen Bedingungskombination beobachtet. Es gibt bspw. den Faktor A "Tageszeit" und den Faktor B „Pausen" mit jeweils zwei Stufen. In diesem Plan mit 2x2 Bedingungskombinationen werden die Pbn nur unter einer der vier möglichen Bedingungen erfasst.
    Ein VPL2RQ ist ein (gemischter) zweifaktorieller Versuchsplan mit dem randomisierten Faktor A „Tageszeit" und dem messwiederholten Faktor B „Pausen". In diesem Versuchsplan werden die Vpn in beiden Stufen des Faktors B beobachtet.
    Ein reiner Versuchsplan liegt somit vor, wenn beide (alle) Faktoren eines Plans entweder randomisiert oder messwiederholt sind. Alle anderen Pläne nennt man gemischt.
  • Worin unterscheiden sich Haupteffekt und einfacher Haupteffekt?

    Lösung

    Ein Haupteffekt zeigt sich im Vergleich der Mittelwerte der Stufen des Faktors. Sind die Mittelwerte gleich oder nur wenig unterschiedlich, so liegt kein HE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der Haupteffekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist (Vergleich der Zeilen- bzw. Spaltenmittelwerte).
    Ein einfacher Haupteffekt zeigt sich im zeilen- bzw. spaltenweisen Vergleich der Zellmittelwerte in einer Stufe des jeweils anderen Faktors. Sind die Zellmittelwerte gleich oder nur wenig unterschiedlich, so liegt kein EHE vor. Zeigen sich dagegen deutliche Unterschiede, so kann mit statistischen Methoden überprüft werden, ob der einfache Haupteffekt nicht nur erkennbar, sondern im statistischen Sinne auch überzufällig ist (zeilen- bzw. spaltenweiser Vergleich der Zellmittelwerte).
  • Wie hängt die interne Validität mit der Kontrolle der Störvariablen zusammen?

    Lösung

    Die interne Validität eines Experiments ist gegeben, wenn Veränderungen in der AV ausschließlich auf die Variation der UV zurückgeführt werden können. Diese Kausalinterpretation versucht man durch die Kontrolle der Störvariablen zu erreichen. Einschränkungen in der internen Validität durch mangelnde Kontrolle der Störvariablen führen dazu, dass die Kausalinterpretationen vorläufigen Charakter besitzen und weiterer experimenteller Bestätigung bedürfen.
  • Wie kann man die Präzision einer experimentellen Hypothesenprüfung erhöhen?

    Lösung

    Das Ziel besteht darin, mögliche Fehlerquellen (Sekundärvarianz) zu minimieren (z. B. durch Kontrolle der Störvariablen) und die Wirkung der experimentellen Variablen (Primärvarianz) zu maximieren (z. B. durch optimale Operationalisierung von UV und AV), damit die Relation von Primär- zu Sekundärvarianz möglichst zu Gunsten der Primärvarianz ausfällt und damit die Möglichkeit gegeben ist (bleibt), die Hypothese realitätsadäquat zu entscheiden.
  • Wie unterscheiden sich Labor- und Feldexperiment hinsichtlich der Gütekriterien?

    Lösung

    Das Ziel besteht beim Experiment in der intern validen Hypothesenprüfung, die eine optimale Kausalinterpretation zwischen UV und AV ermöglicht. Abstriche sind aufgrund der sich ergebenden künstlichen Untersuchungssituation für die die externe Validität zu machen.
    Aus der verringerten Kontrolle der Störvariablen resultiert die zwangsläufig geringere interne Validität eines Feldexperiments im Vergleich zu einem Laborexperiment. Auf der anderen Seite führt die Nähe zur natürlichen Umgebung zu einer erleichterten Übertragbarkeit der Ergebnisse der Hypothesenprüfung auf andere Situationen und dadurch zu einer erhöhten externen Validität bzw. einem größeren Geltungsbereich der Hypothese.
  • Welches sind Vor- bzw. Nachteile der AB- sowie der multiplen Grundratenversuchspläne?

    Lösung

    Die besprochenen AB-Pläne variieren das Ausmaß der Kontrolle durch die unterschiedliche Anzahl an A- und/oder B-Phasen. Sie bleiben aber quasiexperimentelle Pläne, weil Alternativhypothesen zum beobachteten Effekt zwar mit hinreichender aber nicht hundertprozentiger Sicherheit ausgeschlossen werden können. Dieser Mangel kann mit Replikationsstudien ausgeglichen werden.
    Multiple Grundratenversuchspläne lassen rivalisierende (alternative) Erklärungen der Effekte der UV in der AV als sehr unwahrscheinlich erscheinen und sind aus diesen Gründen attraktive Alternativen im Spektrum der quantitativen Einzelfallforschungspläne. Die mögliche hohe interne Validität setzt jedoch die Einhaltung der Annahmen der Ähnlichkeit und Unabhängigkeit voraus.
  • Geben Sie Merkmale der Korrelationsstudie an.

    Lösung

    Das Hauptmerkmal nichtexperimenteller Forschungsmethoden besteht in ihrem Ziel, einen Sachverhalt möglichst genau beschreiben zu wollen. Es werden die beteiligten Variablen identifiziert und beschrieben. In Korrelationsstudien wird speziell nach deren Zusammenhang gefragt.
    Der Hauptunterschied zu den experimentellen Forschungsmethoden besteht darin, dass in der Regel keine Kausalhypothesen im Sinne der Erklärung von Wirkzusammenhängen geprüft werden.
  • Was versteht man unter einer nichtredundanten Darstellung einer Korrelationsmatrix?

    Lösung

    Tab. 3.9 zeigt eine vollständige Korrelationsmatrix für die Variablen A, B, C und D. In der Diagonale der Tabelle stehen die Autokorrelationen, also die Korrelation einer Variablen mit sich selbst, die natürlich r=1 beträgt. In den beiden Hälften finden sich identische Werte, weshalb man meist Korrelationsmatrizen mit einer leeren Hälfte vorfindet (nichtredundante Darstellung, Tab. 3.10).
  • Wie verhält es sich mit der erkennbaren Tendenz, Korrelationen kausal zu interpretieren?

    Lösung

    Die Problematik der fälschlichen Kausalinterpretation von festgestellten Zusammenhängen zwischen zwei Variablen ist nicht als Schwachpunkt der Methode der Korrelationsstudie zu sehen, sondern eine immer wieder beobachtbare Tendenz von Wissenschaftlerinnen und Wissenschaftlern (und auch Journalisten und Journalistinnen) zum kausalen Denken und Interpretieren. Mit Korrelationsstudien kann man beschreiben, aber nicht erklären. Den Beschreibungsschwerpunkt bilden die Zusammenhänge zwischen den am interessierenden Sachverhalt beteiligten Variablen.
  • Welche Aspekte sind bei der Umfrageforschung von besonderer Relevanz?

    Lösung

    Die Umfrageforschung sammelt standardisierte Informationen zu einem spezifischen Fragegegenstand (Wahl, Produktbeliebtheit, Irakkrieg usw.) indem eine repräsentative Stichprobe der jeweiligen Population befragt (interviewt) wird. Ziel der Umfrageforschung ist die Erhebung eines zutreffenden Meinungsbilds
  • Was ist ein Panel?

    Lösung

    Eine Spezialform der Umfrageforschung liegt in der Panelforschung vor. Der Hauptunterschied liegt darin, dass im Panel die Probanden wiederholt (in regelmäßigen Abständen) befragt bzw. interviewt werden, in der herkömmlichen Umfrageforschung dagegen immer andere Stichproben.
  • Ist die Metaanalyse eine Auswertungs- oder Forschungsmethode?

    Lösung

    Die Metaanalyse ist eine Forschungsmethode, die in der vorgegebenen Systematik eine Sonderposition einnimmt: Zwar ist sie keine wirklich experimentelle Methode, denn ihre Untersuchungseinheiten sind keine Vpn, sondern Primärstudien, aber die Primärstudien selber können auch (quasi)experimenteller Natur sein und ihre Bewertungskriterien jenen des Experiments folgen. Metaanalysen prüfen in der Regel keine spezifische Hypothese, sondern durch Integration vieler Primärstudien eine Reihe eng verwandter Hypothesen.
  • Was versteht man unter dem »Müll-rein-Müll-raus«-Problem in der Metaanalyse?

    Lösung

    Das „Müll-rein-Müll-raus"-Problem thematisiert die unterschiedliche Qualität von Studien. Kann man reliable und valide Ergebnisse der Metaanalyse erwarten, wenn die Primärstudien aus methodischer Sicht (gravierende) Mängel enthalten? Zwei Lösungswege werden beschritten: Das Benutzen von Ausschlusskriterien oder die Einführung einer Moderatorvariablen. Ausschlusskriterien stehen für Mindeststandards, die erfüllt sein müssen, damit die Studie weiter in der Analyse verbleiben kann.
  • Was kann man bei Inhomogenität der Varianz der Effektgrößen in der Metaanalyse unternehmen?

    Lösung

    Liegt Varianzheterogenität vor, so kann durch Bildung von Subgruppen anhand von inhaltlichen und/oder methodischen Moderatorvariablen versucht werden, ein differenzierteres Ergebnismuster zu erreichen, z. B. dergestalt, dass sich für die Operationalisierungsform der AV „Dauer des Kontakts mit Gleichaltrigen pro Stunde" ein Δ=0,67 und für „Anzahl der Kontaktaufnahmen am Vormittag" ein Δ=0,47 ergibt.
  • Welche Schritte umfasst die Datenaufbereitung?

    Lösung

    Die Datenaufbereitung umfasst die Schritte und Prozeduren, mit denen die Rohdaten einer empirischen Untersuchung in eine Form gebracht werden, die eine gezielte Beantwortung der Forschungsfragen und die Überprüfung der Hypothesen mithilfe von Auswertungsverfahren erlaubt.
  • Welche Hauptziele verfolgt die quantitative Datenaufbereitung?

    Lösung

    a) Daten, die noch nicht in quantitativer Form vorliegen, in Zahlenform zu überführen;
    b) diese quantitativen Daten in ein per Software analysierbares Datenformat zu übertragen;
    c) die Daten so zu organisieren, dass sie im Hinblick auf die Fragestellungen oder Hypothesen effektiv analysiert werden können.
  • Worauf ist bei der Zusammenfassung mehrerer Items, die dasselbe Konstrukt erfassen sollen, zu achten?

    Lösung

    Es muss mindestens die internen Konsistenz der Items geprüft werden. Wenn die interne Konsistenz ausreichend hoch ist (Cronbachs Alpha von mindestens 0.70 oder 0.80), dann ist eine Zusammenfassung zulässig.
  • Welche Aspekte der Datenaufbereitung sind vor allem bei Reaktionszeiten zu beachten?

    Lösung

    Zu beachten sind vor allem Ausreißer (extrem hohe oder unrealistisch niedrige Zeiten) und stark linkssteile Verteilungen. Umgang: Ausreißer können eliminiert oder durch inhaltlich plausible maximale oder minimale Werte ersetzt werden. Werte aus linkssteilen Verteilungen können durch Transformationen (z.B. mithilfe des natürlichen Logarithmus) in stärker symmetrische Verteilungen umgewandelt werden.
  • Welche deskriptivstatistischen Parameter sollen die gesamte Stichprobe möglichst treffend kennzeichnen?

    Lösung

    Maße der zentralen Tendenz
  • Welche Art von Häufigkeit ist unabhängig von der Stichprobengröße?

    Lösung

    Die relative Häufigkeit; dazu zählt auch die prozentuale Häufigkeit.
  • Weshalb eignet sich ein Kreisdiagramm dazu, die Ergebnisse einer „Sonntagsfrage“ (aktuelle Wahlentscheidungen für politische Parteien) darzustellen?

    Lösung

    Da der wichtigste Parameter solcher Studien relative (prozentuale) Häufigkeiten sind (also die Anteile der Befragten, die eine bestimmte Partei wählen würden).
  • Durch welche Art deskriptivstatistischer Parameter wird die Unterschiedlichkeit von Werten einer Stichprobe dargestellt?

    Lösung

    Durch Streuungsmaße.
  • Bei welchen Ausprägungen von Streuungsmaßen ist ein arithmetisches Mittel vergleichsweise repräsentativ für die Stichprobe?

    Lösung

    Bei geringer Streuung.
  • a) Wie heißt der Parameter, den die Division der Summe der Abweichungsprodukte durch den Stichprobenumfang ergibt
    b) Inwiefern handelt es sich um einen standardisierten Wert?

    Lösung

    a) Kovarianz
    b) Die Kovarianz ist standardisiert im Hinblick auf die (also unabhängig von der) Stichprobengröße, aber nicht standardisiert im Hinblick auf die (also abhängig von den) Messeinheiten der beiden Variablen.
  • a) Welcher Parameter gibt die Stärke des Zusammenhangs zwischen einem Prädiktor und dem Kriterium einer Regression an?
    b) Wie hängt die standardisierte Form des Parameters mit der Standardabweichung zusammen?

    Lösung

    a) der Regressions- bzw. Betakoeffizient
    b) der standardisierte Regressions- bzw. Betakoeffizient gibt an, um wie viele Standardabweichungen sich das Kriterium ändert, wenn sich der Prädiktor um eine Standardabweichung ändert.
  • Kann der Betrag eines standardisierten Regressions- bzw. Betakoeffizienten den Wert 1 übersteigen?

    Lösung

    Ja, im Unterschied zum Betrag einer Korrelation kann er das. Denn ein Kriterium kann sich durchaus um mehr als eine Standardabweichung ändern, wenn sich der Prädiktor um eine Standardabweichung ändert.
  • Was ist das wesentliche Merkmal der Inferenzstatistik?

    Lösung

    Die Inferenzstatistik dient dem Schluss von einer Stichprobe auf eine zugehörige Population. Aussagen der Inferenzstatistik gehen damit über das Beobachtbare hinaus und sind mit Unsicherheit behaftet.
  • Worin besteht der wesentliche Unterschied zwischen Signifikanz und Effektgröße?

    Lösung

    Die Signifikanz besagt, ob ein gefundener Unterschied nur mit geringer Wahrscheinlichkeit durch zufällige Abweichungen zu erklären ist. Die Effektgröße gibt hingegen an, wie groß ein festgestellter Unterschied ist.
  • Nach welchen Kriterien sollten inferenzstatistische Testverfahren ausgewählt werden?

    Lösung

    Nach der inhaltlichen Angemessenheit und der Sparsamkeit.
  • Welche Fehlerwahrscheinlichkeit ist bei Signifikanztests, die nicht von Anfang an eine wünschenswerte Effektgröße berücksichtigen, in der Regel unbekannt?

    Lösung

    Der Fehler zweiter Art (Betafehler), also die Wahrscheinlichkeit, einen bestehenden Effekt nicht festzustellen.
  • Welches Testverfahren wird eingesetzt, um die Wahrscheinlichkeit zu berechnen, dass bei unterstellter Gültigkeit der Nullhypothese der zwischen zwei Stichproben (bestehend aus verschiedenen Versuchspersonengruppen) festgestellte Unterschied der arithmetischen Mittel erzielt wird?

    Lösung

    Der t-Test für unabhängige Stichproben.
  • Was ist das Prinzip einer Varianzanalyse?

    Lösung

    Eine Varianzanalyse zerlegt die Varianz aller beobachteten Werte einer abhängigen Variable in diejenige Varianz, die durch die unabhängige/n Variable/n erklärt werden kann (erklärte Varianz, Primärvarianz) und diejenige Varianz, die hierdurch nicht zu erklären ist (Fehlervarianz, Sekundärvarianz).
  • Nennen Sie fünf (beliebige) Prinzipien qualitativen Forschens!

    Lösung

    Fünf beliebige aus den folgenden elf Prinzipien:
    1. Naturalistische Vorgehensweise;
    2. Offene Verfahren; 3.
    Fallorientierung;
    4. Holistische Vorgehensweise;
    5. Induktives Vorgehen;
    6. Emergente Flexibilität des Designs;
    7. Ziel: Beschreibung, Verstehen;
    8. Interpretationsbedürftige Daten;
    9. Forschende als Messinstrumente;
    10. Theoretische Verallgemeinerung;
    11. Gütekriterium der Validität
  • Weshalb ist es nicht ohne Weiteres möglich, den Gegenstand unverändert in seiner natürlichen Form zu erfassen?

    Lösung

    Der Gegenstand existiert nicht in einem Vakuum, sondern ist zumindest zum Teil durch die Untersuchungssituation mit bedingt. In der Psychologie ist die Untersuchungssituation auch eine soziale Situation, in der Menschen miteinander interagieren. Forschende sind daher unvermeidlich an der Erzeugung der eigenen Daten mit beteiligt. Aus qualitativer Sicht ist dies keine Fehlerquelle, die sich ausschließen lässt. Stattdessen berücksichtigen qualitativ Forschende ganz bewusst die Art und Weise, wie ihre eigene Person in den Forschungsprozess eingeht.
  • Inwiefern sind qualitativ Forschende selbst „Messinstrumente"?

    Lösung

    In der qualitativen Forschung fungiert häufig die Forscherin oder der Forscher selbst als Instrument der Datenerhebung (etwa bei der Durchführung von Interviews oder von Beobachtungen). Daraus folgt erstens, dass die Datenerhebung gerade nicht unabhängig von den beteiligten Personen erfolgt. Statt dessen bemühen sich die Forschenden aktiv um Verstehen, wobei sie in verschiedenen Kontexten und verschiedenen Personen gegenüber manchmal gerade unterschiedlich handeln, ohne dabei die Datenerhebung jedoch in die eine oder die andere Richtung zu lenken. Weiterhin sollten Forschende bei der Auswertung und Interpretation daher eigene Eindrücke und Verhaltensweisen ganz bewusst berücksichtigen und kritisch reflektieren.
  • Was versteht man unter bewusster Stichprobenziehung?

    Lösung

    Bei der bewussten bzw. absichtsvollen Stichprobenziehung wird die Stichprobe gezielt nach bestimmten Kriterien aus der Grundgesamtheit ausgewählt. Bei Bottom-up-Strategien der bewussten Stichprobenziehung ergeben sich diese Kriterien erst im Untersuchungsverlauf; bei Top-down-Strategien stehen sie zu Untersuchungsbeginn fest. Ziel der bewussten Stichprobenziehung ist die detaillierte Beschreibung ausgewählter Fälle oder die analytische Verallgemeinerbarkeit von der Stichprobe auf eine Theorie.
  • Weshalb ist die Größe der Stichprobe bei der bewussten Stichprobenziehung nicht von Bedeutung? Was ist wichtiger als die Anzahl der Fälle?

    Lösung

    Bei der probabilistischen Stichprobenziehung muss die Stichprobe groß genug sein, um mit hinreichender Sicherheit von der Stichprobe auf die Grundgesamtheit schließen zu können. Eine solche statistische Verallgemeinerung ist aber meist nicht das Ziel qualitativer Untersuchungen; daher ist auch die Größe der Stichprobe nicht von Bedeutung. Wichtiger als die Anzahl der Fälle ist die Zusammensetzung der Stichprobe.
  • Kann man Ergebnisse, die anhand einer bewussten Stichprobe ermittelt wurden, auf die Population verallgemeinern?

    Lösung

    In der Regel kann man das nicht. Wie bei den meisten Regeln gibt es aber auch hier Ausnahmen. Eine solche Ausnahme ist der typische Fall: Von einem typischen Fall kann man auf die Grundgesamtheit verallgemeinern.
  • Inwiefern stellt die theoretische Stichprobenziehung eine induktive bzw. eine Bottom-up-Strategie der bewussten Stichprobenziehung dar?

    Lösung

    Die Kriterien, nach denen die Stichprobe zusammengesetzt ist, ergeben sich erst im Untersuchungsverlauf. Dabei wird die Stichprobe sukzessive nach den Prinzipien der maximalen Ähnlichkeit und Differenz erweitert.
  • Was versteht man unter einem qualitativen Stichprobenplan?

    Lösung

    Bei einem qualitativen Stichprobenplan werden die Kriterien für die Zusammensetzung der Stichprobe vor Untersuchungsbeginn festgelegt. Kriterien und ihre Ausprägungen werden in einer Kreuztabelle kombiniert; für jede Kombination von Kriterienausprägungen wird die angezielte Anzahl von Fällen festgelegt.
  • Wie sähe der „typische Fall" einer Psychologiestudentin aus?

    Lösung

    Eine typische Psychologiestudentin weist diejenigen Eigenschaften, Interessen und Motive auf, die sich bei den meisten Psychologiestudentinnen finden. So interessieren sich Studentinnen der Psychologie meist für andere Menschen, möchten anderen Menschen gerne (therapeutisch) helfen, wünschen sich weniger Methodenveranstaltungen im Verlauf ihres Studiums usw. Schauen Sie sich einfach unter Ihren Kommilitoninnen um!
  • Was versteht man unter einer Fallstudie?

    Lösung

    Die Fallstudie stellt eine holistische Forschungsmethode dar, mit der interessierende Fälle ganzheitlich, unter Einbeziehung ihres Kontextes und unter Verwendung verschiedener Datenquellen und Erhebungsverfahren umfassend untersucht werden.
  • Welche Arten der Fallstudie gibt es?

    Lösung

    1. Unterscheidung nach Funktion: beschreibende und erklärende Fallstudien
    2. Unterscheidung nach der Anzahl der Fälle: Einzelfallstudien und multiple Fallstudien
    3. Unterscheidung nach Untergliederung: holistische und eingebettete Fallstudien
  • Weshalb kommen bei der Fallstudie meist mehrere Erhebungsmethoden und mehrere Datenarten zur Anwendung?

    Lösung

    Ziel der Fallstudie ist es, die Fälle differenziert in ihrer ganzen Tiefe und Breite zu erfassen. Verschiedene Datenarten und -quellen vermitteln meist ein umfassenderes Bild als lediglich eine Datenart und -quelle - daher die Kombination.
  • Was ist das Ziel der gegenstandsbezogenen Theoriebildung?

    Lösung

    Ziel der gegenstandsbezogenen Theoriebildung ist es, unter weitgehender Ausblendung von Vorannahmen gesättigte Theorien zu erstellen, die direkt in den Daten verankert sind.
  • Sie planen, eine gegenstandsbezogene Theorie zu der Frage zu erstellen, wie Studierende mit chronischer Krankheit im Studium zurechtkommen. Wie gehen Sie vor?

    Lösung

    Sie beginnen mit einer Leitidee. Beispielsweise könnte es sein, dass Studierende mit chronischer Krankheit, die mit anderen leben, besser zurecht kommen als Studierende mit chronischer Krankheit, die alleine leben.
    Nach dem Prinzip der maximalen Ähnlichkeit beginnen Sie mit zwei Studierenden mit chronischer Krankheit, die alleine leben.
    Nach dem Prinzip der maximalen Differenz erheben Sie als nächstes Daten für zwei Studierende mit chronischer Krankheit, die mit anderen leben.
    Sie werten die Daten aus und vergleichen, sowohl die je ähnlichen Studierenden untereinander als auch die unähnlichen Studierenden. Auf dieser Grundlage erstellen Sie Vermutungen darüber, welche weiteren Faktoren damit zusammenhängen, wie gut Studierende mit chronischer Krankheit mit dem Studium zurecht kommen (z. B. das Studienfach, der Grad der Beeinträchtigung durch die Krankheit usw.).
    Sie beziehen nun weitere Fälle in die Untersuchung ein, die sich in Bezug auf diese weiteren Faktoren ähnlich oder unähnlich sind.
    Sie wiederholen die bisherigen Schritte so lange, bis eine Einbeziehung weiterer Fälle keine neuen Erkenntnisse erbringt, Sie Ihre Theorie also nicht weiter verändern müssen. Ihre Theorie gilt dann als gesättigt.
  • Worin unterscheiden sich offenes und axiales Codieren? Können offene und axiale Codes auch identisch sein - was meinen Sie?

    Lösung

    Offenes Kodieren erfolgt datennah, Zeile für Zeile. Dabei kommen auch in vivo-Codes zur Anwendung, d. h. Codes in der Terminologie der Teilnehmenden.
    Beim axialen Codieren wird von den offenen Codierungen abstrahiert, wobei die Codes als Grundlage für die Generierung theoretischer Konzepte bzw. axialer Codes dienen. Typisch ist die Zusammenfassung mehrerer offener Codes zu einem Oberbegriff, auch über die Äußerungen mehrerer Personen hinweg. Diese axialen Codes werden auch als Kategorien bezeichnet. Die Kategorien dienen der Strukturierung des Datenmaterials.
    Meistens sind offene Codes zu konkret und spezifisch, um als axiale Codes zu dienen. Es kann aber durchaus Situationen geben, in denen ein offener Code auch einmal mehrere Fälle oder Textstellen abdeckt und daher als axialer Code übernommen werden kann.
  • Was versteht man unter deskriptiver Feldforschung?

    Lösung

    Ziel der deskriptiven Feldforschung ist es, eine Kultur aus der Sicht ihrer Mitglieder kennen zu lernen und zu beschreiben. Die Kultur soll durch die Forschungstätigkeit möglichst nicht verändert werden. Wichtigste Methode der Datenerhebung ist die teilnehmende Beobachtung.
  • Weshalb gilt der Einstieg ins Feld als die schwierigste Phase der Feldforschung?

    Lösung

    In dieser Phase werden die Weichen für die weitere Untersuchung gestellt. Sie gilt als besonders schwierig, weil das Forschungsteam die ungeschriebenen Regeln der fraglichen Kultur noch nicht kennt, eine Verletzung der Regeln aber im schlimmsten Fall ein Scheitern der gesamten Untersuchung nach sich ziehen kann.
  • Welches Problem wird im Zusammenhang mit der deskriptiven Feldforschung am häufigsten diskutiert? Wie hängt dieses Problem mit der Spannung zwischen Innensicht und Außensicht zusammen, in der sich die deskriptive Feldforschung bewegt?

    Lösung

    In der Literatur zur deskriptiven Feldforschung wird das Problem des „going native" am häufigsten diskutiert. Darunter versteht man den Verlust von Distanz zum Forschungsgegenstand und die Identifikation mit der untersuchten Kultur. Zielidee der deskriptiven Feldforschung ist es, die Innensicht einer anderen Kultur möglichst gut kennen zu lernen - eben wie dies in der Regel nur einem Mitglied dieser Kultur möglich ist - und diese Kenntnis aus der Innensicht zugleich mit der Distanz der Außensicht als Forschende oder Forschender zu kombinieren. Beim „going native" geht die Distanz der Außensicht verloren; es bleibt nur noch die Innensicht.
  • Nennen Sie zwei Gegenstandsbereiche, in denen deskriptive Feldforschung heutzutage zum Einsatz kommt!

    Lösung

    Zwei beliebige aus: Fankulturen, Jugendkulturen, Organisationskulturen, Gemeinschaften im Internet
  • Welches sind die wichtigsten Unterschiede zwischen der Handlungsforschung und der deskriptiven Feldforschung?

    Lösung

    Handlungsforschung weist einen unmittelbaren Problembezug auf, deskriptive Feldforschung nicht.
    Handlungsforschung zielt auf eine Veränderung des Gegenstandsbereiches (Veränderung gesellschaftlicher Praxis). Deskriptive Feldforschung hat dagegen gerade das Ziel, den Gegenstand möglichst nicht zu verändern. Das ist der wichtigste Unterschied zwischen den beiden Ansätzen.
    Handlungsforschung vollzieht sich im gleichberechtigten Diskurs zwischen Forschenden und Teilnehmenden. Bei der deskriptiven Feldforschung bestimmen die Forschenden den Untersuchungsablauf.
  • Welche Phasen werden bei der Handlungsforschung durchlaufen?

    Lösung

    Gemeinsame Problemdefinition
    Erarbeitung von Handlungsschritten in einer Spirale von Datenerhebung, -auswertung und Evaluation, gefolgt von erneuter Datenerhebung usw.
    Endpunkt ist die Erreichung eines Zielzustands, der von allen Beteiligten als zufrieden stellend empfunden wird.
  • Stellen Sie sich vor, Sie planen eine Handlungsforschungsstudie mit Insassen einer Jugendvollzugsanstalt, in der es häufig zu Gewalt zwischen den Häftlingen gekommen ist. Mit welchen Problemen müssen Sie rechnen?

    Lösung

    Die Veränderungsmöglichkeiten sind nicht beliebig, sondern durch die Institution und die Gesetzgebung begrenzt.
    Es ist fraglich, ob es gelingt, zwischen Forschenden und Insassen eine gemeinsame Problemdefinition zu erarbeiten und sich auf einen gemeinsamen Zielzustand zu einigen.
    Inwieweit ist es wünschenswert, die Insassen als Gleichberechtigte in den Forschungsprozess einzubeziehen? Nicht nur bei der Erarbeitung von Problemdefinition und Zielzustand, sondern über den gesamten Forschungsprozess hinweg kann es sich als schwierig erweisen, über die unterschiedlichen Interessen von Insassen und Forschenden hinweg Übereinstimmung zu erzielen.
  • Was würden Sie antworten, wenn eine Kollegin Sie auf eine Diskrepanz zwischen erzählter Lebensgeschichte und den Geschichtsbüchern hinweist und schließt, dass man der Interviewpartnerin offensichtlich keinen Glauben schenken kann?

    Lösung

    Menschen nehmen die Welt nicht ‚objektiv' wahr, sondern immer subjektiv, vor dem Hintergrund ihrer eigenen Erfahrungen und kognitiven Schemata. In der biografischen Forschung wird die lebensgeschichtliche Erzählung daher auch nicht als Darstellung ‚objektiver Gegebenheiten' verstanden, sondern als Prozess der Sinngebung durch das Individuum. Von zentralem Interesse sind in der Biografieforschung daher nicht die objektiven Gegebenheiten und Lebensumstände (also nicht, was sich zu einer bestimmten Zeit ereignet hat), sondern die Art und Weise, wie das Individuum diese Umstände wahrnimmt, mit Sinn versieht und sie in die eigene Lebensgeschichte integriert. Dass die Interviewpartnerin Geschehnisse anders darstellt, als sie in den Geschichtsbüchern vermittelt werden, heißt also keineswegs, dass sie bewusst verzerrt oder gar lügt. Und im Übrigen können Geschichtsbücher auch irren!
  • Wie lassen sich biografische Interviews auswerten?

    Lösung

    Die Auswertung von biographischen Interviews kann sich auf die Inhalte konzentrieren oder auf die Erzählstruktur. Gergen und Gergen unterscheiden z. B. zwischen progressiven, regressiven und stabilen Erzählstrukturen. Wieder andere Verfahren stellen die Relation zwischen erlebter und erzählter Lebensgeschichte in den Mittelpunkt der Analyse (z. B. das Verfahren von Fischer-Rosenthal und Rosenthal).
  • Inwieweit unterscheidet sich das qualitative Experiment vom Experiment in der quantitativen Psychologie?

    Lösung

    Sowohl im qualitativen als auch im quantitativen Experiment wird der Gegenstand hinsichtlich ausgewählter Merkmale variiert, und es werden die Ergebnisse dieser Variation untersucht. Während im quantitativen Experiment aber beliebige Variationen realisiert werden können, ist das qualitative Experiment auf solche Variationen beschränkt, die der Struktur des Gegenstandes gerecht werden.
    Beim qualitativen Experiment wird der Gegenstand in seiner natürlichen Umgebung belassen und in seiner ganzen Komplexität untersucht, sodass das Prinzip der Kontrolle von Störvariablen hier keine Anwendung findet.
    Außerdem handelt es sich beim qualitativen Experiment nicht um ein deduktiv-hypothesentestendes, sondern um ein induktiv-entdeckendes Verfahren: Die Strukturen des Gegenstandes sollen sichtbar gemacht werden.
  • Was versteht man unter dem Prinzip der maximalen strukturellen Variation?

    Lösung

    Das Prinzip der maximalen strukturellen Variation wurde im Zusammenhang mit der Forschungsmethode des qualitativen Experiments entwickelt. Es besagt, dass alle relevanten Aspekte eines Gegenstandes auf Ähnlichkeiten und Unterschiede hin analysiert werden sollen.
  • Sie planen ein qualitatives Experiment zur Wirkung eines Gedichts auf die Leserinnen und Leser. Welche Methoden würden Sie zur Veränderung Ihres Gegenstandes anwenden?

    Lösung

    Am besten eignen sich hier Methoden der Gliederung, z. B. durch Hinzufügen oder Entfernen von Satzzeichen, Veränderung der Zeilenumbrüche oder der Unterteilung in Strophen.
    Auch Methoden der Umwandlung sind anwendbar, wenn auch mit mehr Mühe verbunden. Z. B. könnte man versuchen, das Gedicht in ein anderes Versmaß zu überführen oder andere Sprachkonventionen zu realisieren (Alltagssprache versus ‚poetische' Sprache).
  • Inwiefern sehen Vertreterinnen und Vertreter des FST eine Parallele zwischen Wissenschaftlerinnen bzw. Wissenschaftlern und dem Menschen im Alltag?

    Lösung

    Im FST wird angenommen, dass Menschen im Alltag ebenso wie Wissenschaftlerinnen und Wissenschaftler versuchen, sich selbst und die Welt um sich herum zu verstehen, zu erklären und ggf. auch zu verändern.
  • Was versteht man unter einer subjektiven Theorie?

    Lösung

    Subjektive Theorien bestehen aus Konzepten, die durch Relationen untereinander verknüpft sind. Sie sind definiert als:
    „Kognitionen der Selbst- und Weltsicht,
    die im Dialog-Konsens aktualisier- und rekonstruierbar sind;
    als komplexes Aggregat mit zumindest impliziter Argumentationsstruktur,
    das auch die zu wissenschaftlichen Theorien parallelen Funktionen
    der Erklärung, Prognose, Technologie erfüllt und
    deren Akzeptierbarkeit als ‚objektive' Erkenntnis zu prüfen ist".
  • Aus welchen zwei Schritten besteht die Phase der kommunikativen Validierung? Was ist das Ziel dieser zwei Schritte?

    Lösung

    Im ersten Schritt der kommunikativen Validierung werden die Theorieinhalte in einem Leitfadeninterview erhoben. In einem zweiten Schritt wird die Theoriestruktur rekonstruiert, indem die Inhalte untereinander durch Relationen verknüpft werden, die in einem Struktur-Lege-Verfahren spezifiziert sind. Diese Strukturrekonstruktion wird von den Forschenden und den Teilnehmenden jeweils gemeinsam erarbeitet. Die Phase der kommunikativen Validierung dient somit der Erhebung und Rekonstruktion der subjektiven Theorie.
  • Warum ist die Phase der kommunikativen Validierung nicht ausreichend - weshalb schließt sich eine Phase der explanativen Validierung an?

    Lösung

    Weil subjektive (genauso wie ‚objektive') Theorien auch falsch sein können.
  • Nennen Sie zwei Designs der explanativen Validierung! Welches ziehen Sie vor, und warum?

    Lösung

    Es stehen drei Designs zur Verfügung: Korrelations-, Prognose- und Modifikationsstudien. Korrelationsstudien sind vergleichsweise am unaufwändigsten - allerdings kann man dabei nur schwer ausschließen, dass ein Teilnehmer oder eine Teilnehmerin bewusst versucht, ihre Theorie und ihre Handlungsweise in Übereinstimmung zu bringen (also beispielsweise so zu handeln, wie es der vorher geäußerten subjektiven Theorie entspricht). Dieser Nachteil fällt bei Prognose- und Modifikationsstudien weg, aber diese Designs sind beide nur mit großem Aufwand realisierbar.
  • In welchen Hinsichten unterscheidet sich das Interview von einem Gespräch mit guten Freunden?

    Lösung

    1. Das Interview ist eine asymmetrische Form der Kommunikation mit festgelegten Rollen.
    2. Das Interview dient dem Zweck der Informationsermittlung.
  • Welches sind die Unterschiede zwischen einem teil- und einem nonstandardisierten Interview? Nennen Sie jeweils ein Beispiel!

    Lösung

    1. Dem teilstandardisierten Interview liegt ein Leitfaden zugrunde, der sowohl Themen als auch Fragen zu den verschiedenen Themen enthält. Diese Fragen sollten im Interviewverlauf alle abgedeckt werden, wenn auch nicht notwendig genau in dieser Formulierung und nicht notwendig genau in dieser Reihenfolge. Das problemzentrierte und das fokussierte Interview zählen zu den teilstandardisierten Interviews.
    2. Das nonstandardisierte Interview ist wesentlich offener und gibt den Befragten mehr Gelegenheit zum freien Erzählen. In einem Leitfaden werden allenfalls Themenkomplexe zusammengestellt, aber keine Fragen vorformuliert. Das Tiefeninterview, das narrative und das episodische Interview zählen zu den nonstandardisierten Interviews.
  • Sie planen eine Interviewstudie zur Zufriedenheit der Studierenden mit den Studienbedingungen in Ihrem Fachbereich. Wie gehen Sie bei der Erstellung des Interviewleitfadens vor?

    Lösung

    Als erstes führen Sie eine Bestandsaufnahme durch: Was ist über den Untersuchungsgegenstand schon bekannt? Dabei können Sie auf Theorien zurückgreifen, auf schon vorhandene Forschungsergebnisse, auf informelle Gespräche mit Ihren Kommilitoninnen und Kommilitonen oder auf Ihr Alltagswissen.
    Auf dieser Grundlage erstellen Sie eine Liste von Themen.
    Für jedes Thema formulieren Sie einige Fragen.
    Sie erproben den Leitfaden mit einigen wenigen Personen und ändern ihn ggf. noch einmal ab.
  • Was versteht man unter einem narrativen Interview? Wie geht man dabei vor?

    Lösung

    Das narrative Interview dient der Untersuchung lebensgeschichtlich-biografischer Fragestellungen. Es gliedert sich in folgende Phasen:
    Der Erzählanstoß soll die Untersuchungsteilnehmerin oder den Teilnehmer dazu anregen, die eigene Geschichte zum Untersuchungsthema zu erzählen. Im ersten Schritt ist daher ein geeigneter Erzählanstoß zu formulieren.
    Darauf folgt die Erzählung. Sie bildet den Hauptteil des narrativen Interviews. In diesem Abschnitt des Interviews sollten die Befragten frei erzählen können, ohne Unterbrechung durch die Forschenden.
    In der Nachfragephase stellen die Forschenden Verständnisfragen zur Erzählung; es können auch Fragen zu weiteren Aspekten des Untersuchungsgegenstands gestellt werden, die in der Erzählung nicht spontan zur Sprache gekommen sind.
    In der Bilanzierungsphase werden die Befragten um eine abschließende Bewertung gebeten. Diese Phase ist kein notwendiger Bestandteil des narrativen Interviews.
  • Eine Kommilitonin bittet Sie, sich die Fragen einmal anzusehen, die sie für ein Leitfadeninterview vorbereitet hat. Worauf achten Sie?

    Lösung

    Die Fragen sollten gut verständlich formuliert sein. Das bedeutet unter anderem, dass immer nur eine Frage auf einmal gestellt werden sollte. Doppelte Verneinungen sollte man vermeiden.
    Der Leitfaden darf keine Suggestivfragen enthalten, d. h. keine Fragen, die von vornherein eine bestimmte Antwortrichtung nahe legen.
    Bei Fragen nach Gründen sollten Fragen wie „Warum?" oder „Weshalb?" nicht zu oft verwendet werden, da die Befragten sonst leicht unter Rechtfertigungsdruck geraten.
    Die Fragen sollten so formuliert sein, dass sie nicht einfach mit „ja" oder „nein" beantwortet werden können, sondern zu einer ausführlicheren Antwort anregen.
    Der Leitfaden sollte möglichst keine Begriffe aus der Wissenschaft enthalten. In der Formulierung sollte er sich vielmehr an die Begrifflichkeit der Befragten anlehnen.
  • Welche Fähigkeiten muss eine gute Interviewerin bzw. ein guter Interviewer mitbringen?

    Lösung

    Zuhören Können;
    Gespür dafür, wenn etwas nicht so verläuft, wie es sollte - und die Fähigkeit, in solchen Situationen nachzufragen;
    Fähigkeit zum Strukturieren von Gesprächen, z. B. durch Zusammenfassen von Antworten oder Zurückführen zum Thema;
    Keine Angst vor Pausen haben.
  • Welches sind die Unterschiede zwischen einem Interview und einer Gruppendiskussion?

    Lösung

    Interview und Gruppendiskussion sind beides Gespräche mit dem Ziel der Informationsgewinnung. Während beim Interview jedoch in der Regel eine Forscherin bzw. ein Forscher eine Untersuchungsteilnehmerin bzw. einen Untersuchungsteilnehmer befragt, werden bei der Gruppendiskussion mehrere Befragte (zwischen 5 und 15) gleichzeitig in die Untersuchung einbezogen. Dabei sind seltener, wie im Interview, die individuellen Meinungen der Befragten von Interesse, sondern die kollektive Meinung der Gruppe als Ganze. Auch zur Untersuchung von Prozessen der Meinungsbildung in Gruppen ist die Gruppendiskussion ein geeignetes Verfahren.
  • In welche Phasen unterteilt sich eine Gruppendiskussion?

    Lösung

    1. Theoretische Vorüberlegungen und Erstellung eines Leitfadens;
    2. Erläuterung der Gesprächsregeln;
    3. Präsentation eines Grundreizes;
    4. Freie Gruppendiskussion;
    5. ggf. Präsentation von Reizargumenten;
    6. ggf. Metadiskussion
  • In einer Studie zur Verbesserung der Qualität der Lehre setzen Sie die Gruppendiskussion als Erhebungsmethode ein. An der Studie nehmen sowohl Studierende als auch Lehrende teil. Was ist bei der Zusammensetzung der Gruppen zu beachten?

    Lösung

    Sie müssten sich überlegen, ob Sie die Gruppen homogen zusammensetzen wollen (Studierende diskutieren untereinander; Lehrende diskutieren untereinander) oder heterogen (Studierende und Lehrende diskutieren gemeinsam). Bei heterogenen Gruppen und diesem Thema ist sicherlich das Konfliktpotenzial höher; allerdings ‚trauen' sich gerade Studierende vielleicht nicht immer, Lehrenden gegenüber ihre Ansichten zur Lehrqualität zu äußern. Bei homogenen Gruppen ist vermutlich die Bereitschaft höher, bestimmte Probleme im Zusammenhang mit der Lehrqualität zu thematisieren (z. B. Schwierigkeiten beim Lernen oder Lehren); andererseits sind sich die Teilnehmer/innen vielleicht sehr schnell einig, so dass keine längere Diskussion zustande kommt. Sie müssten überlegen, was Ihnen wichtiger ist - das wiederum wird mit der genauen Fragestellung zusammenhängen.
  • Unter welchen Bedingungen eignet sich die schriftliche Befragung besser zur Datenerhebung als das Interview?

    Lösung

    Die schriftliche Befragung eignet sich besser:
    1. in Untersuchungen zu Gegenstandsbereichen, die einer starken sozialen Normierung unterliegen; hier ist die potenzielle Anonymität der schriftlichen Befragung von Vorteil;
    2. zur Rekonstruktion von Erinnerungsprozessen über die Zeit; die Erinnerungen können in schriftlicher Form sukzessive ergänzt werden;
    3. zur Befragung von Personen aus größerer räumlicher Entfernung.
  • Welches methodische Problem stellt sich bei der Entscheidung zwischen periaktionalem und postaktionalem lautem Denken?

    Lösung

    Das periaktionale laute Denken ist näher am Phänomen, ist aber zugleich mit kognitivem Aufwand verbunden. Das periaktionale laute Denken beansprucht somit Ressourcen, die nicht mehr für die Aufgabenbearbeitung zur Verfügung stehen. Das Phänomen wird nicht mehr in seiner natürlichen Form erfasst.
    Das postaktionale laute Denken unterbricht das Phänomen nicht, ist aber zeitlich nachgeordnet, so dass manche Erfahrungen und Gedanken schon nicht mehr wiedergegeben werden können. Auch beim postaktionalen lauten Denken wird das Phänomen somit nicht verzerrungsfrei erfasst.
  • Warum war die Sekundäranalyse qualitativer Daten lange umstritten?

    Lösung

    Im Prozess der Aufbereitung, Archivierung und Anonymisierung geht viel von der Kontextinformation und dem Informationsreichtum verloren, die für qualitative Forschung gerade charakteristisch sind.
  • In welchen Hinsichten unterscheidet sich Beobachtung in der qualitativen von Beobachtung in der quantitativen Forschung?

    Lösung

    Beobachtung in der quantitativen Forschung ist meist standardisiert: Vor Untersuchungsbeginn wird in einem Beobachtungsschema festgelegt, was genau beobachtet werden soll und in welche Kategorien das Beobachtete fallen kann. Beobachtung in der qualitativen Forschung ist dagegen meist nonstandardisiert, d. h. es werden keine vorab festgelegten Kategorien an den Gegenstandsbereich herangetragen.
    Bei der Beobachtung in der quantitativen Forschung sind vor Untersuchungsbeginn auch die Beobachtungseinheiten festzulegen, die meistens eher feinkörnig sind (einzelne Äußerungen, Verhaltensweisen). Demgegenüber ist Beobachtung in der qualitativen Forschung zunächst ganzheitlich: Es wird möglichst umfassend beobachtet; erst im Untersuchungsverlauf wird die Beobachtung zunehmend fokussierter.
    Beobachtungsstudien in der quantitativen Forschung sind meistens von kürzerer Dauer; in der qualitativen Forschung können sie mehrere Jahre umfassen.
  • Was versteht man unter Selbstbeobachtung? Weshalb ist die Selbstbeobachtung unter methodischen Gesichtspunkten umstritten?

    Lösung

    Bei der Selbstbeobachtung wird die eigene Person zum Beobachtungsgegenstand; Beobachter und beobachtete Person sind also identisch. Sie gilt als umstritten, weil sie auf Selbstauskünften basiert. Umstritten ist dabei aus der Sicht der quantitativen Forschung, inwieweit Menschen dazu in der Lage und willens sind, über sich selbst zutreffend Auskunft zu erteilen.
  • Eine Kommilitonin plant, für ihre Abschlussarbeit eine verdeckte teilnehmende Beobachtung in der örtlichen Drogenszene durchzuführen. Was würden Sie ihr zu bedenken geben?

    Lösung

    Eine verdeckte Beobachtung beinhaltet Täuschung und ist daher unethisch - es sei denn, im Untersuchungszweck liegen sehr gute Gründe dafür, die Beobachtung trotzdem verdeckt durchzuführen. Aber ist das hier wirklich der Fall oder ist Ihre Kommilitonin nur neugierig?
    Ihre Kommilitonin wird in einer solchen Untersuchung vermutlich zur Mitwisserin bezüglich illegaler Aktivitäten. Eigentlich wäre sie verpflichtet, diese der Polizei zu melden, was aber die Untersuchung gefährden könnte (und auch Ihre Kommilitonin).
    Gerade die Szene im Umfeld illegaler Drogen ist nicht gut zugänglich. Wie will Ihre Kommilitonin sich Zugang verschaffen?
  • Worauf ist bei der Erstellung eines Beobachtungsprotokolls zu achten?

    Lösung

    Das Protokoll sollte möglichst detaillierte, neutrale Beschreibungen des räumlichen Settings (Tageszeit, Raum, Mobiliar usw.), des sozialen Settings (Wie viele Personen sind anwesend, welchen Alters, Geschlechts? Wie verteilen sie sich im Raum?) und der beobachteten Aktivitäten enthalten.
    Bewertungen und Reflexionen sollten klar als solche gekennzeichnet und dadurch von den Beschreibungen abgehoben werden.
  • Nennen Sie verschiedene Arten von Spuren, die sich im Rahmen nonreaktiver Verfahren in der qualitativen Forschung nutzbar machen lassen. Worauf verweisen diese Spuren?

    Lösung

    Abnutzungserscheinungen: Diese verweisen auf die Häufigkeit des Gebrauchs und damit z. B. auf Bedeutsamkeit oder Beliebtheit.
    'Aktive' Spuren: Diese verweisen auf die Art und Weise der Nutzung von Räumen und Gegenständen.
  • Welche der Verfahren aus diesem Abschnitt eignen sich zur Datenerhebung in einer Studie mit 8- bis 10-jährigen Kindern?

    Lösung

    Eigenproduktion: Aufforderung, etwas zu zeichnen, zu malen, zu formen;
    das szenische Spiel;
    das Sampling aus bereits vorhandenem Material, z. B. Kinderzeichnungen
  • Muss man in der qualitativen Forschung immer eine Transkriptionsphase einplanen? Warum (nicht)?

    Lösung

    Nein. Eine Transkriptionsphase ist nur erforderlich, wenn man Material in auditivem Format aufgezeichnet hat, z. B. wenn man Interviews aufgenommen hat. Auditives Material sollte vor der Auswertung verschriftlicht werden. Die Verschriftlichung erhöht die Systematik der Auswertung.
  • Wenn Studierende zum ersten Mal Interviews durchführen, möchten sie häufig so viele Informationen wie möglich in das Interviewtranskript aufnehmen. Warum kann das problematisch sein, und wovon sollte die Entscheidung abhängen?

    Lösung

    Ein Transkript bewegt sich in einem Spannungsfeld von Authentizität und Lesbarkeit. Je mehr Informationen in das Transkript aufgenommen werden, desto authentischer ist es; zugleich ist es aber auch schwerer lesbar. Außerdem erfordert eine umfangreiche Transkription unter Berücksichtigung von paraverbalen und nonverbalen Aspekten viel Zeit. Daher ist es besser, nur soviel Information in das Transkript aufzunehmen wie nötig. Welche Information jeweils ‚nötig' ist, hängt mit der Forschungsfrage zusammen: Wenn es darum geht, Meinungen, Einstellungen und die Gründe dafür zu erfassen, dann ist in der Regel die Transkription des Äußerungsinhalts ausreichend. Nur wenn man sozusagen ‚hinter" die Äußerungen blicken will, dann ist auch die Verschriftlichung paraverbaler und nonverbaler Elemente erforderlich.
  • Was versteht man unter einem Transkriptionssystem?

    Lösung

    Ein Transkriptionssystem ist ein Regelwerk. Es regelt die Wiedergabe von paraverbalen und nonverbalen Elementen durch Symbole, und es enthält Spezifikationen dafür, wie die Beiträge mehrerer Sprecherinnen und Sprecher auf der Seite angeordnet sind.
  • Was versteht man unter Hermeneutik?

    Lösung

    Hermeneutik ist ein Verfahren, um zu einem angemessenen und umfassenden Verständnis des Gesagten zu gelangen und dabei die Subjektivität des Verstehens im Alltag zu überwinden. Dieses angemessene und umfassende Verständnis wird im wiederholten Durchlaufen der hermeneutischen Zirkel gewonnen.
  • Welches sind die beiden hermeneutischen Zirkel, und weshalb werden diese auch als Spiralen bezeichnet?

    Lösung

    In einem ersten Zirkel greifen Vorverständnis und Textverständnis ineinander, in einem zweiten Zirkel das Verständnis von Textteil und Textganzem. Vorverständnis und Textverständnis, Verständnis von Textteil und Textganzem vertiefen einander wechselseitig und tragen so zu einem immer umfassenderen Verstehen des Textes bei. Die Bewegung zwischen Vorverständnis und Textverständnis, Textteil und Textganzem stellt also keinen Teufelskreis dar, sondern eine fortschreitende Bewegung. Um dieses Fortschreiten zu verdeutlichen, wird auch von ‚hermeneutischer Spirale' an Stelle von ‚hermeneutischem Zirkel' gesprochen.
  • Worauf bezieht sich „objektiv" in der objektiven Hermeneutik?

    Lösung

    ‚Objektiv' bezieht sich auf den Gegenstand der Objektiven Hermeneutik, nämlich allgemeine, ‚objektive' Strukturen, die menschlichem Handeln zugrunde liegen. Die Identifikation solcher Strukturen ist das Ziel der Objektiven Hermeneutik.
  • Nennen Sie drei (beliebige) Grundannahmen der objektiven Hermeneutik!

    Lösung

    Drei beliebige aus den folgenden:
    Verstehen ist immer Verstehen von Sinn.
    Die sinnhafte Welt konstituiert sich ausschließlich in der Sprache und manifestiert sich in Texten.
    Menschliches Handeln wird durch soziale Strukturen geregelt und gesteuert.
    Die Zielsetzung der objektiven Hermeneutik besteht darin, die Sinnstruktur zu rekonstruieren, die einer ausgewählten Handlungsweise zugrunde liegt, und die Regeln herauszuarbeiten, auf denen diese Sinnstruktur basiert.
    Menschen haben meist keinen Zugang zu den Regeln, die ihrem Handeln zugrunde liegen. Die latente Sinnstruktur, die menschlichem Handeln zugrunde liegt, und der subjektiv gemeinte Handlungssinn stimmen daher vielfach nicht überein.
    Jeder Fall ist zugleich allgemein und besonders.
  • Welches sind die Schritte einer objektiv-hermeneutischen Analyse?

    Lösung

    Die allgemeinen Schritte sind:
    Auf der Grundlage eines ersten, sehr kleinen Ausschnitts einer Interaktion werden Hypothesen über die objektiven Sinnstrukturen aufgestellt, die dieser Interaktion zugrunde liegen.
    Die Hypothesen werden mit dem Material verglichen, d. h. mit dem weiteren Interaktionsverlauf. Dabei werden solche Hypothesen verworfen, die mit dem Interaktionsverlauf nicht vereinbar sind.
    Es werden nacheinander mehrere solche Analysen durchgeführt, wobei sukzessive immer mehr Textmaterial einbezogen wird.
    Wenn mehrere Analyseschritte immer wieder eine Strukturhypothese bestätigen, werden die Analysen zu einer Strukturgeneralisierung verdichtet.
    Wenn Sie als Antwort speziell die Schritte der Sequenzanalyse genannt haben, ist das auch richtig!
  • Welche Art der Textbedeutung lässt sich durch Codieren erfassen?

    Lösung

    Codieren dient der Erfassung der tatsächlichen Textbedeutung unter einer bestimmten Perspektive.
  • Was versteht man unter datenreduzierendem Codieren?

    Lösung

    Das datenreduzierende Codieren dient der Zusammenfassung des Materials. Dieses wird auf Bedeutungsaspekte reduziert, die im Rahmen der Fragestellung von besonderer Relevanz sind.
  • Was versteht man unter datenerweiterndem Codieren?

    Lösung

    Beim datenerweiternden Codieren werden neue Gesichtspunkte und Fragestellungen an das Material herangetragen.
  • Inwiefern stellt die Offenheit beim Codieren sowohl einen Vorteil als auch einen Nachteil der Methode dar?

    Lösung

    Die Offenheit erlaubt es, bei der Auswertung auch individuelle Bedeutungsaspekte zu berücksichtigen. Allerdings werden so sehr schnell sehr viele Codes generiert, bei denen man leicht den Überblick verlieren kann. Auch gibt es keine festen Vorgaben für die Durchführung einer Kodierung.
  • Inwiefern zeichnet sich die Inhaltsanalyse durch Systematik aus?

    Lösung

    Die ausgewählten Bedeutungsaspekte werden erstens in Form eines Kategoriensystems im Detail expliziert; die Kategorien enthalten Anweisungen, unter welchen Bedingungen ein Text(teil) einer Kategorie zuzuordnen ist.
    Die Zuordnung von Textstellen zu Bedeutungskategorien erfolgt zweitens meist intersubjektiv durch mindestens zwei voneinander unabhängig Codierende (oder durch eine Person zu mehreren Zeitpunkten).
  • Wie ist ein hierarchisches Kategoriensystem aufgebaut?

    Lösung

    Hierarchische Kategoriensysteme bestehen aus mehreren Oberkategorien und mehreren Unterkategorien pro Oberkategorie. Kategoriensysteme können auch noch weiter ‚geschachtelt' sein und pro Unterkategorie weitere Unterkategorien enthalten.
  • Aus welchen Bestandteilen setzt sich die Definition einer inhaltsanalytischen Kategorie zusammen?

    Lösung

    Benennung, Explikation, Beispiel und ggf. Abgrenzung
  • Was bedeutet es, wenn ein Kategoriensystem deduktiv-induktiv erstellt wurde?

    Lösung

    Ein Teil der Kategorien wurde aus Theorien oder Forschungsergebnissen abgeleitet, ein anderer Teil wurde an Hand des Materials erstellt. Häufig ist eine deduktiv-induktive Vorgehensweise derart, dass die Oberkategorien deduktiv, die Unterkategorien induktiv aus dem Material heraus entwickelt werden.
  • Warum ist die Inhaltsanalyse für die Auswertung eines einzelnen, längeren biografischen Interviews weniger geeignet als das Codieren?

    Lösung

    Die Inhaltsanalyse ist ein datenreduzierendes, zusammenfassendes Verfahren. In einem biografischen Interview finden sich aller Wahrscheinlichkeit nach nicht viele Wiederholungen, so dass die Grundlage für eine Datenreduktion nicht gegeben ist. In einem solchen Fall ist das Kodieren besser geeignet, das es erlaubt, alle geäußerten Aspekte in die Auswertung einzubeziehen, auch wenn die Äußerung nur einmal erfolgt ist.
  • Nennen Sie Anhaltspunkte, die Aufschluss über die Validität eines Kategoriensystems geben!

    Lösung

    Eine hohe Besetzung der Restkategorie zeigt an, dass viele Aspekte des Materials mit dem Kategoriensystem noch nicht erfasst werden.
    Eine überproportional hohe Besetzung einer Kategorie im Vergleich zu den anderen Kategorien weist darauf hin, dass der Bedeutungsaspekt, der durch diese Kategorie abgebildet ist, noch vergleichsweise undifferenziert erfasst wird.
  • Was leistet quantitative Software zur Auswertung verbaler Daten, was qualitative Software nicht leistet?

    Lösung

    Quantitative Software führt eine automatisierte Auswertung manifester Textbedeutung durch.
  • Worin besteht die Leistung von Software bei der computergestützten Auswertung qualitativer Daten?

    Lösung

    Qualitative Software unterstützt die Codierung, automatisiert sie jedoch nicht. Die wichtigste Unterstützung besteht im Bereich von Such- und Retrievalfunktionen: Diese helfen bei der Ermittlung von Codehäufigkeiten und der Häufigkeit, mit der ausgewählte Codes gemeinsam verwendet, d. h. derselben Textstelle zugeordnet wurden.
    Weitere Basisfunktionen umfassen: Zusammenfassung von Texten zu Gruppen; Erstellung von Kategoriensystemen; Codieren; Verfassen von Kommentaren (Memos). Zusätzliche Funktionen sind beispielsweise die Verbindung von Textstellen durch Hyperlinks oder die Visualisierung von Ergebnissen.
  • Worin können die Nachteile der computergestützten Auswertung qualitativer Daten bestehen?

    Lösung

    Die gängigen Programme unterstützen in erster Linie das Codieren in der Tradition der gegenstandsbezogenen Theoriebildung, andere Auswertungsverfahren dagegen weniger. So kann man durch die Software zu einem Auswertungsverfahren ‚verleitet' werden, das dem Material nicht optimal gerecht wird.
    Die vielfältigen Funktionen können dazu verleiten, mit den Daten zu ‚spielen" und dabei die Fragestellung aus den Augen zu verlieren.
    Die Verwendung der Software erfordert eine Einarbeitungsphase.
  • Was versteht man unter einem Diskurs?

    Lösung

    Ein Diskurs besteht aus einem Set aufeinander bezogener Texte, einschließlich der Verfahren ihrer Produktion, Verbreitung und Rezeption.
  • Was bedeutet es, wenn Diskurstheoretiker behaupten, dass Sprache Realität nicht abbildet, sondern konstituiert?

    Lösung

    Diskurse bestehen nicht nur aus Texten, sondern die soziale Welt beeinflusst die Texte und ihre Entstehung, und die Texte wirken, durch die Art und Weise, wie sie verstanden werden, auch wieder auf die nicht-sprachliche Realität zurück.
  • Inwiefern baut die Diskursanalyse auf Annahmen der Diskurstheorie auf?

    Lösung

    Die Diskursanalyse untersucht die Art und Weise, wie Realität sprachlich erzeugt wird.
  • Worauf liegt der Schwerpunkt der deskriptiven Tradition der Diskursanalyse?

    Lösung

    In der deskriptiven Tradition der Diskursanalyse werden Diskurse als konkrete Formen des Sprechens, Schreibens und der Interaktion modelliert. Sie bilden eine Ressource, auf die Sprecherinnen und Sprecher in ihren Äußerungen und Interaktionen zurückgreifen können. Der Schwerpunkt von deskriptiven Verfahren der Diskursanalyse liegt auf der Rekonstruktion der Zwecke, die Sprecher/innen verfolgen, und der sprachlichen Mittel, die sie einsetzen, um diese Zwecke zu erreichen.
  • Was hat - nach der Auffassung der kritischen Tradition der Diskursanalyse - Macht mit Diskursanalyse zu tun?

    Lösung

    In der kritischen Diskursanalyse liegt der Schwerpunkt auf der Analyse von Diskurssystemen. Diese stellen zwar einerseits eine Ressource dar, derer sich Sprechende bedienen können. Andererseits markieren Diskurse aber auch die Grenzen des Sagbaren: Alles, was gesagt wird, kann nur innerhalb und mit den Mitteln eines Diskurses gesagt werden. Dem Diskurs kommt somit Macht über das Sagbare zu und letztlich auch über die Realität, die vermittels eines Diskurses konstituiert wird.
  • Worin unterscheiden sich Diskursanalyse einerseits sowie Codieren und Inhaltsanalyse andererseits?

    Lösung

    Codieren und Inhaltsanalyse sind auf die Erfassung tatsächlicher Textbedeutung ausgerichtet, während es in der Diskursanalyse wesentlich um die Analyse von Bedeutungspotenzialen geht. Die Ergebnisse und Schlussfolgerungen bleiben beim Codieren und der Inhaltsanalyse vergleichsweise nahe am Text, während sie sich bei der Diskursanalyse auch auf sprecherseitige Zwecke, Handlungspotenziale und Wirkungen erstrecken.
    Die Diskursanalyse baut erkenntnistheoretisch auf der Diskurstheorie auf; mit dem Codieren und der Inhaltsanalyse sind keine erkenntnistheoretischen Annahmen verbunden.
  • Was versteht man unter einem Zeichen?

    Lösung

    Ein Zeichen ist etwas, das für etwas anderes stehen bzw. dieses andere anzeigen oder bedeuten kann.
  • Worin besteht der Unterschied zwischen dem dyadischen und dem triadischen Zeichenbegriff?

    Lösung

    Mit dem dyadischen Zeichenbegriff wird zwischen dem Zeichen und dem begrifflichen Inhalt des Bezeichneten unterschieden. Der triadische Zeichenbegriff beinhaltet die Unterscheidung zwischen dem Zeichen, dem Bezeichneten und dem Representamen, d. h. der Bedeutung, die dem Zeichen im Prozess des Decodierens zugewiesen wird. Der triadische Zeichenbegriff berücksichtigt somit im Gegensatz zum dyadischen Zeichenbegriff auch die Rezeption des Zeichens.
  • Was ist die Denotation von „Frühling"? Was wären einige Konnotationen?

    Lösung

    Denotation: Jahreszeit zwischen Winter und Sommer; dauert vom 21. März bis zum 21. Juni (Sommeranfang);
    Konnotationen: Wachstum, Erneuerung, Grün, Schneeglöckchen, Blüten, Ostern, Aufbruch, Jugend, Verliebtsein - von Ihnen fortzusetzen!
  • Gibt es zu „Frühling" einen bedeutungskonstitutiven Gegensatz?

    Lösung

    Letztlich kann sich ein bedeutungskonstitutiver Gegensatz nur aus dem Kontext der konkreten Verwendung des Begriffs ‚Frühling' heraus erschließen; die Frage ist also schwer zu beantworten. ‚Kandidaten' wären: Herbst, Älterwerden, fallende Blätter, Vergänglichkeit.
  • Warum sind Verfahren zur Analyse verbaler Daten nicht ohne Weiteres auf visuelle Daten übertragbar?

    Lösung

    Visuelle Daten bedienen sich z. T. einer anderen Darstellungsweise. Visuelles Material erweckt z. B. den Eindruck, dass es die Wirklichkeit unmittelbar abbildet. In der Tat positioniert sich aber die Person, die beispielsweise ein Foto aufnimmt, immer auch zu dieser Wirklichkeit, und die Analyse solcher Positionierungen ist ein wesentlicher Bestandteil der Auswertung von visuellen, aber nicht von verbalen Daten. Insgesamt kommt der Analyse der Darstellungsweise (zusätzlich zu oder unabhängig von den Inhalten) bei der Auswertung visueller Daten eine größere Bedeutung zu als bei der Auswertung verbaler Daten.
  • Was versteht man unter Ikonologie?

    Lösung

    Die Ikonologie stellt eine Methode zur Analyse von visuellem Material dar, die in der Kunstgeschichte entwickelt wurde. Im Mittelpunkt stehen die Analyse von Symbolen und die motivgeschichtliche Einbettung der Darstellung. Die Analyse erfolgt auf drei aufeinander aufbauenden Ebenen: der darstellenden, der ikonografischen und der ikonologischen Ebene.
  • Worin unterscheiden sich die Darstellungsebene einerseits und die ikonografische und die ikonologische Ebene andererseits?

    Lösung

    Auf der Darstellungsebene geht es darum, zu beschreiben was in einem Bild dargestellt ist - möglichst ohne es als etwas zu beschreiben bzw. zu identifizieren.
    Auf der ikonografischen und der ikonologischen Ebene stehen die Identifikation und die Analyse von Symbolen im Mittelpunkt. Hier wird das Dargestellte unter Rückgriff auf seinen Symbolgehalt interpretiert.
  • Worin unterscheiden sich die ikonografische und die ikonologische Ebene?

    Lösung

    Auf der ikonografischen Ebene geht es darum, die konventionelle Bedeutung von Symbolen zu analysieren. Auf der ikonologischen Ebene werden Symbol und Symbolgehalt in einen weiteren intertextuellen und motivgeschichtlichen Zusammenhang gestellt.
  • Was versteht man unter einem verdeckten Symbol?

    Lösung

    Verdeckte Symbole sind Darstellungselemente, bei denen es unklar ist, ob ihnen lediglich eine Abbildungs- oder darüber hinaus eine symbolische Funktion zukommt. Sie sind daher nicht eindeutig als Symbole erkennbar.
  • Warum kann es sinnvoll sein, die Ergebnisse einer qualitativen Studie einer weiteren Systematisierung zu unterziehen?

    Lösung

    Die Ergebnisse qualitativer Untersuchungen sind oft sehr umfassend und werden dadurch auch schnell unübersichtlich. Systematisierungen der Ergebnisse helfen dabei, sich einen Überblick zu verschaffen.
    Gerade wenn die Ergebnisse unübersichtlich sind, wächst die Gefahr, dass Forscher/innen sich bei der Darstellung auf besonders ‚passende' Ergebnisse beschränken. Auch dieser Gefahr wirkt eine Systematisierung entgegen.
  • Was ist der Unterschied zwischen einem Typus und einer Typologie?

    Lösung

    Eine Typologie besteht aus mehreren Typen und ihrer Relation untereinander.
    Ein Typus besteht aus mehreren Fällen, die sich aufgrund von Ähnlichkeit im Hinblick auf verschiedene Merkmale oder Eigenschaften zusammenfassen lassen.
    ‚Typologie' ist also quasi der übergeordnete, ‚Typus' der untergeordnete Begriff.
  • Welches sind die zwei Kriterien, nach denen Fälle zu Typen zusammengefasst werden?

    Lösung

    Interne Homogenität: Die Fälle, die zu einem Typus zusammengefasst werden, sollen untereinander möglichst ähnlich sein.
    Externe Heterogenität: Die Fälle, die verschiedenen Typen zugeordnet wurden, sollten sich stärker voneinander unterscheiden als die Fälle innerhalb eines Typs.
  • Welches sind die vier Schritte der empirisch begründeten Typenbildung?

    Lösung

    1. Identifikation von Merkmalen bzw. Vergleichsdimensionen;
    2. Gruppierung der Fälle und Analyse empirischer Regelmäßigkeiten;
    3. Analyse inhaltlicher Zusammenhänge und Typenbildung;
    4. Charakterisierung der gebildeten Typen.
  • Wann eignet sich eine Matrix, wann eine Abbildung zur Systematisierung der Ergebnisse?

    Lösung

    Matrizen eignen sich zur zusammenfassenden Darstellung verbaler Daten, z. B. der Ergebnisse von Inhaltsanalyse oder Codierung.
    Abbildungen eignen sich zur Darstellung komplexer Zusammenhänge, z. B. zur Darstellung einer gegenstandsbezogenen oder einer subjektiven Theorie.
  • Weshalb ist interne Validität in qualitativen Untersuchungen meist kein relevantes Gütekriterium?

    Lösung

    Interne Validität bezeichnet das Ausmaß, in dem es in explanativen, typischerweise in experimentellen Untersuchungen gelungen ist, den Einfluss potenzieller Störvariablen zu minimieren. Da qualitative Untersuchungen häufiger beschreibend als erklärend angelegt sind, stellt sich die Frage der internen Validität in der qualitativen Forschung meist gar nicht.
  • Wie ist die externe Validität qualitativer Untersuchungen einzuschätzen?

    Lösung

    Es werden drei Arten externer Validität unterschieden:
    Verallgemeinerbarkeit auf andere Fälle, von der Stichprobe auf die Grundgesamtheit: Externe Validität in diesem Sinn ist selten Ziel qualitativer Untersuchungen. Außerdem werden die Fälle meist absichtsvoll und nicht im Hinblick auf (statistische) Repräsentativität für die Grundgesamtheit ausgewählt.
    Verallgemeinerbarkeit auf andere Situationen: Verallgemeinerbarkeit auf andere Situationen wird in der qualitativen Forschung angestrebt, indem der Untersuchungsgegenstand in seinem natürlichen Umfeld untersucht wird. Externe Validität in diesem Sinn ist in qualitativen Untersuchungen typischerweise hoch.
    Verallgemeinerbarkeit auf andere Operationalisierungen - Validität der Datenerhebung: In der qualitativen Forschung wird versucht, die Validität der Datenerhebung zu sichern, indem nonstandardisierter Verfahren zur Anwendung kommen und versucht wird, Beeinträchtigungen durch die Erhebungssituation möglichst gering zu halten. Auch diese Art der externen Validität wird in qualitativen Untersuchungen üblicherweise als hoch angesetzt.
  • Wie können qualitativ Forschende die Objektivität ihrer Ergebnisse erhöhen?

    Lösung

    Bei der Datenerhebung ist auf die innere Vergleichbarkeit der Erhebungssituation zu achten. Strategien zur Erhöhung der Objektivität bei der Datenauswertung umfassen:
    Bedeutungszuweisung durch zwei unabhängige Personen und anschließende Bestimmung der Interraterübereinstimmung (wie bei der Inhaltsanalyse);
    Diskussion von Bedeutungszuweisungen im Forschungsteam, bis ein Konsens erzielt ist;
    Systematisches, regelgeleitetes Vorgehen, das in transparenter, nachvollziehbarer Art und Weise dargestellt wird.
  • Wie können qualitativ Forschende die Validität ihrer Ergebnisse erhöhen?

    Lösung

    bei der Datenerhebung:
    1. Erprobung der Erhebungsinstrumente;
    2. Schulung der Forschenden;
    3. die Teilnehmenden über den Untersuchungszweck informieren;
    4. vertrauensvolle Atmosphäre schaffen;
    5. Vertraulichkeit zusichern
    bei der Auswertung:
    1. Einbeziehung des gesamten Datenmaterials;
    2. Berücksichtigung von Gegenbeispielen
  • Welche Strategien zur Erhöhung der Validität wurden speziell in der qualitativen Forschung entwickelt?

    Lösung

    Kommunikative Validierung
    Methodentriangulation
  • Mit welchen ethischen Problemen müssen sich qualitativ Forschende ganz allgemein auseinandersetzen, unabhängig von der konkreten Methode?

    Lösung

    Die Reichhaltigkeit qualitativer Daten führt dazu, dass die betreffenden Personen leicht identifizierbar sind. Die Vertraulichkeit der Informationen ist daher in der qualitativen Forschung schwieriger zu gewährleisten als in der quantitativen.
    Befragte geben manchmal Informationen preis, die ihnen selber oder anderen schaden können.
    Forschungssituationen beinhalten oft ein asymmetrisches Machtverhältnis. Forscherinnen und Forscher sollten dieses Ungleichgewicht nicht ausnutzen, um sich zusätzliche Informationen zu verschaffen. Sie sollten auch von vornherein klarstellen, wenn es nicht Teil ihrer Forschungsbemühungen ist, in Problemsituationen Hilfe anzubieten.
  • Welche ethischen Probleme stellen sich bei der Anwendung der verdeckten teilnehmenden Beobachtung?

    Lösung

    Wenn die Untersuchung verdeckt stattfindet, haben die Personen im Feld der Untersuchungsteilnahme auch nicht freiwillig zugestimmt.
    Verdeckte Beobachtung beinhaltet eine Täuschung der Personen im Feld.
    Bei der verdeckten teilnehmenden Beobachtung in Dunkelbereichen der Gesellschaft kann es sein, dass die Forschenden zu Zeugen krimineller Handlungen werden. Diese müssten sie eigentlich polizeilich melden, damit sie nicht strafrechtlich belangt werden können.
    Bei der teilnehmenden Beobachtung im Allgemeinen dienen die Handlungen der Forschenden vielfach sowohl Forschungs- als auch persönlichen Zwecken. Die Personen im Feld können sich daher nachträglich ausgenutzt fühlen.
  • Welche Formen der Triangulation unterscheidet Denzin?

    Lösung

    Datentriangulation: Heranziehen mehrerer Datenquellen, z.B. Interviewmaterial und Dokumente.
    Investigatortriangulation: Untersuchung eines Phänomens durch mehrere Forschende (z.B. im Beobachtungsteam).
    Theorientriangulation: Heranziehen mehrerer Theorien als „Filter", durch den ein Phänomen betrachtet wird.
    Methodentriangulation: Verwendung verschiedener Zugänge zur Erfassung eines Phänomens, z. B. Interview und Beobachtung, um die Begrenzungen der einzelnen Methoden zu überwinden.
  • Auf welche Form der Triangulation bezieht sich die gegenwärtige Diskussion der Triangulation in der sozialwissenschaftlichen Methodenlehre?

    Lösung

    Methodentriangulation between methods
  • Nennen Sie ein Beispiel für eine Untersuchung, die eine Triangulationsstudie darstellt, aber keine Mixed-Methods-Studie!

    Lösung

    Eine beliebige Untersuchung, in der z. B. zwei verschiedene quantitative Verfahren der Datenerhebung eingesetzt werden, etwa Fragebögen mit geschlossenen Fragen und physiologische Maße zur Erfassung von Emotionen. Eine Untersuchung, in der zwei verschiedene qualitative Verfahren der Datenerhebung eingesetzt werden, wäre ebenfalls eine Triangulations-, aber keine Mixed Methods-Studie.
  • Welche Zielsetzung liegt heute den meisten Triangulationsstudien zugrunde?

    Lösung

    Triangulationsstudien werden heute meist verwendet, um ein umfassenderes, vollständigeres Bild des Gegenstandes zu gewinnen.
  • Was versteht man unter einer Mixed-Methods-Studie?

    Lösung

    Mixed Methods bezeichnet eine Forschungsmethode, die eine Kombination von Elementen qualitativer und quantitativer Forschungstraditionen beinhaltet, typischerweise (aber nicht notwendig) innerhalb einer Untersuchung.
  • Inwiefern stellt Mixed Methods einen Oberbegriff zu Mixed Models und Multimethod-Designs dar?

    Lösung

    Mixed-Model-Designs bezeichnen die Kombination qualitativer und quantitativer Methoden in verschiedenen Untersuchungsphasen derselben Untersuchung (z. B. Kombination eines experimentellen Designs mit einer qualitativen Methode der Datenerhebung).
    Multimethod-Designs sind Mixed-Methods-Studien, in denen zwei Studien (unter Anwendung qualitativer und quantitativer Methoden) nacheinander durchgeführt werden.
  • Worin besteht der Unterschied zwischen einer Multimethod-Studie und einem Multimethod-Design?

    Lösung

    Eine Multimethod-Studie ist eine Kombination mehrerer Forschungsmethoden in einer Phase derselben Studie, wobei die Methoden entweder aus der qualitativen oder aus der quantitativen Forschungstradition stammen. Es kommen also nur qualitative oder nur quantitative Methoden zur Anwendung, aber keine Methodenkombination. Eine Multimethod-Studie ist also keine Mixed Methods-Studie.
    Multimethod-Designs sind Mixed Methods-Studien, in denen zwei Studien (unter Anwendung qualitativer und quantitativer Methoden) nacheinander durchgeführt werden. Multimethod-Designs bestehen also im Gegensatz zu Multimethod-Studien aus zwei Phasen. Weiterhin kommt bei Multimethod-Studien pro Phase jeweils nur eine Methode zur Anwendung; über beide Phasen hinweg sind jedoch qualitative und quantitative Methoden kombiniert.
  • In welcher Hinsicht stellt das Forschungsbeispiel ein Multimethod-Design dar?

    Lösung

    Die Untersuchung gliederte sich in zwei Phasen, die eng auf einander bezogen waren: eine erste qualitativ-inhaltsanalytische Phase zur systematischen Erfassung von Textmerkmalen und eine zweite quantitativ-experimentelle Phase zur Überprüfung der Rezeptionshypothesen.
  • In welcher Hinsicht kommt in dem Forschungsbeispiel die Methodentriangulation zur Anwendung?

    Lösung

    Das Leseerleben wurde sowohl standardisiert mittels Fragebogen als auch offen mittels Reminding-Methode erfasst.
  • Inwiefern verdeutlicht das Forschungsbeispiel die Stärken der Triangulation im Sinne einer Komplementarität von Methoden?

    Lösung

    Die Ergebnisse zum Zusammenhang zwischen Leseerleben und Geschlecht fallen unterschiedlich aus, je nachdem, mit welcher Methode sie erhoben wurden. Die Ergebnisse stehen jedoch nicht zueinander im Widerspruch, sondern ergänzen sich wechselseitig und vermitteln so ein umfassenderes Bild des Gegenstandes, als es eine Methode allein vermitteln könnte.
  • Welche neun Designs ergeben sich, wenn man die Kriterien der Reihenfolge und des Gewichts kombiniert?

    Lösung

    Gleichzeitige Erhebung, gleiches Gewicht von qualitativen und quantitativen Daten;
    Gleichzeitige Erhebung, quantitative Daten haben gegenüber den qualitativen ein höheres Gewicht;
    Gleichzeitige Erhebung, qualitative Daten haben gegenüber den quantitativen ein höheres Gewicht;
    Zuerst Erhebung der qualitativen, dann der quantitativen Daten, gleiches Gewicht;
    Zuerst Erhebung der qualitativen, dann der quantitativen Daten, qualitative Daten haben gegenüber den quantitativen ein höheres Gewicht;
    Zuerst Erhebung der qualitativen, dann der quantitativen Daten, quantitative Daten haben gegenüber den qualitativen ein höheres Gewicht;
    Zuerst Erhebung der quantitativen, dann der qualitativen Daten, gleiches Gewicht;
    Zuerst Erhebung der quantitativen, dann der qualitativen Daten, qualitative Daten haben gegenüber den quantitativen ein höheres Gewicht;
    Zuerst Erhebung der quantitativen, dann der qualitativen Daten, quantitative Daten haben gegenüber den qualitativen ein höheres Gewicht.
  • Nennen Sie ein Beispiel für eine Untersuchung, in der ein qualitatives und ein quantitatives Design gleichgewichtig realisiert werden!

    Lösung

    Diese Konstellation liegt beispielsweise vor, wenn zunächst mittels qualitativer Verfahren eine Theorie erstellt wird und im nächsten Schritt aus der Theorie Hypothesen abgeleitet und unter Verwendung quantitativer Verfahren überprüft werden (vgl. z. B. das Forschungsprogramm Subjektive Theorien).
  • Warum ist die Entwicklung von Kriterien zur Systematisierung von Mixed-Methods-Designs in die Kritik geraten?

    Lösung

    Durch die Hinzufügung weiterer Kriterien ist die Anzahl möglicher Kombinationen kaum mehr überschaubar; gleichzeitig sind aber noch keineswegs alle Kriterien berücksichtigt, die sich potenziell zur Realisierung von Mixed Methods-Designs nutzbar machen lassen. Ein Lösungsvorschlag besteht daher darin, auf eine Systematisierung von Kriterienkombinationen zu verzichten und statt dessen jedes konkrete Mixed Methods-Design hinsichlich seiner Eigenschaften differenziert zu beschreiben.
  • Inwiefern stellt eine explorativ-hypothesengenerierende Erhebung quantitativer Daten mit anschließender faktorenanalytischer Auswertung ein Mixed-Models-Design dar?

    Lösung

    Mixed-Model-Designs bezeichnen die Kombination qualitativer und quantitativer Methoden in verschiedenen Untersuchungsphasen derselben Untersuchung, wobei die Phasen des Designs, der Datenerhebung und der -auswertung unterschieden werden. In der beschriebenen Untersuchung wird ein qualitatives Design mit quantitativen Methoden der Datenerhebung und -auswertung kombiniert.
  • Warum liegen bisher erst wenige Verfahren zur qualitativen Auswertung quantitativer Daten vor?

    Lösung

    Dass solche Verfahren weitgehend fehlen, ist vor allem darauf zurückzuführen, dass quantitative gegenüber qualitativen Daten den Vorteil der größeren Präzision aufweisen; die Umwandlung quantitativer in qualitative Daten führt daher zunächst einmal zu einem Informationsverlust. Zwar sind qualitative Daten reichhaltiger als quantitative und weisen einen höheren Detaillierungsgrad auf. Dieser Vorteil kommt aber bei der Transformation quantitativer in qualitative Daten nicht zum Tragen: Quantitative Daten erhalten durch die Umwandlung keine zusätzliche Reichhaltigkeit, die im quantitativen Format nicht bereits angelegt ist.
  • Welches sind die vier wichtigsten Mixed-Methods-Designs nach Cresswell und Plano Clark?

    Lösung

    Triangulations-, eingebettetes, exploratives und explanatives Design
  • Was versteht man unter einem explorativen Design? Beschreiben Sie das Design im Hinblick auf die Kriterien Reihenfolge und Gewicht!

    Lösung

    Beim explorativen Design wird zunächst eine qualitative, anschließend darauf aufbauend eine quantitative Untersuchungsphase realisiert. Das Design kann in unterschiedlichen Varianten realisiert werden. Je nach Variante können die beiden Datenarten gleichgewichtig in das Design eingehen, oder es kommt einer der Phasen ein höheres Gewicht zu (typischerweise der quantitativen Phase).
  • Inwiefern handelt es sich bei dem Beispiel um ein Mixed Models-Design?

    Lösung

    Es findet eine Kombination von Elementen quantitativer und qualitativer Forschung über die Untersuchungsphasen hinweg statt: Im Rahmen eines experimentellen Designs werden (auch) qualitative Daten in Form freier Mitteilungen erhoben, inhaltsanalytisch ausgewertet und anschließend in numerische Daten überführt.
  • Inwiefern handelt es sich bei dem Beispiel um ein Triangulations-, nicht um ein eingebettetes Design?

    Lösung

    Die kognitiven Repräsentationen werden sowohl quantitativ durch Valenzurteile als auch qualitativ mittels Kodierung freier Erinnerungen erfasst. Qualitative und quantitative Verfahren der Datenerhebung stehen dabei gleichgewichtig nebeneinander und werden gleichermaßen zur Hypothesentestung herangezogen. Die Konvergenz zwischen den Datenarten wird in dieser Untersuchung zudem als Validitätskriterium herangezogen.
  • Fertig!

    Zurück zu Frage 1
Zurück
Frage 1 von 254
Weiter

Dozentenmaterialien

Hier finden Sie die zum Buch gehörenden Dozentenmaterialien.
Registrieren Sie sich, oder melden Sie sich an, falls Sie bereits registriert sind.