Sprache und Denken

buchcover_beyer_gerlach.jpg

Sprache und Denken

ISBN: 
978-3-658-17487-3

Das Buch gibt einen fundierten Überblick über die wichtigen Fragen im Kontext von Sprache und Denken und liefert Antworten beispielsweise zu den Themen: Wie funktioniert Sprache? Was spielt sich beim Denken in unserem Kopf ab? Wie lösen wir Probleme? Und in welchem Verhältnis stehen Denken und Sprache zueinander? In Einbezug historischer Experimente und aktueller Forschungsergebnisse werden grundlegende Konzepte und Theorien zu Sprache und Denken vermittelt. Dabei kann der Leser sein Wissen bei der Beantwortung von Übungsfragen nach jedem Thema erproben. Entsprechende Antworten der Autoren können in Kapitel 5 bei Bedarf nachgelesen werden.

Weiterlesen

Der Inhalt

  • Wie funktioniert Sprache?
  • Wie verstehen wir Worte, Sätze und Texte und wie produzieren wir sprachliche Äußerungen, die der aktuellen Situation angemessen sind?
  • Was spielt sich beim Denken in unserem Kopf ab?
  • Wie lösen wir Probleme?
  • Welche typischen Fehler unterlaufen uns beim Denken und tragen eventuell unsere Emotionen dazu bei?
  • Und in welchem Verhältnis stehen Denken und Sprache überhaupt zueinander?
  • Übungsaufgaben und Antworten zu jedem Themenblock
  • Mit kostenlosen Zusatzmaterialien auf www.lehrbuch-psychologie.springer.com

 

Die Zielgruppen

  • Studenten der Psychologie, Linguistik, Erziehungswissenschaften und benachbarter Disziplinen
  • Leser, die sich für die Wirkung von Sprache und Denken sowie deren Wechselwirkung interessieren
Datei: 
AnhangGröße
PDF icon 9783658174873-probekapitel.pdf1.57 MB
Datei: 
AnhangGröße
PDF icon 9783658174873-inhaltsverzeichnis.pdf101.62 KB
BegriffErklärung
AbduktionUngültige Form des logischen Schließens, bei dem aus einer bekannten Konsequenz eine unbekannte Ursache abgeleitet wird; Vermutungen ohne Beweiskraft; sie verwenden Indizien und sind möglicherweise wahr. Nach der Erkenntnislogik von Charles Sanders Peirce ist die Abduktion die erste Stufe des wissenschaftlichen Erkenntnisprozesses, mittels derer eine Hypothese gebildet wird.
Adaptiver Werkzeugkasten (adaptive toolbox)„Das Repertoire an Heuristiken […], das ein Mensch, […] zur Verfügung hat, um mit Ungewissheit intelligent umzugehen“ (Gigerenzer 2013, S. 375).
Aha-Erlebnis→ Einsicht.
AussagenlogikTeilgebiet der Logik; definiert allgemeine Gesetze für die Anwendung von Operatoren (sog. Junktoren, z.B. NICHT, UND, ODER, WENN-DANN) auf Aussagen.
Basisrate (Prävalenz)Grundrate eines Merkmals oder Ereignisses = Verteilung eines Merkmals/ Ereignisses in der Grundgesamtheit.
Weitere Begriffe
Zurück
Frage 1 von 93
Weiter
  • Wie kommt es, dass nahezu jeder Mensch bereits in der Kindheit lernt, seine Muttersprache ziemlich gut zu beherrschen?

    Lösung

    Es existieren zwei alternative Auffassungen:a) Sprache ist angeboren undb) Sprache wird z. B. durch Bekräftigungs- oder Modelllernen erst nach der Geburt erworben. Vermutlich sind beide Extreme nicht zutreffend. Ein Kompromiss könnte sein, dass eine Anlage/Disposition zum Erwerb von Sprache angeboren ist, die sich bei entsprechenden Umwelt- und Lernbedingungen entfaltet. D. h. weder Erbe noch Umwelt allein bringen sprachliche Kompetenzen hervor.
  • Nennen und erläutern Sie drei wichtige Merkmale, die Sprache kennzeichnen können!

    Lösung

    Ganz wesentliche Sprachmerkmale sind die Bedeutungshaltigkeit, die Losgelöstheit von realen Ereignissen und die Produktivität der Sprache. Mit Bedeutungshaltigkeit ist gemeint, dass Wörter vor allem Zeichen, Symbole oder Benennungen für reale Objekte oder Sachverhalte sind. Die „Losgelöstheit“ führt dazu, dass man mithilfe von Sprache unabhängig von der Präsenz des realen Ereignisses über dieses sprechen oder schreiben kann. Die Produktivität führt dazu, dass prinzipiell immer neuer Wörter und Äußerungen hervorgebracht werden können. Der Wortschatz einer Sprache ist also beliebig erweiter- und modifizierbar.
  • Welche drei Hauptfunktionen von Sprache kann man unterscheiden? Erläutern Sie diese kurz an einem Beispiel!

    Lösung

    Drei zentrale Funktionen der Sprache in der Kommunikation sind die Ausdrucksfunktion, die Darstellungsfunktion und die Appellfunktion. Mit der Ausdrucksfunktion ist die Möglichkeit gemeint, Mitteilungen über die eigene Befindlichkeit als Sprecher zu machen (z. B. „Heute geht es mir richtig gut.“). Die Darstellungsfunktion betrifft die Kennzeichnung der Dinge, die in der Welt geschehen (z. B. „Heute ist besonders schönes Wetter.“). Mithilfe der Appellfunktion können angesprochene Personen zu einer Aktivität mobilisiert werden (z. B. „Öffne doch bitte das Fenster!“).
  • Was versteht man unter einem Graphem?Welchen Unterschied gibt es zwischen Graphem und Buchstaben?

    Lösung

    Ein Graphem ist das kleinste schriftsprachliche Element für einen gesprochenen Laut. Da dies nicht in jedem Fall nur ein Buchstabe ist, wurde der Begriff Graphem eingeführt. Beispielsweise steht die Buchstabenkombination „CH“ für nur einen Laut.
  • Was versteht man unter einem Phonem im Unterschied zu einem Laut?

    Lösung

    Phoneme sind die kleinsten bedeutungsunterscheidenden Einheiten der Lautsprache. Da Laute die Gesamtheit aller möglichen Laute abbilden müssen und bei einer Sprache nicht alle möglichen Laute relevant sind, wurde der Begriff Phonem eingeführt. Phoneme sind folglich die Teilmenge der Laute, die in einer Sprache verwendet werden und zur Bedeutungsunterscheidung herangezogen werden.
  • Anhand welcher Merkmale kann man Laute oder Phoneme unterscheiden?Nennen Sie drei davon und ordnen Sie entsprechende Laute bzw. Phoneme zu!

    Lösung

    Es können mehrere Merkmalsdimensionen zur Unterscheidung von Lauten bzw.
    Phonemen genutzt werden, z. B. „vokalisch (a) vs. konsonantisch (k)“, „dental (zwischen den Zähnen) (t) vs. labial (über die Lippen) (p)“ oder „stimmhaft (d) vs. Stimmlos (t)“.
  • Was versteht man unter einer Lautverschiebung?Nennen und erläutern Sie ein Beispiel!

    Lösung

    Unter Lautverschiebung versteht man die Veränderung der Nutzung von bestimmten Lauten und Lautkombinationen in natürlichen Sprachen in den letzten Jahrhunderten. Eine wichtige Rolle spielt die „2. Lautverschiebung“ (um 600–700 u. Z.). Sie führte zur Differenzierung in nieder- und hochdeutsche Dialekte. Beispielsweise wurde nach Vokalen aus einem „p“ ein „f“ (slapen zu schlafen) oder aus einem „t“ ein „s“ (eten zu essen).
  • Was versteht man unter der Methodik „Voice Onset Time (VOT)“?Wie kann man auf diese Weise Lautqualitäten unterscheiden?

    Lösung

    Die „Voice Onset Time“ bestimmt den Moment des Beginns der Vibration der
    Stimmbänder relativ zum Moment, an dem die Blockade des Luftstromes durch Öffnen der Lippen aufgehoben wird. Die Stimme setzt ein, wenn die Stimmbänder beginnen zu vibrieren. Bei einigen Lauten bzw. Phonemen vibrieren die Stimmbänder bereits vor dem Öffnen der Lippen (z. B. beim stimmhaften „b“), bei anderen erst nach dem Öffnen der Lippen (z. B. beim stimmlosen „p“).
  • Was versteht man unter Morphologie?Nennen Sie außerdem wenigstens eine Gruppe von Regeln aus dem Bereich Morphologie?

    Lösung

    Die Morphologie kann als die Grammatik auf der Wortebene bezeichnet werden. Sie legt fest, welche Kombinationen von Morphemen zu einem korrekten Wort führen und wie je nach Wortart die verschiedenen Wortformen erzeugt werden können. Morphologische Regeln zur Bildung verschiedener Wortformen sind die Deklination (Substantive), die Konjugation (Verben) und die Komparation bzw. Steigerung (Adjektive).
  • Was versteht man unter Syntax?Welche syntaktischen Funktionen kann man unterscheiden?

    Lösung

    So wie die Morphologie die Struktur von Wörtern beschreibt, regelt die Syntax die Strukturen innerhalb von Sätzen. Die Syntax beschreibt die Beziehungen der Wörter im Satz und weist ihnen bestimmte syntaktische Funktionen zu (z. B. Akteur, Objekt, Rezipient, Lokation, Instrument, Finalität).
  • Was versteht man unter Semantik?Wie kann man die Semantik eines Wortes
    beschreiben?

    Lösung

    Mit Semantik ist die Bedeutung von Wörtern, Sätzen oder Texten gemeint. Es geht also um die Zuordnung von sprachlichen Zeichen zu den Objekten und Sachverhalten in der Realität. Bei genauerer Betrachtung erweist es sich allerdings als sehr schwierig, die Bedeutung von Wörtern exakt und objektiv zu beschreiben. Zwei Beschreibungsvarianten werden favorisiert:a) Die Abbildung der Semantik bzw. der Bedeutung von Wörtern durch Gruppen von Merkmalen,b) Die Abbildung der Semantik bzw. der Bedeutung von Wörtern durch Propositionen, in denen dem Prädikat (meist Verben) eine zentrale Rolle zukommt.
  • Welcher neue Akzent wird durch die pragmatische Komponente gesetzt?Erläutern Sie kurz ein Beispiel!

    Lösung

    Mit der Pragmatik ist im Kontext der Sprache die Einbettung von sprachlichen Äußerungen in die natürliche Kommunikation im Alltag gemeint. Dazu gehören Einflüsse des Situationskontextes auf die Produktion, Verarbeitung und Interpretation von sprachlichen Äußerungen. Mehrdeutige Äußerungen können durch die Einbeziehung des konkreten Situationskontextes eindeutig gemacht werden („Das hast Du wirklich super gemacht, prima!!!“ Kontext: Kind hat die volle Milchkanne auf dem Tisch umgestoßen.).
  • Was versteht man unter einem „Seriell-autonomen Verarbeitungsmodell“ in der Sprachpsychologie?Nennen Sie dabei einen Vorteil und einen Nachteil!

    Lösung

    Bei einem „Seriell-autonomen Verarbeitungsmodell“ wird angenommen, dass wir zuerst eine Lautfolge des Kommunikationspartners aufnehmen, dann die bedeutungsunterscheidenden Phoneme identifizieren, diese anschließend zu Wörtern
    zusammenfügen, danach die Satzstruktur erkennen und schließlich Bedeutungen zuordnen. Ausgehend vom eingehenden externen Sprachreizen wird also eine
    feste Abfolge von Teilprozessen angenommen. Ein Vorteil liegt in der Einfachheit
    und Prüfbarkeit der Modellideen, ein Nachteil in der Ausblendung von Wechselwirkungen zwischen den Teilprozessen der Sprachverarbeitung.
  • Was versteht man unter einem „Interaktiven Verarbeitungsmodell“ in der
    Sprachpsychologie?Nennen Sie dabei einen Vorteil und einen Nachteil!

    Lösung

    Interaktive Modelle berücksichtigen Wechselwirkungen zwischen den Teilprozessen der Sprachverarbeitung. Beispielsweise kann die Erwartung des Hörers die Identifikation eingehender Sprachreize maßgeblich bestimmen. Ein Vorteil liegt in der angemesseneren Abbildung natürlich Sprachverarbeitungsprozesse, ein Nachteil in der Komplexität der Modellannahmen, die eine empirische Prüfung erheblich erschweren können.
  • Was versteht man unter Interjektionen? Interpretieren Sie die Interjektionen aus Abb. 2.9.

    Lösung

    Unter Interjektionen („Dazwischengeworfenes“) versteht man eine Restklasse von sprachlichen Elementen innerhalb der Wortklasse „Partikel“. Sie dienen primär dem Ausdruck von Emotionen und Empfindungen. Sie sind syntaktisch schlecht in die Satzstruktur integriert und haben keine feste lexikalische Bedeutung. In Abb. 2.9 sind mögliche Interpretationen für die vorgegebenen Interjektionen aus Abb. 2.9 (im Text) eingetragen.
  • Was versteht man unter Pejorativa und Meliorativa?Versuchen Sie zu den neutralen Wörtern in Abb. 2.10 ein Pejorativ oder ein Meliorativ zu finden.

    Lösung

    Pejorativa transportieren negative Zusatzbedeutungen (statt Gefängnis: Knast, statt sterben: abkratzen). Meliorativa können sehr gut positive Zusatzbedeutungen akzentuieren (statt sterben: entschlafen, statt Putzfrau: Facilitymanagerin). In Abb. 2.10 sind mögliche Pejorativa oder Meliorativa für die vorgegebenen neutralen Wörter aus Abb. 2.10 (im Text) eingetragen.
  • Was versteht man unter Euphemismen?Nennen Sie zwei Beispiele.

    Lösung

    Euphemismen sind Worte zur Verschleierung unangenehmer und ethisch zu verurteilender Vorgänge. Sie beschönigen sehr negative und moralisch verwerfliche Meinungen, Einstellungen oder Aktivitäten. Euphemismen sind gute Kandidaten für die „Unwörter des Jahres“. Beispiele sind „Rentnerschwemme“ oder „Kollateralschaden“.
  • Was versteht man bei der Worterkennung unter dem Segmentierungsproblem?

    Lösung

    Unter dem Segmentierungsproblem versteht man die Schwierigkeit, Worteinheiten im relativ kontinuierlichen Strom eingehender Laute abzugrenzen.
  • Was versteht man bei der Worterkennung unter dem Variabilitätsproblem?

    Lösung

    Unter dem Variabilitätsproblem versteht man die Schwierigkeit, Worteinheiten trotz Variabilität der physikalischen Qualität von Lauten oder Lautfolgen bei identischen Wörtern abzugrenzen. Die Variabilität ergibt sich aus der individuellen Verschiedenheit von Tonhöhe, Klangfarbe, Intensität, Akzent und beteiligter benachbarter Laute.
  • Erläutern Sie kurz ein serielles Modell zur Worterkennung (Grundannahmen) und beschreiben ebenfalls kurz ein Experiment zur Prüfung dieses von Ihnen
    ausgewählten Modells!

    Lösung

    Ein Beispiel für ein primär serielles Modell ist das Kohortenmodell von Marslen-Wilson und Welsh (1978). Darin wird angenommen, dass bei den ersten eingehende Phonemen oder Graphemen zunächst alle Wörter aktiviert werden, die mit diesen Anfangslauten oder Graphemen übereinstimmen. Diese Wort-Kohorte wird mit jedem weiteren Phonem eingeschränkt, bis nur noch ein Wortkandidat übrig bleibt (Erreichen des sog. „uniqueness points“).Zur experimentellen Prüfung des Modells wurden den Probanden Lautfolgen angeboten. Sie sollten an der Stelle sofort reagieren, an der sie sicher waren, dass der Stimulus kein Wort ist (Erreichen der „Nonwort-Stelle“). Es wurde die Zeit vom Auftauchen der Nonwort-Stelle bis zur korrekten NEIN- Reaktion der Probanden registriert. Es zeigte sich, dass die Reaktionszeit ab der Nonwort-Stelle nahezu konstant 450 ms beträgt, unabhängig von der Position der Nonwort-Stelle in der jeweiligen Lautfolge. Dies spricht für die Aktivierung einer Gruppe von Wortkandidaten und den sequenziellen Ausschluss aller Kandidaten bis zur „Nonwort-Stelle“.
  • Erläutern Sie kurz ein interaktives Modell zur Worterkennung (Grundannahmen)!Was soll im Vergleich zu einem seriellen Modell besser abgebildet werden?

    Lösung

    Ein typischer Vertreter der interaktiven Modelle ist das TRACE-Modell von McClelland und Elman (1986). Es werden drei hierarchisch geordnete Verarbeitungsebenen angenommen (sog. distinktive Merkmale, Phonem-Einheiten, Worte). Diese Ebenen treten über Bottom-up- und Top-down- sowie Aktivierungs- und Hemmungsprozesse in spezifische Interaktionen. Zum Beispiel sorgen Bottom-up-Aktivierungsprozesse bei eingehender Lautinformation für die Aktivierung distinktiver Merkmale (z. B. Einzelne Phoneme oder Grapheme) und die wiederum für die Aktivierung phonemischer prälexikalischer Einheiten (z. B. Silben/Morpheme). Hemmungsprozesse zwischen den Einheiten einer Ebene (laterale Inhibition) sorgen dafür, dass die tatsächlich aktivierte Kandidatenmenge klein gehalten wird. Durch Top-down-Rückmeldung von der Wortebene zur Phonemebene werden Phoneme bevorzugt, die den Erwartungen entsprechen. Nach diesem Modell können auch Wörter korrekt identifiziert werden, die vom Sprecher teilweise undeutlich oder falsch ausgesprochen werden.
  • Wie kann man empirisch belegen, dass die Bildung prälexikalischer Einheiten bei der Worterkennung zu vermuten ist?

    Lösung

    Im Experiment von Mehler et al. (1981) wurden den Probanden Listen zweisilbiger Wörter dargeboten. Pro Wort sollten die Probanden entscheiden, ob ein zuvor festgelegter Zielreiz enthalten war (z. B. Zielreiz „BA“ im Wort „BALANCE“?). Der Zielreiz konnte dabei identisch sein mit der ersten Silbe oder nicht. Wenn Silben relevante prälexikalische Einheiten sind, dann sollte die Entscheidung bei einer Übereinstimmung von Zielreiz und Silbe im Wort schneller gelingen. Die Reaktionszeiten sind bei einer Übereinstimmung von Zielreiz und Silbe tatsächlich kürzer. Das spricht für die Nutzung prälexikalischer Einheiten und der phonologischen Struktur der Sprache. Das Ergebnis hängt jedoch von weiteren Faktoren ab (z. B. Sprache, Zeitdruck).
  • Nennen Sie die Komponenten einer Generativen Grammatik!

    Lösung

    Die vier Komponenten einer Generativen Grammatik sind das Startsymbol, das nicht mehr zerlegbare terminale Vokabular (z. B. ein Wort der natürlichen Sprache), das zerlegbare nichtterminale Vokabular (z. B. eine Nominalphrase NP) und die Ersetzungsregeln (Regeln zur Zerlegung des nichtterminalen in terminales Vokabular und umgekehrt).
  • Was versteht man unter einer Ersetzungsregel im Rahmen einer Generativen Grammatik?Nennen Sie zwei Beispiele von Ersetzungsregeln aus einer Generativen
    Grammatik der natürlichen Sprache!

    Lösung

    Mithilfe der Ersetzungsregeln kann das nichtterminale Vokabular in terminales oder untergeordnetes nichtterminales Vokabular zerlegt werden, z. B. S→NP + VP, VP→ Vtr + NP oder VP→ Vit. In dieser Verarbeitungsrichtung wird eine Satzproduktion simuliert. Wenn man mithilfe der Ersetzungsregeln terminales Vokabular schrittweise in zugehöriges nichtterminales Vokabular überführt, simuliert dies primär den Prozess des Satzverstehens.
  • Was macht den Transformationsteil der Generativen Transformationsgrammatik von Chomsky aus.Nennen Sie dabei wenigstens zwei Transformationsregeln!

    Lösung

    Im Transformationsteil der Generativen Transformationsgrammatik für die natürliche Sprache werden Basissatzkonstruktionen von Sätzen (bejahende Aktivsätze) in andere Satzformen überführt, zum Beispiel in einen Passivsatz, einen verneinenden Satz oder auch in eine Kombination aus Verneinung und Passivkonstruktion.
  • Was wird in der Psycholinguistik unter „Performanz“ und „Kompetenz“ verstanden?

    Lösung

    In der Psycholinguistik wird unter „Kompetenz“ das linguistische Regelwissen eines idealen Sprechers/Hörers verstanden. Mit Performanz ist die Anwendung des verfügbaren linguistischen Wissens im realen Sprachgebrauch gemeint.
  • Erläutern Sie ein Experiment, dessen Ergebnis für eine interne Repräsentation von Sätzen entsprechend der Phrasenstruktur spricht!

    Lösung

    Mit dem sog. Click-Experiment (Fodor und Bever 1965) wurde gezeigt, dass eine interne Repräsentation von Sätzen entsprechend der Phrasenstruktur wahrscheinlich ist. Während der Satzdarbietung wurden den Probanden zusätzlich Click-Laute eingespielt. Die Aufgabe der Probanden bestand darin mitzuteilen, an welcher Stelle sie den Click-Laut wahrgenommen haben. Der Click-Laut wurde entweder kurz vor oder kurz nach einer zentralen Phrasengrenze platziert. Im Ergebnis neigten die Probanden fälschlicherweise dazu, die Click-Laute subjektiv in die Phrasengrenzen zu verschieben. Dies spricht für die automatische Erzeugung von Phrasen. Während der Bearbeitung von gerade erzeugten Phrasen besteht offensichtlich kaum Kapazität für die zusätzliche Verarbeitung der Position der Click-Laute.
  • Erläutern Sie ein Experiment, dessen Ergebnis für die Existenz elementarer
    Transformationsregeln im Sinne von Chomsky spricht!

    Lösung

    McKean und Slobin (1962) legten ihren Probanden einfache affirmative Standardsätze vor. Die Probanden sollten diese Standardsätze entweder in einen Negativsatz (Negation) oder in einen Passivsatz (Passivierung) oder in eine Kombination von beiden transformieren (Negation + Passivierung). Es zeigte sich, dass die Probanden für die Kombination (2,7 s) etwa die Summe der Einzeltransformationen benötigten (1,1 s Negation, 1,5 s Passivierung). Daraus kann geschlossen werden, dass es tatsächlich einen Satz von elementaren Transformationen gibt und sich komplexere Transformationen auf sequenzielle, also nacheinander ausgeführte Einzeltransformationen zurückführen lassen.
  • Erläutern Sie ein Experiment, dessen Ergebnis gegen eine Verarbeitung ausschließlich im Sinne der Phrasenstruktur von Chomsky spricht!

    Lösung

    Engelkamp (1974) ließ seine Probanden Sätze lesen, die anschließend wörtlich erinnert werden sollten. Ausgewertet wurde die bedingte Fehlerhäufigkeit (Position erster Fehler). In den Sätzen waren Präpositionalphrasen platziert, die sich semantisch entweder auf die Nominalphrase (NP-Sätze) oder auf die Verbphrase (VP-Sätze) oder auf keine andere Satzkomponente (Kontrollsätze) bezogen. Die meisten (ersten) Fehler traten bei der Präpositionalphrase im Kontrollsatz, die wenigsten Fehler beim „Nomensatz“ (PP mit Bindung an das erste Nomen bzw. die Nominalphrase) auf. D. h. bei den identischen Präpositionalphrasen (PP) wurden entgegen der Erwartung von Chomsky je nach semantischer Anbindung im Satz unterschiedlich viele Fehler produziert. Die Abgrenzung der Verarbeitungseinheiten erfolgt offensichtlich nicht nur nach syntaktischen, sondern auch nach semantischen Gesichtspunkten.
  • Erläutern Sie einen Befund, der gegen die universelle Gültigkeit von Transformationsregeln im Sinne von Chomsky beim Satzverstehen spricht!

    Lösung

    Fodor und Mitarbeiter (1974) ließen ihre Probanden transformierte und nicht transformierte Satzvarianten bezüglich Verständlichkeit beurteilen (z. B. mit und ohne Auslassungstransformation:1a) Klaus rannte schneller als das Mädchen.1b) Klaus rannte schneller, als das Mädchen rannte.Oder: Mit und ohne Passiv-Transformation:2a) Der Junge wurde von dem Hund gebissen.2b) Der Hund biss den Jungen.3a) Das Steak wurde von dem Hund gefressen.3b) Der Hund fraß das Steak.).Der Satz mit Auslassungstransformation (1a) wurde leichter verstanden als der ohne Transformation (1b).Passiv-Satz 3a war nicht schwerer verständlich als seine Aktiv-Variante 3b.Der Passiv-Satz 2a war dagegen tatsächlich schwerer verständlich als seine Aktiv-Variante 2b.D. h. zumindest einige transformierte Satzvarianten wurden als leichter eingeschätzt als die theoretisch einfacheren nicht-transformierten Sätze.
  • Wie kann man experimentell belegen, dass in die Satzverarbeitung Vorwissen einbezogen wird?

    Lösung

    Im Experiment wird den Probanden ein Satz und anschließend ein Testwort dargeboten
    (Beyer et al. 2006; Gerlach 2010). Die Probanden sollten so schnell und korrekt wie möglich entscheiden, ob das Testwort im Satz enthalten war oder nicht. Es gab Testwörter, die waren enthalten, und Testwörter, die waren nicht enthalten (negative Testwörter). Wesentlich sind nur die negativen Testwörter. Diese Testwörter konnten eine semantische oder keine Beziehung zum Satz besitzen. Unter der Bedingung „semantische Beziehung zwischen Satz und Testwort“ benötigen die Probanden signifikant mehr Zeit zur korrekten Ablehnung der Testwörter. Es ist folglich zu vermuten, dass während des Satzlesens eine interne semantische Repräsentation des Satzinhaltes konstruiert wurde und zwar unter Einbeziehung assoziierter Beziehungen zu semantisch benachbarten Begriffen im Vorwissen. Dies führt zu einer Verzögerung bei der korrekten Ablehnung negativer,
    aber semantisch bezogener Testwörter. Für den Probanden entsteht der Konflikt, dass das Testwort zwar bereits begrifflich in die Satzrepräsentation integriert ist, aber dennoch nicht explizit im Satz enthalten war.
  • Wie kann man eine experimentelle Strategie zum Nachweis der Integration von Vorwissen bei der Wort- oder Satzverarbeitung nutzen, um eine angewandte
    Fragestellung zum Beispiel im Bereich Psychodiagnostik zu beantworten?

    Lösung

    Die unter Frage 9 genannte Wiedererkennungsmethodik wurde von Beyer (1997) genutzt, um die Präsenz von bestimmtem Wissen bei bestimmten Personen zu identifizieren. Es wurde geprüft, ob bei zwangsgestörten und depressiven Personen das für diese Störungen relevante Vorwissen „normales“ Wissen dominiert. Diesen und „normalen“ Probanden wurden Sätze mit „normalem“, „depressivem“ und „zwanghaften“ Satz-Testwortmaterial vorgelegt. Im Ergebnis kann tatsächlich eine Modifizierung des Verzögerungseffektes in Abhängigkeit der beiden Hauptvariablen Material- und Probandentyp festgestellt werden. Der stärkste Verzögerungs- und damit Vorwissenseffekt ist immer dann zu beobachten, wenn die Probanden mit den für sie relevanten Testitems konfrontiert werden. Dies spricht
    für eine schnellere Verfügbarkeit genau dieser Wissenskomponenten ausgehend von der explizit angebotenen Satzinformation. Damit erweist sich die experimentelle Methodik als prinzipiell geeignet zur (Teil-)Diagnostik von psychischen Störungen.
  • Nennen Sie ein Beispiel für eine Verständlichkeitsformel (Methode zur Bestimmung der Satz- bzw. Textverständlichkeit) und erläutern Sie kurz das
    Konstruktionsprinzip!

    Lösung

    Verständlichkeitsformeln dienen der Erfassung, Gewichtung und Verrechnung
    von relevanten Text- und Satzmerkmalen. Die Formeln unterscheiden sich in der
    Anzahl, Art und Gewichtung von derartigen Merkmalen. Mit sehr wenigen und
    relativ leicht auszählbaren Merkmalen arbeitet die Formel von Flesch (1948)
    bzw. Amstad (1978). Diese Formel kann sofort auf ganze Texte angewendet werden
    und ist damit wesentlich praktikabler als Formeln, die sich primär auf Sätze
    beziehen. Die Formel lautet: V= 180- ((Anzahl Wörter/Anzahl Sätze) + (Anzahl
    Silben/Anzahl Wörter x 58,5)). Der Index kann Werte zwischen 0 (sehr schwer)
    und 100 (sehr leicht) annehmen. Die Formeln sind objektiv, reliabel und leicht zu
    handhaben. Allerdings konzentrieren sie sich auf Textoberflächenmerkmale und
    blenden Syntax, Semantik, Kontext und Lesereigenschaften weitestgehend aus.
  • Inwiefern könnte man Ratingskalen zur Beurteilung der Textverständlichkeit
    verwenden, erläutern Sie dabei auch ein gebräuchliches Verfahren!

    Lösung

    Nach der sog. Hamburger Verständlichkeitskonzeption und in dem zugehörigen
    Verfahren zur Messung der Textverständlichkeit werden Rating- bzw. Likert-
    Skalen eingesetzt (zurückgehend auf Langer et al. (1974)). Dabei geben Bewerter
    mithilfe von bipolaren, fünfstufigen Ratingskalen Urteile bezüglich verschiedener
    Merkmale ab (z. B. konkret-abstrakt, folgerichtig-zusammenhangslos, zu kurz-
    zu lang, persönlich-unpersönlich), die auf die vier Dimensionen „Einfachheit“,
    „Gliederung“, „Kürze-Prägnanz“ und „zusätzliche Stimulanz“ reduziert werden
    können. Nach diesem Verfahren ist ein Text verständlich, wenn er kurz, einfach
    und gut gegliedert ist sowie mit mäßigem Einsatz von zusätzlich stimulierenden
    Formulierungen auskommt. Ein Vorzug dieser Methode ist die Berücksichtigung
    satzübergreifender Merkmale und von Aspekten, die über die sprachlich-stilistische
    Gestaltung hinausgehen (Gliederung-Ordnung).
  • Was versteht man unter Metastrukturen, Superstrukturen bzw. Textschemata?Nennen Sie zusätzlich zwei erleichternde Strategien der Textverarbeitung auf der Basis derartiger Strukturen!

    Lösung

    Unter Metastrukturen, Superstrukturen bzw. Textschemata versteht man konstante
    Strukturen bei bestimmten Texttypen (bei Geschichten, Märchen, Forschungs- oder
    Zeitungsberichten). Diese formalen Strukturen lassen sich in Form von sog.
    Ersetzungsregeln bzw. in einer Hierarchie beschreiben. Eine Geschichte besteht
    zum Beispiel in der Regel aus den Hauptabschnitten Einleitung, Thema, Fabel
    und Auflösung. Die Einleitung besteht aus Informationen zu Personen, Zeit und
    Ort. Das Thema ist zerlegbar in Ereignis(se) und Ziel(e). Die Fabel setzt sich aus
    Episoden zusammen usw. Die Kenntnis dieser Strukturen erleichtert sowohl den
    effektiven Aufbau einer hierarchisch geordneten und kohärenten Organisation der
    aufgenommenen Textinformation im Gedächtnis als auch die Bildung von zuverlässigen
    Erwartungen bezüglich später eingelesener Textinformationen.
  • Erläutern Sie ein Experiment, das für die Realität und die Nutzung von Text-Superstrukturen spricht!

    Lösung

    In einem Experiment von Thorndyke (1977) wurde den Probanden ein Geschichtentext
    in drei Varianten präsentiert, den sie nach der Darbietung jeweils reproduzieren
    sollten:a) Geschichte wurde entsprechend der Idealstruktur dargeboten,b) Kausalitätsaussagen, die die Beziehung zwischen den Geschichtenkomponenten explizierten, wurden ausgelassen,c) die Sätze der Geschichte wurden in zufälliger Reihenfolge dargeboten. Im Ergebnisse zeigt sich, dass der Text mit Idealstruktur am besten reproduziert wird. Außerdem ist nur bei den Idealtexten ein Hierarchieeffekt in der Reproduktionsleistung zu erkennen. Textaussagen, die höheren Ebenen in der Textrepräsentation zuordenbar sind, werden besser reproduziert. Offensichtlich wurde von den Probanden eine Superstruktur für Geschichten zur Bewältigung der Aufgabe aus dem Gedächtnis abgerufen und genutzt.
  • Welche Grenzen hat die Idee, Textverstehen mithilfe von Superstrukturen zu erklären?

    Lösung

    Nicht für alle Textarten kann eine so stabile schematische Struktur wie bei traditionellen
    Geschichten, Märchen oder standardisierten Berichten unterstellt werden.
    Eine zweite Schwierigkeit besteht in der objektiven Zuordnung von einzelnen
    Textaussagen zu den angenommenen Hierarchieebenen der Superstruktur. Dies
    spricht für eine geringe Präzision sowohl bei der Definition von Verarbeitungseinheiten
    als auch bei der Modellierung von elementaren Textverarbeitungsprozessen.
    Ein Vorzug des Modells ist die Integration von Leser- und Genrewissen.
  • Welchen Vorteil und welchen Nachteil bringen interaktive Modelle der Textverarbeitung gegenüber strengen Top-down- bzw. Bottom-up-Ansätzen?

    Lösung

    Interaktive Modelle der Textverarbeitung werden der Komplexität des „Textverstehens“
    besser gerecht, da sie alle relevanten Faktoren und deren Interaktionen
    einbeziehen. Sie können daher als ökologisch valider bewertet werden. Allerdings
    ist es dadurch methodisch deutlich schwieriger, einzelne Modellannahmen empirisch
    zu prüfen. Eher reine Top-down- bzw. Bottom-up-Ansätze konzentrieren
    sich nur auf Teilprozesse. Sie sind damit aber einer empirischen Prüfung leichter
    zugänglich.
  • Wie kann man experimentell belegen, dass bei der Verarbeitung von Sätzen oder Texten Vorwissen und zumindest zeitweilig alternative Interpretationen von Wortbedeutungen verfügbar gemacht werden?

    Lösung

    In einem Experiment von Till et al. (1988) werden den Probanden Sätze mit der Aufforderung „Lesen und Verstehen“ dargeboten. Die Sätze enthielten Homonyme (mehrdeutige Wörter), die die Funktion eines Primewortes innehatten (z. B. „After an unusually heavy thunderstorm the water overflowed the bank“)*. Anschließend erschien ein Testwort, z. B. „money“. Die Probanden hatten zu entscheiden, ob es sich dabei um ein korrektes Wort handelte (lexikalische Entscheidung). Variiert wurdender Testworttyp (kontextgemäße Assoziation [z. B. river],alternative bzw. nichtkontextgemäße Assoziation [z. B. money],kontextgemäße Inferenz [z.B. flood] undKontrollwort [z. B. pencil]) sowiedas Interstimulusintervall (ISI) zwischen Primesatz und Testwort (200 ms, 300 ms, 400 ms, 500 ms, 1000 ms und 1500 ms).Generell sind die erwarteten Beschleunigungseffekte nachweisbar. Zudem fällt die Beschleunigung in Abhängigkeit von Testworttyp und Interstimulusintervall sehr unterschiedlich aus. Alternative, aber nicht kontextgemäße Assoziationen führen nur bei kurzem ISI zu einer Beschleunigung, sind also immerhin kurzfristig verfügbar, kontextgemäße hingegen sind sehr stabil präsent. Inferenztestworte benötigen mehr Zeit zur Bereitstellung.*„Bank“ kann aus dem Englischen in Bank (Geldinstitut) oder Ufer übersetzt werden. Die kontextgemäße Interpretation wäre in diesem Fall „Ufer“.
  • Welchen zeitlichen Verlauf unterschiedlicher Typen von Vorwissensaktivierungen kann man vermuten (z. B. nach Kintsch 1988, 1998)?

    Lösung

    Aus den unter 7. genannten und ähnlichen Befunden kann auf den zeitlichen
    Verlauf verschiedener Verarbeitungsphasen unter Einbeziehung von Vorwissen
    geschlossen werden. Etwa bis 150 ms sind sowohl kontextgemäße als auch nichtkontextgemäße Vorwissensanteile (bezogen auf die angebotenen sprachlichen Reize) verfügbar. Nichtkontextgemäße Vorwissensanteile werden anschließend
    deaktiviert, während kontextgemäßes Wissen weiter verfügbar bleibt. Semantisch
    entferntes Vorwissen (Inferenzen) werden erst ab ca. 500 ms schrittweise verfügbar.
  • Inwiefern kann man annehmen und empirisch belegen, dass Textwissen auf unterschiedlichen Abstraktionsebenen im Gedächtnis abgelegt wird?

    Lösung

    In aktuellen Modellen zur Textverarbeitung werden neben der propositionalen
    Repräsentationsebene (Textbase Level: begriffliche Repräsentation des gesamten Textes) zwei weitere Repräsentationsebenen angenommen: die Oberflächenrepräsentation (surface oder linguistic level) und die Situationsmodellebene (situation model level). Die Oberflächenebene berücksichtigt eine zumindest kurzfristige Speicherung von Textinhalten auf der Wortebene sowie der Repräsentation von syntaktischen Strukturen. Unter dem Situationsmodell wird eine eher ganzheitliche und abstraktere Repräsentation der im Text enthaltenen Ereignistypen verstanden.In einem Experiment von Kintsch et al. (1990) wurden den Probanden kurze Texte dargeboten (ca. 150 Wörter). Anschließend erschienen Testsätze. Es war zu entscheiden, ob sie wörtlich im Text enthalten waren. Fünf Varianten von Testsätzen waren von Bedeutung: Originalsätze, Paraphrasensätze, Inferenzsätze, negative Testsätze mit globalem Bezug zum Text und negative Testsätze
    ohne Bezug zum Text.Bei Annahme der drei Repräsentationsebenen sollte man erwarten, dass Originalsätze am häufigsten akzeptiert werden (Übereinstimmung auf allen drei Ebenen), gefolgt von Paraphrasen (Übereinstimmung bei Textbasis und Situationsmodell) und Inferenzen (Übereinstimmung nur auf Situationsmodellebene).Die Ergebnisse bestätigen diese Vermutung. Zusätzlich zeigt sich, dass es bei größerer zeitlicher Distanz zwischen Text- und Testsatzdarbietung zu
    einer überproportional stärkeren (fälschlichen) Akzeptanz von Paraphrasen und
    vor allem von Inferenzen kommt. Dies spricht für eine Dynamik bei der Nutzung
    der verschieden abstrakten Verarbeitungsebenen.
  • Warum wird Sprachverstehen häufiger untersucht als die Sprachproduktion?

    Lösung

    Bei der Untersuchung des Verstehens von Sprache ist der Ausgangszustand objektiv
    gegeben, klar definierbar und in Experimenten gut variierbar. Man legt den
    Probanden Laute, Wörter, Sätze oder verschiedene Arten von Texten vor und
    prüft, wie sich die Variation dieser sprachlichen Äußerungen auf das Verstehen
    auswirkt. Bei der Sprachproduktion ist der Ausgangszustand nicht oder nur
    schwer objektiv beobachtbar: Es sind in der Regel nicht beobachtbare Motive
    oder Gedanken, die Auslöser für die Sprachproduktion sind. Damit liegt bei der
    Sprachproduktion eine kompliziertere Konstellation für einen wissenschaftlichen
    Untersuchungsprozess vor.
  • Erläutern Sie ein Motiv oder eine Bedingung, das bzw. die eine Sprachproduktion auslösen könnte!

    Lösung

    Herrmann und Grabowski (1994, 2003) nutzen für die Beantwortung dieser Frage
    eine Idee aus der Mess- und Regeltechnik: Wenn wir eine Diskrepanz zwischen
    einem vorliegenden Zustand (IST-Zustand) und einem gewünschten Zustand
    (SOLL-Zustand) feststellen und eine sprachliche Äußerung geeignet erscheint,
    diese Diskrepanz aufzulösen, dann wird der Prozess der Sprachproduktion ausgelöst.
  • Was versteht man in einem Sprachproduktionsmodellen unter dem Begriff „Instrumentalität“?

    Lösung

    Das Motiv für die Sprachproduktion ist in der Regel, einen noch nicht vorliegenden,
    aber gewünschten Ziel-Zustand möglichst sicher zu erreichen. Gelingt dies,
    dann ist das Merkmal der „Instrumentalität“ bei der Produktion einer sprachlichen
    Äußerung erfüllt worden.
  • Welche wesentlichen Etappen kann man im Sprachproduktionsprozess annehmen?

    Lösung

    In den meisten Modellen zur Sprachproduktion wird von drei Haupt-Prozessphasen
    ausgegangen:„Begriff“ (Semantik), „Wort“ (Syntax/Morphologie) und „Aussprache“ (Phonologie).Nach dieser Überlegung unterscheiden Herrmann und Grabowski (1994, 2003) zwischen den drei Komponenten1) „Fokussierung“ (auf relevante Inhalte),2) „Selektion“ (Auswahl konkreter Gesprächsinhalte) und „Linearisierung“ (Reihung der selektierten Inhalte) und3) Encodierung (Transformation der Inhalte in eine Aussprache).
  • Welche Kriterien, Merkmale bzw. Variablen eines Sprechers oder Hörers könnten wesentlich in einem Sprachproduktionsmodell sein?

    Lösung

    Herrmann und Grabowski (1994, 2003) bewerten folgende Bedingungen als
    bedeutsam für die Wahrscheinlichkeit einer Sprachproduktion:1) Zielstellungen des Sprechers (z. B. durch einen Sprechakt, den gewünschten Zustand zu erreichen),2) Annahmen über den Gesprächspartner (z. B. zu wissen, ob der Gesprächspartner über das fehlende Wissen verfügt),3) Selbstrepräsentation des Sprechers (z. B. zu wissen, was ich weiß und was ich nicht weiß) und4) Deontische Voraussetzungen (z. B. in einer sozialen Situation einschätzen können, ob man legitimiert ist zu fragen).Man kann erwarten, dass die Wahrscheinlichkeit für die Produktion einer Frage steigt, wenn ich feststelle, dass mir Wissen fehlt, mein Partner dieses Wissen hat, der Partner auskunftsfreudig ist und mir sehr an der Schließung meiner Wissenslücke liegt.
  • Was versteht man im Sprachproduktionsmodell von Herrmann (1985, 1994) unter den deontischen Bedingungen bzw. deontischen Voraussetzungen! Wie könnten sie sich auf das Frageverhalten eines Sprechers auswirken?

    Lösung

    Unter deontischen Bedingungen oder Voraussetzungen versteht man hier die Einschätzung der sozialen Situation, also z. B. die Frage, ob man in dieser Situation legitimiert ist, Fragen oder Forderungen zu stellen. Wenn man legitimiert ist, kann man Fragen deutlich offensiver kommunizieren als ohne Legitimation.
  • Wählen Sie ein Sprachproduktionsmodell aus und erläutern Sie ein Experiment, das eine Grundannahme des Modells prüft!

    Lösung

    Allwinn (1988) prüfte das Modell von Herrmann & Grabowski. Die Probanden
    wurden entweder in einen fiktiven Kriminalfall verwickelt oder in eine Verkaufssituation
    in einem Kaufhaus geführt. Sie sollten durch Fragen den Kriminalfall
    lösen bzw. im Kaufhaus den Verkäufer um Informationen bitten. Allwinn variiertedas Ausmaß der Wissenslücke beim potenziellen Sprecher (klein, mittel, groß),die Bereitschaft zur Auskunft bei einem fiktiven Gesprächspartner (hoch, niedrig)
    unddie Legitimation des Sprechers (hoch, niedrig).Die Probanden neigten bei
    hoher Bereitschaft des Gesprächspartners zu vielen Fragen, wenn die eigene Wissenslücke ein mittleres Ausmaß besaß. Erschien der Partner nicht gesprächsbereit, kam es nur bei geringem Wissensdefizit zu gehäuften Fragen.Zusätzlich interessierte,
    ob die Probanden in diesen unterschiedlichen Situationen zu mehr oder
    weniger komplexen Fragekonstruktionen neigten. Beispielsweise könnte man
    erwarten, dass ein legitimierter Frager den abweisenden Verkäufer darauf hinweist,
    dass es seine Pflicht ist zu beraten. Das Ergebnis bestätigt die Vermutung.
    Die Menge und Art des Fragens hängt also von den im Modell angenommenen
    Bedingungen ab (hier „Annahmen über den Gesprächspartner“, „Selbstrepräsentation
    des Sprechers“ und „deontische Voraussetzungen“).
  • Nennen Sie einige Argumente, die dafür sprechen, dass der Spracherwerb vor allem durch Lernen vollzogen wird!

    Lösung

    Verschiedene Beobachtungen sprechen dafür, dass beim Erwerb von Sprache vor
    allem drei Lernmechanismen eine Rolle spiele:1) Lernen durch Nachahmung: Kinder ahmen die Wörter und Sätze ihrer Eltern und Geschwister nach,2) Lernen durch Bekräftigung: Kinder werden von ihren Bezugspersonen für richtige Wort- oder
    Satzproduktionen meist intensiv gelobt, was zu einem vermehrten Gebrauch dieser korrekten sprachlichen Äußerungen führt,3) Lernen durch Hypothesenbildung und das Erschließen von Regeln: Kinder erkennen Konstanten beim bilden verschiedener Wortformen (Konjugation, Deklination und Komparation) und wenden diese Regeln auch auf andere, weniger bekannte Wörter an.Für diese letzte Lernstrategie spricht die von Kindern oft praktizierte regelmäßige Konjugation von unregelmäßigen Verben („laufte“ anstelle von „lief“). Es wird also eine Regel erkannt und fälschlicherweise auf alle anderen Fälle generalisiert. Allerdings kann man zu jeder Art von Lernen Gegenargumente finden: Kinder lernen durch das Nachahmen der Sprache der Eltern bestimmt sehr viele neue Wörter. Dennoch produzieren sie häufig Wörter oder Wortfolgen, die sie nie von ihren
    Eltern oder anderen Bezugspersonen gehört haben. Kinder erwerben sicher einige
    Wörter, wenn sie für ein erstmals richtig gesprochenes Wort gelobt werden. Die Eltern wären jedoch überfordert, wenn sie jeden kleinen sprachlichen Fortschritt aufmerksam verfolgen, registrieren und bekräftigen müssten.
  • Nennen Sie einige Argumente, die dafür sprechen, dass der Spracherwerb vor allem angeboren ist!

    Lösung

    Für eine angeborene Komponente beim Erwerb von Sprache sprechen zum Beispiel:1) Bis zum Ende des ersten Lebensjahres sind Säuglinge sehr sensibel für
    die Unterscheidung von Lauten, die sowohl in der Sprache der Eltern als auch
    bei allen anderen Sprachen vorkommen. Nach 12 Lebensmonaten verliert sich
    diese Fähigkeit und die Kinder sprechen mit einer Orientierungsreaktion nur noch
    auf für ihre Muttersprache relevante Lautänderungen an. Es scheint also kritische
    Lebens-Phasen für bestimmte Etappen beim Spracherwerb zu geben.2) Der zeitliche und inhaltliche Ablauf des Erwerbs von Sprache vollzieht sich bei allen Menschen sehr ähnlich, scheint also kulturunabhängig zu sein.3) Nahezu alle Sprachen sind nach sehr ähnlichen grammatischen Regeln aufgebaut (Existenz einer Universalgrammatik).4) Einige Untersuchungen zeigen, dass eine Sprache
    prinzipiell auch dann erlernt werden kann, wenn die Lernbedingungen nicht optimal sind. Zusammenfassend kann man sagen, dass der Erwerb von Sprache ganz sicher auf wichtige angeborene Voraussetzungen aufbaut. Wie diese Voraussetzungen in eine sprachliche Leistung umgesetzt werden, hängt aber offensichtlich auch von der sozialen Umwelt und den Lernbedingungen ab.
  • Nennen Sie einige wichtige und typische Etappen des Spracherwerbs und versuchen Sie, diese Etappen dem Lebensalter der Kinder zuzuordnen!

    Lösung

    Sehr gut beobachtete und zeitlich zugeordnete Sprachentwicklungsetappen sind
    die Produktion des ersten Wortes (mit ca. einem Jahr), die sog. Benennungsexplosion
    (Ausweitung des Vokabulars auf 50 bis 200 Wörter zwischen 1,6 und 2 Jahren) und die Produktion von einfachen Satzkonstruktionen (Zwei- und Dreiwortsätze ab etwa 2 Jahre).
  • Weshalb gibt es keine einheitliche Definition des Begriffs "Denken"?

    Lösung

    Unterschiedliche Forschungstraditionen und -perspektiven lenken den Blick auf
    jeweils unterschiedliche Aspekte der äußerst komplexen kognitiven Funktion des
    Denkens.Während sich die Würzburger Schule auf den Prozess des Denkens selbst,
    genauer, das beim Denken Erlebte, fokussiert, konzentriert sich die Gestaltpsychologie
    stärker auf die Motivation des Denkens und versteht Denken als gestaltbildende
    Umstrukturierung. Der klassische Behaviorismus hingegen nähert sich
    dem Problem eher pragmatisch-methodisch und konzentriert sich ausschließlich
    auf beobachtbare Reiz-Reaktionsverbindungen. Der Prozess des Denkens selbst,
    da weder beobachtbar noch messbar, wird nicht berücksichtigt. Entsprechend
    unterschiedlich sind auch die methodischen Zugänge, mithilfe derer man sich
    dem Phänomen des Denkens nähert.Aus der kognitiven Wende ging die Kognitionspsychologie hervor, die Modelle und Erklärungsansätze für jene mentalen Prozesse bietet, die zwischen Reiz und Reaktion liegen, Prozesse der Informationsverarbeitung und -erweiterung.
  • Methoden der Denkforschung lassen sich in Online- und Offline-Methoden gliedern. Was ist darunter zu verstehen?

    Lösung

    Methoden der Denkforschung lassen sich in nach dem Zeitpunkt ihrer Erhebung
    in Online- und Offline-Methoden unterteilen. Online-Methoden erheben Daten
    während mentale Prozesse ablaufen (z. B. EEG). Bei der Verwendung von Offline-
    Methoden schließt man von einem gezeigten Verhalten auf die zugrunde liegenden
    psychischen Prozesse (z. B. Reaktionszeitmessungen).
  • Welche spezifischen Methoden werden eingesetzt, um Prozesse des Denkens zu untersuchen?

    Lösung

    Methode des lauten Denkens: Der Proband teilt während der Bearbeitung einer
    Aufgabe mit, was er gerade denkt, die Äußerungen werden protokolliert.Reaktionszeitmessung: Messung der Zeit, die ein Proband zur Aufgabenbewältigung benötigt.Psychophysiologische Verfahren (Pupillometrie, Ereigniskorrelierte Potenziale [EKP], funktionelle Magnetresonanztomografie [fMRT]): Registrierung biophysikalischer Signale während der Aufgabenbearbeitung.
  • Welche Vor- und Nachteile haben die unterschiedlichen Erhebungsmethoden in der Denkforschung?

    Lösung

    Methode des lauten Denkens:• Vorteil: unmittelbarer Einblick in das Problemlöseverhalten des Probanden und Probleme bei der Aufgabenbearbeitung• Nachteil: Reflexion des Gesagten kann zu verstärkter Selbstbeobachtung führen,
    Einflüsse des lauten Denkens auf den Prozess des Denkens sind nicht auszuschließen,
    bestimmte Denkprozesse entziehen sich der VersprachlichungReaktionszeitmessung:• Vorteil: relativ unaufwendig zu erhebender Indikator für den Ablauf mentaler Prozesse• Nachteil: Validität fraglich, keine Informationen über zugrunde liegende Bearbeitungsprozesse selbstPsychophysiologische Verfahren:• Vorteil: Erfassung von Prozessen zwischen Reiz und Reaktion möglich (z. B. Ressourcenkonsumtion für die Bewältigung einer Anforderung)• Nachteil: messtechnisch aufwendig; je nach verwendeter Methode Abstriche in der zeitlichen (Pupillometrie, fMRT) oder räumlichen Auflösung (EKP)
  • Warum findet die Methode der Selbstbeobachtung in der heutigen kognitionspsychologischen Forschung kaum noch Anwendung?

    Lösung

    Bei der Selbstbeobachtung wird die Aufmerksamkeit während einer Aufgabenbearbeitung auf die eigenen inneren Zustände gelenkt und diese entweder sofort oder im Anschluss verbalisiert. Aufgrund methodischer Mängel wird die Selbstbeobachtung heute kaum noch angewendet. Zu diesen Mängeln gehört, dass Beobachtetes und Interpretiertes nicht sauber voneinander getrennt werden können. Es besteht also die Gefahr der Verfälschung von Ergebnissen. Zudem liegt die Vermutung nahe, dass die Verbalisierung von Denkprozessen diese beeinflussen. Ein weiterer methodischer Kritikpunkt betrifft die fehlende Möglichkeit, Ergebnisse unterschiedlicher Selbstbeobachtungen systematisch zu vergleichen.
  • Inwieweit handelt es sich um gültige Schlüsse?Beispiel 1:Prämisse 1: Alle C sind A.Prämisse 2: Alle B sind A.Konklusion: Alle B sind C.Beispiel 2:Prämisse 1: Alle Mütter sind Frauen.Prämisse 2: Einige Frauen sind blond.Konklusion: Einige Mütter sind blond.

    Lösung

    Beispiel 1: Es handelt sich um einen kategorialen Syllogismus, der Schluss ist nicht gültig.Beispiel 2: Es handelt sich um einen kategorialen Syllogismus, der Schluss ist nicht gültig. Bitte bedenken Sie, dass es nicht um die Plausibilität oder den Wahrheitsgehalt der Konklusion geht, sondern ob es sich bei der Konklusion um einen zwingenden Schluss aus den Prämissen handelt. Aus den gegebenen Prämissen ergibt sich die Konklusion nicht zwingend. Veranschaulichen lässt sich dies, wenn statt der anschaulichen die abstrakte Darstellung gewählt wird:P1: Alle A sind C.P2: Einige C sind B.K: Einige A sind B.Es genügt nur eine Kombination der Aussagen in den Prämissen, die nicht mit der Konklusion vereinbar ist, um den Schluss zu falsifizieren. Die Abbildung zeigt eine solche Kombination. Sie stellt eine der möglichen Interpretationen der Prämissen und ihrer Konklusion dar.
  • Welche Fehler unterlaufen Menschen beim logischen Schließen?

    Lösung

    Einige typische Fehler beim deduktiven Schließen:• Subjekt und Prädikat in den Prämissen werden als vertauschbar angenommen (Konversionshypothese)• Menschen gehen von der Einhaltung bestimmter Kommunikationsregeln (z. B.
    Bedeutsamkeit der gegebenen Informationen) aus (siehe Grice’schen Kommunikationsprinzipien)• ungültige Konklusionen werden akzeptiert, wenn sie glaubwürdig/plausibel (z. B. aufgrund des eigenen Hintergrundwissens) erscheinen bzw. werden gültige Konklusionen abgelehnt, wenn sie unglaubwürdig erscheinen (belief-bias)• die Fehleranfälligkeit der Konklusion nimmt mit steigender Anzahl der Interpretations- und Kombinationsmöglichkeiten der Prämissen zu (Beschränkung
    der Arbeitsgedächtniskapazität)• Bidirektionale Interpretation von „wenn-dann“-Aussagen• Relevanz bestätigender Information wird überschätzt (Wahl der Karten im
    WST unter dem Gesichtspunkt der Verifikation) = confirmation bias• Bevorzugung der Antwort, die in der Regel genannt wird = matching bias
  • Wie lassen sich Fehlschlüsse beim deduktiven Denken erklären?

    Lösung

    Viele Erklärungsansätze stellen keine umfassenden Theorien dar, sondern
    beziehen sich auf ganz spezifische (Kontext-)Phänomene, die bspw. Mit Vertrautheitseffekten (Griggs und Cox 1982) oder der Aktivierung pragmatischer Inferenzschemata (z. B. Erlaubnisschema, (Cheng und Holyoak 1985)) erklärt
    werden. Weiterreichende Erklärungsmodelle für Befunde zum deduktiven Denken
    stellen die Theorie der mentalen Logik (z. B. Rips 1994) und die Theorie
    mentaler Modelle (z. B. Johnson-Laird 1983, 1990) dar. Während die Theorie der
    mentalen Logik Fehler beim deduktiven Schließen auf eine fehlerhafte Anwendung
    von Inferenzregeln (z. B. aufgrund ihrer Komplexität) zurückführt, geht die
    Theorie mentaler Modelle davon aus, dass Denkfehler aufgrund unzureichender
    mentaler Modelle (Bedeutungsrepräsentationen) der Prämissen entstehen.
  • Was versteht man unter einem „induktiven Schluss“ und worin unterscheidet er sich von einem „deduktiven Schluss“?

    Lösung

    Induktive Schlüsse sind Schlüsse vom Konkreten auf das Allgemeine und Abstrakte.Aus einer endlichen Menge von Beobachtungen wird auf allgemeine Zusammenhänge geschlossen. Induktive Schlüsse sind nicht wahrheitserhaltend, d. h. sie sind nur mit einer gewissen Wahrscheinlichkeit wahr. Sie sind insofern wahrheitserweiternd, als sie den semantischen Informationsgehalt der Prämissen
    erhöhen.Beim deduktiven Schließen wird eine allgemeine Regel auf den Einzelfall
    angewendet (Schluss vom Allgemeinen auf das Spezifische). Die Schlussfolgerung ergibt sich also zwingend aus den gegebenen Annahmen.Deduktive Schlüsse sind damit wahrheitserhaltend, erbringen im Gegensatz zu induktiven Schlüssen jedoch keine neue Information.
  • Was bedeutet „analoges Schließen“?

    Lösung

    Aufgrund der Ähnlichkeit zwischen zwei Sachverhalten wird vorhandenes Wissen
    von einer Quelldomäne auf eine (zumindest teilweise) unbekannte Zieldomäne übertragen.
  • Im Folgenden geht es um den Transfer semantischer Relationen. Können Sie die folgenden Analogie-Aufgaben lösen? Welcher Begriff vervollständigt jeweils die Analogie korrekt?Licht/Auge = Schall/ ... (Geschwindigkeit, Haut, Nase, Ohr)Morgen/heute = Samstag/ ... (gestern, Freitag, Sonntag, Montag)Leder/Schuhe = Trauben/ ... (Hülle, Wein, Wasser, süß)Auge/sehen = Wasser/ ... (halten, lassen, fließen, stoppen)Herbst/Apfel = Obst/ ... (Sommer, Monat, Jahreszeit, Gemüse)

    Lösung

    Licht/Auge = Schall/Ohrmorgen/heute = Samstag/FreitagLeder/Schuhe = Trauben/WeinAuge/sehen = Wasser/fließenHerbst/Apfel = Obst/Jahreszeit
  • Wodurch unterscheiden sind oberflächliche und strukturelle Ähnlichkeit zwischen Quell- und Zieldomäne?

    Lösung

    Oberflächenähnlichkeit bezeichnet die inhaltliche Ähnlichkeit zwischen Quell- und Zielbereich. Die Analogie wird aufgrund ähnlicher Eigenschaften und Merkmale gebildet. Die Erfindung des Klettverschlusses nach dem Vorbild der Klette ist ein klassisches Beispiel für die Analogiebildung aufgrund der Oberflächenähnlichkeit. Strukturelle Ähnlichkeit bezieht sich auf die Tiefenstruktur, die Ähnlichkeit der Relationen innerhalb der Problembereiche, ohne dass deren Eigenschaften sich ähnlich sein müssen. Ein Beispiel hierfür ist die Analogie zwischen dem Autobahnsystem einer Stadt und dem menschlichen Kreislaufsystem (kontinuierlicher Bewegungsfluss von Elementen in einem System).
  • Wodurch wird das Erkennen ähnlicher Strukturen erschwert, wenn Quelle und Ziel nicht derselben Wissensdomäne angehören?

    Lösung

    Leichter fällt die Orientierung an Oberflächenmerkmalen, da diese auf verfügbares
    Wissen im Quell- und Zielbereich zurückgreifen. Wissen über strukturelle
    Beziehungen existiert jedoch meist nur für den Quellbereich. Daher wird das
    Erkennen struktureller Ähnlichkeit erleichtert, wenn zwischen Quell- und Zielbereich
    auch eine Oberflächenähnlichkeit besteht. Bezieht sich die bestehende
    Ähnlichkeit ausschließlich auf strukturelle Gemeinsamkeiten unterschiedlicher
    Wissensbereiche, besteht die Schwierigkeit für den analogen Transfer vor allem
    im Erkennen dieser ähnlichen Strukturen. Je größer die Distanz zwischen den
    Wissensdomänen, desto stärker muss das Problem abstrahiert werden und desto
    schwieriger gestaltet sich entsprechend das Auffinden struktureller Analogien.
    In Experimenten (z. B. Keane 1987; Clement et al. 1994) wurde nachgewiesen,
    dass die Verwendung semantisch gleicher oder semantisch ähnlicher Begriffe das
    Erkennen struktureller Ähnlichkeit fördert.
    Vorwissen und Expertise können hilfreich, aber auch hinderlich beim Auffinden
    struktureller Analogien sein: hilfreich deshalb, weil bereichsspezifisches
    Wissen eine Voraussetzung für die Problemdefinition im Zielbereich darstellt,
    hinderlich, weil es nahe liegt, bereits bekannte Lösungsstrategien (funktionale
    Fixierung) anzuwenden (siehe auch Abschn. 3.3.2). Zusätzlich wird das Aufspüren
    von Analogien durch die Kontextabhängigkeit des Lernens erschwert. Wissen
    wird in der Regel mit der Situation und der Bedeutung verknüpft, in der es
    gelernt wurde und kann daher nur schwer in anderen Zusammenhängen abgerufen
    werden.
  • Welcher Unterschied besteht zwischen einem Problem und einer Aufgabe?

    Lösung

    Ein Problem besteht, wenn eine Person ein (unter Umständen nur ein unklar definiertes)
    Ziel hat, aber nicht weiß, wie sie es erreichen soll. Entweder die Operatoren
    zur Zielerreichung sind unbekannt oder es existiert eine zu große Anzahl an
    Operatoren bzw. an Kombinationsmöglichkeiten der Operatoren.Bei Aufgaben hingegen ist das Ziel klar definiert und die Methoden und Strategien
    zur Zielerreichung sind bekannt.Ob es sich bei einer Anforderung für eine konkrete Person um eine Aufgabe oder ein Problem handelt, hängt vom Vorwissen dieser Person ab, ist also interindividuell unterschiedlich.
  • Worin unterscheiden sich komplexe von einfachen Problemen?

    Lösung

    Einfache Probleme sind lediglich durch eine Interpolationsbarriere gekennzeichnet.
    Sowohl der Ausgangs- als auch der Zielzustand sind bekannt, ebenso die Mittel
    (Operatoren) zur Zielerreichung. Lediglich die zielführende Kombination der Operatoren ist unbekannt.Komplexe Probleme sind durch folgende Merkmale gekennzeichnet:• Variablenvielzahl: Viele innerhalb der Problemsituation zu berücksichtigenden VariablenProblem/Herausforderung: Begrenztheit der menschlichen Informationsverarbeitungskapazität• Variablenvernetztheit: vielfältige Wechselbeziehungen zwischen den VariablenProblem/Herausforderung: die Wirkung von Eingriffen in das System ist schwer vorherzusagen• Dynamik: Veränderlichkeit der Situation über die Zeit (Eigendynamik)Problem/Herausforderung: Begrenzte menschliche Fähigkeit zur Antizipation dieser Veränderungen• Intransparenz: fehlende oder unzureichende Information über die beteiligten Variablen und ihre VernetzungenProblem/Herausforderung: Unbestimmtheit in Entscheidungssituationen und möglicher Zeitdruck• Polytelie (Vielzieligkeit): Existenz mehrerer, gleichzeitig anzustrebender und möglicherweise sich widersprechender ZieleProblem/Herausforderung: Gewichtung von Zielkriterien
  • Was ist unter einem Einsichtsproblem zu verstehen?

    Lösung

    Einsicht bezeichnet das plötzliche Verstehen eines Sachverhaltes, eines Zusammenhangs.Bei Einsichtsproblemen (insight problems) erfolgt die Lösung nicht schrittweise, sondern infolge einer internen Umstrukturierung, einer Veränderung
    der Problemrepräsentation, die zu unmittelbarer Einsicht („Aha-Erlebnis“) führt.
  • Selbstversuch: Sie benötigen 8 Münzen gleicher Größe (z. B. 1-Euro-Münzen). Bitte legen Sie diese nach folgendem Muster vor sich auf den Tisch.
    Ihre Aufgabe besteht nun darin, genau zwei der Münzen so zu bewegen, dass jede Münze genau drei andere Münzen berührt. Falls es nicht sofort gelingt: Bitte erstellen Sie nach jedem erfolglosen Lösungsversuch wieder die Startkonstellation!

    Lösung

    Die Lösung besteht darin, die beiden mittleren Münzen AUF die drei Münzen links und rechts zu legen. Haben Sie zunächst nach einer 2-dimensionalen
    Lösung gesucht? Dann geht es Ihnen sowie den meisten Versuchsteilnehmern
    von Ormerod und Kollegen (2002), die dieses knifflige Problem erdacht haben.
    Ein wichtiger Schritt zur Lösung dieses Problems liegt in der Veränderung der
    Problemrepräsentation, die Erweiterung des Problemraums auf drei Dimensionen.
    Ziel der Forschergruppe war es zu testen, welche Heuristiken Personen zur
    Lösung des Problems anwenden und inwieweit Hinweise (Einbeziehung der dritten
    Dimension) die Lösung erleichtern.
  • Worin unterscheiden sich gute von schlechten Problemlösern?

    Lösung

    Untersuchungen ergaben, dass gute Problemlöser zur Entwicklung einer geeigneten
    Problemlösestrategie• mehr Zeit für die Analyse der Situation verwenden,• in stärkerem Maße Wechselwirkungen zwischen den Variablen berücksichtigen,• eher Neben- und Fernwirkungen potenzieller Entscheidungen bedenken als schlechte Problemlöser.Studien, in denen Problemlösestrategien von Novizen und Experten verglichen wurden, kamen zu dem Ergebnis, dass• Experten über umfangreichere und effizientere Problem-Repräsentationen verfügten,• stärker die Vernetztheit von Variablen berücksichtigten,• ihre Entscheidungen stärker reflektierten• und ihr Vorgehen systematischer planten.Diese Vorteile waren allerdings auf Problembereiche des Wissensgebiets der Expertise beschränkt.
  • Wie wirkt sich Zeitdruck auf das Lösen komplexer Probleme aus?Was ist eine kognitive Notfallreaktion?

    Lösung

    Zeitdruck bestimmt häufig das Handeln in komplexen Situationen. Unter Zeitdruck
    müssen Prozesse der (idealtypischen) Problembearbeitung wie Dörner (1989) sie
    beschreibt, beschränkt werden. Das heißt, es müssen Entscheidungen getroffen
    werden, auch wenn nur unvollständige Informationen über die Situation vorliegen
    und/oder die Auswirkungen der getroffenen Entscheidungen nicht vorhersehbar
    sind. Solche Entscheidungen unter Zeitdruck sind daher sehr fehleranfällig. Der
    resultierende Handlungsdruck kann zu einer besonderen Form der Stressreaktion
    führen, einer „kognitiven Notfallreaktion“.Diese ist gekennzeichnet durch den „Tunnelblick“, eine Einengung im Denken und Handeln. Das Handeln erfolgt zunehmend reizgesteuert, das heißt man reagiert, auf bekannte Handlungsschemata unreflektiert zurückgreifend, ohne Plan und Ziel auf das, was am dringlichsten erscheint. Einfache Lösungen werden bevorzugt. Diese „kognitive Notfallreaktion“ ist ein Selbstschutzmechanismus auf das Gefühl eines drohenden Kontrollverlusts
  • Was ist ein Algorithmus?

    Lösung

    Ein Algorithmus bezeichnet eine aus einzelnen Verarbeitungsschritten zusammengesetzte
    Regel zur Lösung einer Aufgabe. Diese Regel ist eindeutig formuliert und führt bei korrekter Anwendung immer zur Lösung. Der Verfahrensablauf ist dabei zu jedem Zeitpunkt fest vorgeschrieben. Algorithmen sind beispielsweise mathematische
    Berechnungsvorschriften zum Addieren, Subtrahieren oder Multiplizieren.Auch deduktive Schlüsse (eine allgemeine Regel wird auf den Einzelfall übertragen)
    beruhen auf der Anwendung von Algorithmen. Sind die Prämissen wahr (z. B. P1: Alle Vögel sind Lebewesen, P2: Alle Spatzen sind Vögel.), ist die Konklusion bei Einhaltung der logischen Schlussregeln ebenfalls wahr (K: Alle Spatzen sind Lebewesen.).
  • Welchen Nutzen hat die Anwendung von Heuristiken?

    Lösung

    Heuristiken ermöglichen es, handlungsfähig zu bleiben, indem sie uns kognitiv entlasten, beispielsweise in Situationen, die durch ein „zu viel“ (Informationsflut) oder ein „zu wenig“ (bruchstückhafte oder fehlende) an Informationen gekennzeichnet sind. Nach Gigerenzer ist die Rationalität von Heuristiken nicht logisch, sondern ökologisch. Das heißt, sie sind nicht an sich gut oder schlecht. Das Kriterium für den Erfolg von Heuristiken ist die Güte der Anpassung an die jeweilige gegebene Umwelt.
  • Was versteht man unter einer Verfügbarkeitsheuristik?Nennen Sie ein Beispiel!

    Lösung

    Die Verfügbarkeitsheuristik ist eine Urteilsheuristik zur Abschätzung von Häufigkeiten
    und Wahrscheinlichkeiten, bei der Menschen die Informationen stärker
    gewichten, die leichter verfügbar oder anschaulicher sind. Menschen folgen
    implizit der Annahme, dass die Leichtigkeit des Gedächtnisabrufs ein guter Indikator
    für die Häufigkeit des Eintretens eines Ereignisses sei.Beispiel: Überschätzung der Wahrscheinlichkeit im Lotto zu gewinnen, wenn ich gerade etwas über den letzten Lottogewinner erfahren habe.
  • Was bedeutet „begrenzte Rationalität“?

    Lösung

    Der Begriff „begrenzte Rationalität“ (bounded rationality) wurde durch den Wirtschafts-
    und Sozialwissenschaftler Herbert Simon (1916–2001) in den fünfziger
    Jahren im Rahmen der Entscheidungsforschung geprägt. Aufgrund kognitiver
    Beschränkungen (z. B. begrenzte Informationsverarbeitungskapazität) werden
    Entscheidungen in dem Sinne „begrenzt rational“ getroffen, als das Kriterium
    für eine Entscheidung nicht in einer Maximierung des Nutzens besteht (optimale
    Lösung) sondern im Erreichen einer, dem eigenen Anspruchsniveau genügenden,
    zufriedenstellenden Lösung.
  • Welche Gemeinsamkeiten und welche Unterschiede gibt es in Bezug auf die Forschungsansätze von Kahneman & Tversky und die Forschungsgruppe um Gigerenzer?

    Lösung

    Beide Ansätze befassen sich mit dem Phänomen der „begrenzten Rationalität“
    des Menschen in Urteils- und Entscheidungssituationen und gehen der Frage nach, in welchen Situationen Menschen welche Heuristiken wie nutzen.Im Gegensatz zum Konzept „Heuristics and biases“ von Kahneman und Tversky betrachten Gigerenzer und Mitarbeiter die begrenzte menschliche Rationalität nicht in erster Linie als Beschränkung kognitiver Fähigkeiten, sondern als Adaptationsleistung („fast and frugal heuristics“) des Menschen an eine komplexe und sich verändernde Umwelt (ökologische Rationalität).
  • Wodurch zeichnet sich „divergentes Denken“ aus?

    Lösung

    Divergentes Denken bedeutet, flexibel in viele verschiedene Richtungen denken zu können. In Tests zum divergenten Denken geht es häufig um die Verbindung von weit auseinander liegenden Assoziationen (z. B. der Remote Associates Test von Mednick).Divergentes Denken zeichnet sich nach Guilford aus durch:• Originalität: die Ungewöhnlichkeit der Lösungsvorschläge,• Flexibilität: übliche und gewohnte Denkschemata verlassen,• Flüssigkeit: viele unterschiedliche Ideen generieren,• Elaboration: Fähigkeit zur Ausgestaltung einer Lösung, Planung von Handlungsschritten
    und Ziel-Ergebnis-Vergleich,• Sensitivität: Fähigkeit, Probleme, Fehler, Mängel und Potenziale zu erkennen,• Redefinition: Fähigkeit zur Neuinterpretation eines Objekts oder eines Sachverhalt (z. B. neue Verwendung eines Objekts)
  • Testen Sie Ihre eigene Fähigkeit zum divergenten Denken!Finden Sie jeweils ein viertes Substantiv, das sich mit den drei vorgegebenen Wörtern zu einem zusammengesetzten Wort verknüpfen lässt. Das Lösungswort kann vor oder auch hinter die vorgegebenen Wörter angesetzt werden.*Ein Beispiel: Zeit-Meile-SandLösungswort: Stein (Steinzeit-Meilenstein-Sandstein).(a) Flocke–Eule–Besen(b) Dorf–Feld – Gipfel.(c) Wein–Körper – Tür(d) König–Gast – Pfahl(e) Tag–Verletzung – Probe(f) Foto–Geld – Korb(g) Platz–Lücke – Forschung*Die Beispiele entstammen dem deutschsprachigen Compound Remote Associates Test (CRA) von Landmann et al. (2014).

    Lösung

    a) Lösungswort: SchneeNach 5 s hatten 32,5 % der Probanden von Landmann et al. (2014) die Lösung, nach 60 s waren es 97,5 %.b) Lösungswort: BergNach 5 s hatten 2,6 % der Probanden von Landmann et al. (2014) die Lösung, nach 60 s waren es 57,5 %.c) Lösungswort: GlasNach 5 s hatten 0 % der Probanden von Landmann et al. (2014) die Lösung, nach 60 s waren es 50 %.d) Lösungswort: ZaunNach 5 s hatten 7,7 % der Probanden von Landmann et al. (2014) die Lösung, nach 60 s waren es 42,5 %.e) Lösungswort: StichNach 5 s hatten 7,7 % der Probanden von Landmann et al. (2014) die Lösung, nach 60 s waren es 22,5 %.f) Lösungswort: PapierNach 5 s hatten 0 % der Probanden von Landmann et al. (2014) die Lösung,
    nach 60 s waren es 7,5 %.g) Lösungswort: MarktNach 5 s hatten 0 % der Probanden von Landmann et al. (2014) die Lösung, nach 60 s waren es 2,5 %.
  • Mit welchen Persönlichkeitsmerkmalen wird kreatives Denken assoziiert?

    Lösung

    Verschiedene Autoren und empirische Befunde weisen folgende Merkmale einer
    Person als zentral für kreatives Denken aus:
    • Fokussierung: Fähigkeit, sich auf ein Problem zu konzentrieren.
    • Intrinsische Motivation: innerer Antrieb, kognitive Ressourcen für die Schaffung
    eines kreativen Produkts/einer Problemlösung aufzuwenden. Faktoren
    intrinsischer Motivation sind z. B. Ausdauer, Konzentration, Belohnungsaufschub
    ertragen, Wissensdurst und Neugier.
    • Offenheit für neue Erfahrungen (oft mit Risikobereitschaft verbunden), Freude
    an Neuem, breite Interessen,
    • Ambiguitätstoleranz: Konstruktiver Umgang mit Widersprüchlichkeiten,
    Mehrdeutigkeit und Unsicherheit
    • Frustrationstoleranz: mit Enttäuschungen umgehen können, sich nicht von
    Rückschlägen, Misserfolgen oder versagter Anerkennung entmutigen lassen.
    • Nonkonformität im Denken und Verhalten, Autonomiestreben, Eigenwilligkeit
    • fähigkeits- und zielbezogenes Selbstvertrauen
  • Inwiefern ergänzen sich divergentes Denken und konvergenten Denken im kreativen Prozess?

    Lösung

    Beim divergenten Denken geht es darum, eine Vielzahl von Lösungen zu einem
    Problem zu entwickeln. Im Fokus steht die Erweiterung, Veränderung von Informationen,
    die Fähigkeit, neue Verbindungen zwischen Wissenselementen herzustellen.
    Divergentes Denken ist somit Voraussetzung für den kreativen Prozess.Konvergentes Denken hingegen bezeichnet regelgeleitetes, analytisch-logisches Denken, das auf eine präzise Lösung ausgerichtet ist. Innerhalb des kreativen Prozesses ist es unerlässlich für die• Einbeziehung bereits vorhandenen Wissens,• das Sammeln von Informationen,• die Anwendung bekannter Denkmuster,• die Bewertung von Ideen (Prüfung der Angemessenheit) und• die Auswahl (weiter zu verfolgender) Ideen• sowie deren Umsetzung (Handlungsplanung).Entsprechend dem Genexplore-Modell von Ward et al. (1999) müssen Phasen der Ideengenerierung (erfordert divergentes Denken) mit Phasen der Exploration
    (erfordert konvergentes Denken) verknüpft werden.In der explorativen Phase werden die generierten Ideen unter verschiedenen Gesichtspunkten bewertet, geprüft und interpretiert. Phasen der Generierung und Exploration werden so lange durchlaufen, bis eine angemessene und zufriedenstellende Lösung gefunden ist.
  • Inwieweit kann das Wissen über einen Problembereich die Kreativität fördern oder behindern?

    Lösung

    Wissen über einen bestimmten Bereich ermöglicht es erst, ein Problem in diesem
    Bereich zu entdecken und das Problem zu verstehen. Vorhandenes Wissen
    „schützt“ auch davor, etwas zu erfinden, das es schon gibt. Es bewahrt uns also
    davor, kreative Energie auf Probleme zu richten, die bereits gelöst wurden.Doch Wissen kann die Kreativität auch behindern, nämlich dann wenn gewohnte (und bis dahin bewährte) Denkschemata unreflektiert angewendet werden statt neue, bereichsübergreifende Verbindungen herzustellen oder aufzugreifen.
  • Wodurch ist die Inkubationsphase im kreativen Prozess gekennzeichnet?

    Lösung

    Die Inkubationsphase im kreativen Prozess ist eine Phase nach mehr oder weniger
    eingehender Beschäftigung mit einem Problem. In dieser Phase beschäftigt man sich nicht mehr bewusst mit dem Problem. Diese Phase hilft, Ermüdungserscheinungen abzubauen und Fixierungen (zum Beispiel auf eine bestimmte Strategie oder den bisher definierten Problemraum) zu lösen.Verschiedene Studie legen nahe, dass eine Beschäftigung mit eher anspruchslosen Tätigkeiten hilfreich ist, um sich von Fixierungen zu lösen.Auch Schlaf und Bewegung (Oppezzo und Schwartz 2014) wirken sich positiv auf die anschließende Lösungsfindung aus. Vermutlich hilft die Unterbrechung auch, das Material umzustrukturieren und neue Verknüpfungen zu generieren.
  • Was sind „somatische Marker“ und was bewirken sie?

    Lösung

    Die Begrifflichkeit „somatische Marker“ geht auf Antonio Damasio zurück.
    Somatische Marker sind angenehme oder unangenehme Empfindungen, die sich
    bei der Vorstellung einer Entscheidungsoption einstellen. Sie treffen bezüglich
    der anstehenden Entscheidung eine Vorauswahl, legen eine Handlungstendenz
    nahe. Auf der Basis der durch die somatischen Marker antizipierten emotionalen
    Konsequenzen von Handlungsalternativen erfolgt der rationale Selektionsprozess
    (Kosten-Nutzen-Analyse).Im Laufe des Lebens erlernen wir Verbindungen von Handlungen mit ihren somatischen Markern. Ähnelt eine Entscheidungssituation einer bereits erlebten, werden deren somatische Marker aktiviert und beeinflussen unser Verhalten in der aktuellen Situation. Somatische Marker prüfen auf der Basis früherer Erfahrungen die Relevanz von Informationen und lenken die Aufmerksamkeit.
  • Was versteht man unter „stimmungskongruentem Erinnern“?

    Lösung

    Wie sich Emotionen auf die Verfügbarkeit von Informationen auswirken,
    beschreibt Bower (1981) anhand des sog. mood congruent recall (stimmungskongruentes
    Erinnern):Erfahrungen und Informationen, die zur aktuellen Gefühlslage passen, werden eher und leichter abgerufen als zur Stimmung inkongruente Inhalte. Diesen Effekt erklärt Bower anhand seines assoziativen Netzwerkmodells:Die momentane Stimmung ist mit Gedächtnisinhalten assoziiert, die eine ähnliche Stimmung hervorrufen. Diese Inhalte sind voraktiviert und können dadurch leichter abgerufen werden. Innerhalb eines assoziativen Netzwerkes sind Emotionen und Begriffe miteinander verbunden. Die ‚Emotionsknoten‘ sind mit den entsprechenden Gedächtnisinhalten assoziativ verknüpft. Gleichzeitig werden Inhalte, die nicht stimmungskongruent sind, inhibiert. Erleben wir eine bestimmte Emotion (z. B. Freude) wird ein ‚Emotionsknoten‘ aktiviert und mit ihm die zugehörigen Gedächtnisinhalte (z. B. angenehme Erlebnisse im Urlaub). Gleichzeitig werden andere Inhalte gehemmt. Die Aktivierung eines bestimmten ‚Emotionsknotens‘ erhöht die Wahrscheinlichkeit, dass uns Informationen in den Sinn kommen, die mit dieser Stimmung verbunden sind.
  • Welchen Einfluss besitzen Emotionen auf die Art der Informationsverarbeitung?

    Lösung

    Emotionen fördern unterschiedliche Strategien, gegebene Informationen zu verarbeiten.
    Personen in positiver Stimmung neigen stärker dazu, vereinfachte Verarbeitungsstrategien
    zu nutzen, also den kognitiven Aufwand zu minimieren.Solche vereinfachte Strategien bestehen beispielsweise darin, sich stärker von seiner
    Intuition leiten zu lassen und globale Heuristiken zur Entscheidungsfindung
    zu nutzen. Eine positive Stimmung vermittelt zudem Sicherheit in der gegebenen
    Situation. Es besteht kein Handlungsbedarf, die Situation zu ändern. Diese
    Sicherheit sollte einerseits die Kreativität im Denken fördern, andererseits aber
    die Tendenz verstärken, sich auf das eigene Wissen (auch in Form von Stereotypen)
    zu verlassen. Eine negative Stimmung hingegen sollte eher zu einer kognitiv
    aufwendigeren Informationsverarbeitung führen.Um einen unerwünschten Zustand zu verändern, ist es sinnvoll, zunächst die Situation detailliert und systematisch zu analysieren, um ein adäquates Handeln zu ermöglichen. Ursache-Wirkungsbeziehungen müssen antizipiert werden, Handlungsalternativen abgewogen und auf ihre möglichen Konsequenzen hin überprüft werden.Der Informationsverarbeitungsstil bei negativer Stimmungslage ist wesentlich zeitaufwendiger und rigider als eine heuristische Herangehensweise und bietet kaum Raum für kreative Lösungsideen, andererseits verschafft er dem Individuum in dieser Situation Sicherheit.
  • Welche Wirkung hat die momentane Stimmung einer Person auf deren Beeinflussbarkeit?

    Lösung

    Menschen in positiver Stimmung verwenden bevorzugt vereinfachende Heuristiken,
    der Aufmerksamkeitsfokus ist breiter, sie sind offener für Neues und (in
    Grenzen) auch risikobereiter. Insofern ist es plausibel, dass Menschen in positiver
    Stimmung auch leichter beeinflussbar sind als Menschen in gedrückter Stimmung.
    Forschungsbefunde von Bless et al. (1990) illustrieren dies: Die Forscher
    konfrontierten Studierende mit einer einstellungskonträren Botschaft – es ging um die Erhöhung von Studentenwerksbeiträgen – und verwendeten dabei entweder
    qualitativ starke oder schwache Argumente. Die Versuchspersonen wurden
    zuvor in positive oder negative Stimmung versetzt. Ziel war es, den Einfluss
    der Stimmung auf die bevorzugte Verarbeitungsstrategie der Informationen zu
    untersuchen. Personen in negativer Stimmung ließen sich nur dann überzeugen,
    wenn die Argumente stichhaltig waren, nicht aber bei schwachen Argumenten.
    Personen in positiver Stimmung ließen sich in jedem Fall beeinflussen. Positiv
    gestimmte Personen dachten augenscheinlich weniger über die Inhalte nach als
    negativ gestimmte Personen.
  • Wie wirkt sich die Stimmungslage einer Person auf die Aufgabenbewältigung aus?Beschreiben Sie einen empirischen Beleg hierfür!

    Lösung

    Eine gedrückte Stimmung wirkt sich positiv aus, wenn eine tiefer gehende,
    fokussierte, präzise und detaillierte Verarbeitung von Informationen notwendig
    ist. Eine positive Stimmungslage hingegen fördert die kognitive Flexibilität und
    wirkt sich vorteilhaft aus, wenn flexibles, kreatives Denken gefragt ist.In einer Studie von Isen et al. (1987) wurden Versuchspersonen mit dem Kerzenproblem von Duncker konfrontiert: Eine Kerze sollte an der Wand befestigt werden. Zur Verfügung standen eine Schachtel mit Reißzwecken und ein Heftchen Streichhölzer.Die Lösung besteht darin, die Schachtel zu leeren, mit Reißzwecken an der Wand zu befestigen und die Kerze darauf zu stellen. Zur Lösung dieses Problems ist es notwendig, sich von der sog. „funktionalen Fixierung“ zu lösen: Die Reißzwecken-Schachtel wird vom Behältnis für Reißzwecken zu einem Kerzenhalter. Personen, die zuvor in eine positive Stimmung versetzt worden waren (Experimentalgruppe), wiesen eine deutlich höhere Lösungsrate auf als die Kontrollgruppe
    (ohne positive Stimmungsbeeinflussung).
  • Was versteht man unter dem Basisraten-Fehler und wie lässt sich dieser vermeiden?

    Lösung

    Wenn bei Wahrscheinlichkeitsabschätzungen die Grundrate, also die Verteilung in
    der Grundgesamtheit, vernachlässigt wird, bezeichnet man dieses Phänomen als
    Basisraten-Fehler. Ursache ist die größere Salienz des Einzelfalls gegenüber der
    Basisrate.Gigerenzer argumentiert, dass Menschen das Abschätzen von Wahrscheinlichkeiten Schwierigkeiten bereitet, da sie sich Wahrscheinlichkeiten – im Gegensatz zu Häufigkeiten – nicht vorstellen können. In seinen Untersuchungen stellte er fest, dass sich die Schätzungen von Probanden deutlich verbesserten, wenn man bei einer gestellten Aufgabe statt bedingter Wahrscheinlichkeiten natürliche Häufigkeiten einsetzte. Auf diese Weise verschwindet der Basisraten-Fehler.
  • Stellen Sie sich vor, Sie sind Autoverkäufer. Welche Formulierung wählen Sie, um eine bestimmte Marke anzupreisen? Bitte begründen Sie Ihre Wahl!a) 35 % der Käufer entscheiden sich für diese Marke.b) 65 % der Käufer entscheiden sich für eine andere Marke.

    Lösung

    Vermutlich wählen Sie die Formulierung (b) und bedienen sich damit des sog.
    Framing-Effekts. Der Framing-Effekt bezeichnet die Tendenz von Menschen,
    sich in ihren Entscheidungen von der Darstellung der Situation leiten zu lassen.
    Bei gleichem Inhalt einer Information führen unterschiedliche Formulierungen
    zu unterschiedlichen Interpretationen beim Empfänger und beeinflussen dadurch
    seine Entscheidung. Der Sender legt also mit der Formulierung die „richtige“
    Entscheidung nahe.
  • Im Abschn. 3.3.2 wurde das von Dörner entwickelte Entwicklungshilfe-Szenario „Moroland“ vorgestellt. Nennen Sie beispielhaft einige (von Ihnen vermutete) Fehler der „Entwicklungshelfer“? Bitte orientieren Sie sich an den von
    Dörner beschriebenen Prozessphasen der Problembearbeitung!

    Lösung

    a) Fehler bei der Zielausarbeitung: Unspezifische Zieldefinition: „Verbesserung der Lebensbedingungen“ beschreibt einen nicht ausreichend definierten Zielzustand;
    keine Gewichtung der Zielkriterien (z. B. Verbesserung der Wasserversorgung,
    Bekämpfung von Krankheiten, Erhöhung landwirtschaftlicher Erträge)b) Fehler bei der Modellbildung: Verwendung eines zu einfachen Modells
    (Zugrundelegung einfacher Ursache-Wirkungsprinzipien), das die vernetzte
    Struktur des Problems unberücksichtigt lässt.c) Fehler bei der Extrapolation und Hypothesenbildung: Dynamik des Systems wird unterschätzt, lineare Entwicklungsprognose bei exponentiellem Entwicklungsverlauf (lineare Steigerung des Nahrungsangebots führt zu exponentiellem Wachstum der Bevölkerung).d) Fehler bei der Handlungsplanung, Entscheidung und Umsetzung von Maßnahmen:
    Konzentration auf kurzfristige Effekte (z. B. Verbesserung der medizinischen
    Versorgung, höhere Geburtenrate), Neben- und Fernwirkungen werden nicht berücksichtigt.e) Fehler im Rahmen der Effektkontrolle: unzureichende Effektkontrolle z. B. aufgrund kurzfristiger Erfolge (z. B. Geburtenzahlen steigen), fehlende
    Berücksichtigung zeitverzögerter Wirkungen. Manche Effekte von Eingriffen werden erst mit Verzögerung sichtbar, z. B. führt der vermehrte Brunnenbau auf Dauer zur Senkung des Grundwasserspiegels.
  • Was versteht man unter der „kognitiven Triade“ innerhalb des Depressionsmodells von Beck?Welche typischen Denkfehler ergeben sich daraus?

    Lösung

    Die „kognitiven Triade“ innerhalb des Depressionsmodells von Beck besteht
    aus drei kognitiven Mustern, die zu Verzerrungen im Denken des Patienten führen.
    Diese betreffen das negative Selbstbild, das negative Bild von der Welt/den
    Umständen und negative Zukunftserwartungen. Typische Denkfehler, die sich daraus ergeben, sind bspw.:• Übergeneralisierung: Einzelne negativen Erlebnisse werden verallgemeinert.• Minimierung und Maximierung: Positive Ereignisse werden unterbewertet, negative überbewertet.• selektive Verallgemeinerung: Einseitige Interpretation von Ereignissen, ausschließliche Konzentration auf negative Aspekte der Situation.• Personalisierung: Alle Ereignisse werden negativ auf sich selbst bezogen.• Verabsolutiertes, dichotomes Denken: Denken in Extremkategorien.Diese Denkfehler führen wiederum zu einer selektiven Aufnahme von negativen Informationen. Sie stabilisieren damit die negative Selbstsicht und die Depression.
  • Wie können nach Becks Ansatz dysfunktionale Denkschemata bei depressiven Patienten verändert werden?

    Lösung

    Becks Ansatz der kognitiven Therapie beinhaltet Methoden zur „kognitiven
    Umstrukturierung“, die zur Veränderung dysfunktionaler Denkschemata beitragen.
    Dazu gehört zunächst das Registrieren negativer Gedanken, um sie anschließend
    einer rationalen Analyse zu unterziehen. Damit soll der Patient lernen, sich
    von seinen dysfunktionalen Denkstrategien zu lösen. Weiterhin werden mithilfe
    des Therapeuten Umbewertungen bisher katastrophierter Situationen angeregt
    und Alternativen entwickelt.
  • In welchem Verhältnis stehen Sprache und Denken?Kann einem Gebiet das Primat zugeordnet werden?

    Lösung

    Bezüglich des Verhältnisses von Sprache und Denken werden drei Varianten
    Diskutiert:1) Sprache bestimmt unser Denken,2) Denken bestimmt die Möglichkeiten, Sprache auszubilden und zu nutzen,3) Denken und Sprache stehen in Wechselwirkung miteinander.Der sog. „Linguistische Determinismus“ (Variante
    1) ist in seiner strengen Form sicher nicht zu halten. Ähnliches gilt für das andere
    Extrem, wenn man wie Piaget davon ausgeht, dass die kognitive Entwicklung (die
    Entwicklung unseres Denkens) unsere Sprachentwicklung und Sprache entscheidend bestimmt (Variante 2). Zahlreiche Autoren sehen den Kompromiss darin, ein
    zeitweiliges Primat einer Einflussrichtung davon abhängig zu machen, inwiefern sprachliche Codierungen oder Denkleistungen im betreffenden Kontext relevant sind (Variante 3).Beim Verhältnis von Denken und Sprechen kommt es also darauf an, in welcher Situation und Entwicklungsphase wir uns befinden oder mit welcher konkreten Aufgabe wir konfrontiert werden.
  • Welche weiteren Einflüsse auf Sprache und Denken müssen einkalkuliert werden?

    Lösung

    Denken und Sprache sind keine isolierten Kompetenzbereiche. Sie reichen
    allein nicht aus, die möglichen menschlichen Denk- und Sprachleistungen zu
    erklären. Zahlreiche weitere Einflussgrößen kommen hinzu: z. B. Wahrnehmung,
    Lernen und Gedächtnis, Emotionen und Motive, Persönlichkeitseigenschaften,
    individuelle und ggf. problematische Entwicklungsverläufe und die
    Einbindung in soziale Netzwerke.Diverse Beispiele belegen das: Der Erwerb
    von Sprache ohne Gedächtnis ist kaum möglich, Emotionen und Motive bestimmen
    ganz maßgeblich unsere Denkleistungen, psychische Störungen lassen
    zeitweilig bestimmte Denkleistungen nicht zu oder werden umgekehrt durch
    fehlerhaftes Denken forciert.
  • Fertig!

    Zurück zu Frage 1
Zurück
Frage 1 von 93
Weiter

Dozentenmaterialien

Hier finden Sie die zum Buch gehörenden Dozentenmaterialien.
Registrieren Sie sich, oder melden Sie sich an, falls Sie bereits registriert sind.