Kognitiver Bias (kognitive Verzerrung)

Kognitiver Bias ist ein Begriff aus der Kognitionspsychologie. Er beschreibt systematische Neigungen/Verzerrungen in unserer Wahrnehmung und unserem Denken. Systematisch bedeutet, dass es sich nicht um zufällige “Fehler” handelt. Bei kognitiver Verzerrung werden bestimmte Entscheidungsfaktoren stärker gewichtet als andere. Und das kann zu schlechten Entscheidungen führen.

Betrachten wir das Beispiel aus dem Artikel über Heuristiken: Angenommen, wir möchten Zutaten für ein neues Kochrezept besorgen. In der Regel finden wir die entsprechenden Zutaten beim Lebensmittelhändler unseres Vertrauens. Wir suchen also zunächst in den Geschäften, die uns bekannt sind und in denen wir öfter einkaufen. In den meisten Fällen finden wir die Zutaten im Sortiment. Wenn es sich jedoch um ein ungewöhnliches Gericht handelt, kann unsere Heuristik fehlschlagen – da wir zum Beispiel ein exotisches Gewürz nur bei einem Feinkost-Händler finden.

Wenn wir alternative Händler gar nicht erst besuchen, weil Sie in unserer Erfahrung bei vergleichbaren Produkten teurer sind – verpassen wir das Sonderangebot, das gerade einer dieser Händler anbietet. Wir unterliegen einem kognitiven Bias.

Es gibt zahlreiche verschiedene Formen von kognitiver Verzerrung. Sie ist grundsätzlich Teil des menschlichen Denkens und kann kaum verhindert werden. Kreativitätstechniken zielen darauf ab, kognitive Schranken und Verzerrungen abzumildern oder gar aufzuheben. Dabei kann es helfen, dass man sich dieser “Fallstricke” im Denken bewusst ist. Durch kollaborative Kreativitätstechniken in Gruppen kann mit Hilfe von gegenseitigem Feedback die Effektivität der Kreativitätstechnik gesteigert werden, indem man sich gegenseitig auf wahrgenommene kognitive Verzerrung aufmerksam macht.

Buch-Tipp: Die Kunst des klaren Denkens: 52 Denkfehler, die Sie besser anderen überlassen

 

15 Beispiele für kognitiven Bias und Denkfehler

Es gibt sehr viele verbreitete Denkfehler. Eine kleine Auswahl von häufigen Typen von kognitiver Verzerrung beinhaltet:

1. Erinnerungsverzerrung

Ereignisse, an die man sich leichter erinnert werden tendenziell eingeschätzt, als würden sie häufiger eintreten als Ereignisse gleicher Häufigkeit, wenn man sich an letztere nicht so leicht erinnert.

2. Unterstellte Beziehungen

Die Schätzung der Wahrscheinlichkeit, dass zwei Ereignisse gleichzeitig eintreten, ist verzerrt durch die Anzahl der ähnlichen Situationen, an die man sich erinnern kann.

3. Unempfindlichkeit gegenüber A-Priori-Wahrscheinlichkeiten

Menschen tendieren dazu, A-Priori-Wahrscheinlichkeiten von Ereignissen zu ignorieren, wenn andere deskriptive Information vorliegt.

Beispiel: Einige Lotto-Spieler orientieren sich an Häufigkeitstabellen von gezogenen Zahlen in vergangenen Ziehungen, obwohl jede Zahl die exakt gleiche Wahrscheinlichkeit aufweist, gezogen zu werden.

4. Unempfindlichkeit hinsichtlich Stichprobengröβe

Menschen sind oft nicht in der Lage, die Rolle der Stichprobengröβe in Bezug auf Zuverlässigkeit von statistischen Aussagen angemessen einzuschätzen.

Beispiel: Die Gröβe und Art der Auswahl einer Stichprobe kann zu falschen Schlussfolgerungen führen. Etwa wenn das durchschnittliche Körpergewicht der deutschen Bevölkerung in einer Stichprobe von 20 Mitgliedern eines Kraftsportvereins ermittelt wird. In vielen Situationen ist es nicht so offensichtlich, dass es sich nicht um eine repräsentative Stichprobe handelt.

5. Falsches Verständnis von Zufall

Menschen erwarten tendenziell, dass zufällig erzeugte Zahlenreihen auch “zufällig” aussehen – sogar wenn die Länge der Sequenz zu kurz ist um eine qualifizierte Aussage zu treffen.

Beispiel: Die Zahlenfolge 1 2 3 4 5 6 wird tendenziell als systematisch erzeugte Zahlenfolge aufgefasst, selbst wenn sie beispielsweise mit Hilfe eines Würfels erzeugt wurde.

6. Regression zum Durchschnitt

Nach auβergewöhnlichen Situationen folgen meist “normale” Situationen.

Beispiel: Nach einer positiven (negativen), deutlich überdurchschnittlichen (unterdurchschnittlichen) Leistung folgt meist eine weniger gute (schlechte) Leistung. 

7. Der Trugschluss über konjunktive Ereignisse

Menschen tendieren fälschlicherweise dazu, Konjunktionen für wahrscheinlicher einzuschätzen als eine allgemeinere Menge von Ereignissen, von denen die Konjunktion eine Teilmenge ist.

Beispiel: Linda ist 31 Jahre alt, alleinstehend, offen und sehr intelligent. Sie hat Philosophie studiert. Als Studenten hat sie sich sehr für die Themen Diskrimination und soziale Gerechtigkeit interessiert. Außerdem hat sie an Anti-Atomkraft-Demonstrationen teilgenommen. Was ist wahrscheinlicher? a. Linda arbeitet als Bankberatering oder b. Linda arbeitet als Bankberaterin und ist in einer feministischen Bewegung aktiv.
Tendenziell neigen Befragte dazu, b. als wahrscheinlicher einzuschätzen, obwohl die Wahrscheinlichkeit für das gleichzeitige Auftreten zweier Ereignisse (1. “Linda ist Bankberaterin.” und 2. “Linda ist in einer feministischen Bewegung aktiv.”) kleiner oder allenfalls gleich der Wahrscheinlichkeit des Auftretens eines dieser Ereignisse ist.

Quelle: Tversky, A. and Kahneman, D. (October 1983). “Extension versus intuitive reasoning: The conjunction fallacy in probability judgment”. Psychological Review 90 (4): 293–315.

8. Unzureichende Anpassung von Ankern

Menschen machen Schätzungen von Werten anhand von initialen Zahlen und passen die Schätzung typischerweise nicht ausreichend genug an.

Beispiel: In einer Studie sollten Teilnehmer den Prozentsatz afrikanischer UNO-Mitgliedsstaaten schätzen. Zuvor erhielten sie durch das Drehen eines Glücksrades eine Zufallszahl als numerischen “Anker”. Teilnehmer, die einen niedrigen Anker erhielten, schätzten auch den Prozentsatz niedriger ein. Umgekehrt schätzten Teilnehmer mit höherem Anker auch den Prozentsatz höher ein.

Quelle: Tversky, A. and Kahneman, Daniel (1974): Judgment under Uncertainty: Heuristics and Biases, in: Science, Vol. 185, S. 1124-1131

10. Verzerrte Wahrscheinlichkeitsschätzung von konjunktiven und disjunktiven Ereignissen

Menschen tendieren dazu, die Wahrscheinlichkeit von konjunktiven Ereignissen zu überschätzen und die Wahrscheinlichkeit von disjunktiven Ereignissen zu unterschätzen.

Beispiel: Gegeben sind folgende Möglichkeiten.
a.) Einfaches Ereignis: Ziehen einer roten Kugel aus zwei Urnen mit 50% roten und 50% schwarzen Kugeln.

b.) Konjunktives Ereignis: 7x hintereinander Ziehen mit Zurücklegen einer roten Kugel aus zwei Urnen mit 90% roten und 10% weiβen Kugeln.
c.) Disjunktives Ereignis: Mindestens einmaliges Ziehen mit Zurücklegen einer roten Kugel aus zwei Urnen mit 90% roten und 10% weiβen Kugeln.

Menschen tendieren dazu, b gegenüber a sowie a gegenüber c zu bevorzugen. Obwohl die tatsächlichen Wahrscheinlichkeitswerte jeweils das Gegenteil erwarten lassen:  a (50%),  b (48%)  und c (52%).

11. Übermäβige Selbstsicherheit

Menschen tendieren dazu, den Wahrheitsgehalt ihrer Antwort/Meinung bei mittelschweren bis extrem schweren Fragen zu überschätzen.

12. Bestätigungsfehler

Menschen tendieren dazu, Informationen zu suchen, die Ihre vorhandene Einstellung bestätigen und die Suche nach widersprechenden Belegen zu vernachlässigen.

13. Rückschaufehler

Menschen tendieren dazu, nach dem Eintreten eines Ereignisses die Wahrscheinlichkeit zu überschätzen, wonach sie das Ereignis korrekt vorhergesagt hätten. Auβerdem fällt es Menschen schwer, Informationen zu ignorieren, über die sie verfügen und andere nicht, wenn sie das Verhalten anderer vorhersagen.

14. Kontrollillusion

Menschen tendieren dazu, zufällige Ereignisse durch eigenes Verhalten beeinflussen zu können.

15. Verzerrte Auswirkungserwartung

Die Auswirkungen eines vorgestellten negativen Ereignisses werden hinsichtlich Dauer und Tiefe tendenziell zu stark erwartet.

2 Comments

 Add your comment
  1. klingt alles logisch ;-)

    ja wie gesagt klingt alles sehr logisch machen garantiert die ein oder anderen oder mehreren jeden tag / man muss halt draus lernen mfg

  2. Hahaha… und was ist mit Nr. 9? Revolution no. 9?
    (Danke für die ganze website aber.)

Leave a Comment

Your email address will not be published.

*