Ich schreibe diesen Blog ausdrücklich langsam, weil ich weiß, dass Sie nicht so schnell lesen können!
Was für ein Unsinn werden Sie denken. Und doch nehmen wir diese Abkürzung unseres Gehirns etliche Male am Tag gerne in Anspruch. Mit voller Überzeugung. In der Wissenschaft nennt man dies Kognitive Verzerrung.
Eine kognitive Verzerrung ist ein kognitionspsychologischer Sammelbegriff für systematische fehlerhafte Neigungen beim Wahrnehmen, Erinnern, Denken und Urteilen. Sie bleiben meist unbewusst und basieren auf kognitiven Heuristiken (Annahmen).
Wir alle kennen Situationen, in denen wir nicht ganz so klar denken.
Wenn wir ein paar Gläser Wein genossen haben, nehmen wir Dinge weniger schnell wahr und reagieren langsamer. Jeden Morgen, wenn wir aufwachen, brauchen wir ein paar Sekunden, um uns zurechtzufinden und die Orientierung zu finden. Wer mit Migräne im Bett liegt, kann sich ob der hämmernden Schmerzen im Kopf kaum auf etwas anderes konzentrieren. Auch unser Gemütszustand kann uns das Denken vernebeln: Wenn wir trauern, wenn wir Wut verspüren, wenn wir Sex haben, wenn wir erschrecken – in all diesen Situationen haben wir mehr oder weniger kurzfristig einen nicht so klaren Kopf.
Die Idee, dass wir manchmal nicht so klar und eher verzerrt denken, ist unspektakulär, und kaum jemand würde das ernsthaft verneinen. Wie sieht es aber mit einer anderen Idee aus: Wir denken nicht nur manchmal verzerrt, sondern fast immer – verzerrt denken ist der Standardmodus unseres Denkens!
Das klingt sehr provokativ. Haben wir denn nicht alle das Gefühl, ja die Überzeugung, dass wir meistens «rational» denken können und dies auch tun? Ist es nicht ein Affront, zu behaupten, dass wir Menschen nicht nur punktuell, sondern systematisch nicht klar urteilen und handeln? Und was genau soll bedeuten, dass wir systematisch verzerrt denken? Ist auf unseren Verstand gar kein Verlass?
Was sind kognitive Verzerrungen?
Wenn die Rede von kognitiven Verzerrungen ist, ist damit keine Wertung gemeint. Es geht also nicht darum, auf jemanden mit dem Finger zu zeigen und des verzerrten Denkens zu beschuldigen. Wir alle sind nämlich von solchen Verzerrungen betroffen. Kognitive Verzerrungen sind menschlich.
Jeden Tag bewegen wir uns in einem regelrechten Meer von Informationen. Wir nehmen enorm viele Dinge wahr, und verarbeiten enorm viele Dinge. Und das funktioniert recht gut: Das Verarbeiten von Informationen ist die Grundlage für unser alltägliches Handeln, und damit manövrieren wir uns im Grossen und Ganzen gut durch den Alltag. Aber warum eigentlich gehen wir in dem alltäglichen Meer von Informationen nicht unter? Sind unsere allmächtige Gehirne Supercomputer?
Kognitive Verzerrungen sind menschlich.
Im Gegenteil: Unsere Gehirne als Ergebnis evolutionärer Entwicklung sind nicht perfekt, sondern «gut genug». Der Grund, warum wir uns im täglichen Informationsmeer zurechtfinden, ist darum auch nicht ein perfektes Gehirn, sondern eher ein effizientes Gehirn. Den grössten Teil unserer Kognition (d.h. unserer Informationsverarbeitung) machen eher unbewusste, routinierte Prozesse aus. Diese kognitiven Abkürzungen, oder Heuristiken, sorgen dafür, dass wir mit der täglichen Informationsflut zurechtkommen, ohne kognitiv überlastet zu werden. Für spezielle Denkanstrengungen haben wir dann ausreichend Kapazitäten, um uns ihnen fokussiert zu widmen.
Kognitive Verzerrungen können dazu führen, dass wir uns systematisch selber täuschen.
Das Problem mit unserer zweiteiligen Informationsverarbeitung (der grosse Teil findet routiniert-unbewusst, der kleine Teil aktiv-reflektierend statt) ist, dass wir aufgrund unserer routinierten Heuristiken bestimmten systematischen Verzerrung ausgesetzt sein können, ohne, dass wir das merken. Gerade weil wir unbewusst und fast automatisiert Informationen verarbeiten, gehen wir davon aus, dass das, was dabei herauskommt, stimmt. Wissenschaftlich gesehen wissen wir aber, dass dem nicht so ist: Unsere kognitiven Verzerrungen können teilweise dazu führen, dass wir faktisch komplett falsche Schlüsse ziehen, oder, dass wir meinen, unsere Schlüsse seien objektiver Natur , obwohl sie in Tat und Wahrheit das Produkt unbewusster subjektiver Prozesse sind.
Kurz gesagt: Kognitive Verzerrungen können dazu führen, dass wir uns systematisch selber täuschen.
Einige Beispiele
Es gibt zahlreiche gut dokumentierte kognitive Verzerrungen, welche sich in ganz unterschiedlichen Kontexten manifestieren können. An dieser Stelle soll keine erschöpfende Liste aller Verzerrungen präsentiert werden, sondern nur eine kleine (subjektive) Auswahl, um das Konzept der kognitiven Verzerrung etwas greifbarer zu machen. Bei jeder Verzerrung steht der englische Begriff in Klammern. Nebst einer kurzen Definition der jeweiligen Verzerrung ist ein beispielhaftes Szenario angegeben, in dem die Verzerrung auftreten kann.
Attributionsfehler
(Fundamental attribution error)
Definition
Wenn wir das Verhalten einer Person in einer bestimmten Situation erklären wollen, denken wir anders, als wenn wir unser eigenes Verhalten in der gleichen Situation erklären wollen.Bei uns selber sehen wir äussere Einflüsse stärker als Grund für unser Verhalten, bei einer anderen Person stärker die Charaktereigenschaften der Person.
Beispiel
Ich treibe keinen Sport, weil ich berufsbedingt keine Zeit habe.
Du treibst keinen Sport, weil du faul bist.
Barnum-Effekt / Forer-Effekt
(Barnum effect / Forrer effect)
Definition
Wir meinen, dass bestimmte Beschreibungen unserer Persönlichkeitsmerkmale sehr zutreffend sind, obwohl es sich um vage und allgemeingültige Beschreibungen handelt.
Beispiel
Horoskope sind Ansammlungen vager Allgemeinplätze und Versatzstücke. Trotzdem haben wir das Gefühl, dass uns die Horoskope ansprechen (im Grunde unabhängig davon, ob es sich um das Horoskop für das passende «Sternzeichen» handelt oder nicht).
Bestätigungsfehler
(Confirmation Bias)
Definition
Wir nehmen Informationen auf, verarbeiten sie und interpretieren sie so, dass sie unsere bestehenden Erwartungen erfüllen.
Beispiel
Sie sind der Meinung, dass Senioren schuld sind, dass Sie im Bus nie einen Sitzplatz finden – die Senioren besetzen alle Plätze.
Objektiv gesehen schnappen Ihnen Senioren nicht öfter den Sitzplatz im Bus weg als jüngere Menschen. Aber all den Fällen, welche Ihre Annahme nicht stützen (wo Ihnen Nicht-Senioren den Platz wegschnappen), geben Sie weniger Gewicht oder ignorieren sie gänzlich bei der Beurteilung Ihrer Annahme.
Dunning-Kruger-Effekt
(Dunning-Kruger effect)
Definition
Personen, welche auf einem bestimmten Gebiet weniger Kompetenz haben, überschätzen ihre eigene Kompetenz. Personen, welche auf einem bestimmten Gebiet höhere Kompetenz haben, unterschätzen ihre Kompetenz.
Beispiel
Wenn die Schülerinnen und Schüler in einer Schulklasse nach einer Prüfung gefragt werden, wie sie ihre Prüfungsleistung einschätzen, zeigt sich, dass jene SchülerInnen mit dem schlechtesten Ergebnis ihre Leistung am deutlichsten überschätzen. Jene SchülerInnen mit dem besten Ergebnis unterschätzen ihre Leistung leicht.
Konfabulation / Falsche Erinnerung
(False memory effect)
Definition
Teile unserer Erinnerungen sind nur Einbildung und haben keinen oder nur fragmentarischen Bezug zu tatsächlichen Ereignissen.
Beispiel
Zahlreiche Menschen glauben, sie seien von Ausserirdischen entführt worden.
Für einige von ihnen ist naheliegend, dass ihre vermeintliche Erinnerung an die Entführung in Wirklichkeit eine Konfabulation ist, «implantiert» während hypnose-artiger Therapien (also in Zuständen erhöhter Beeinflussungsmöglichkeiten durch Suggestionen).
Mitläufereffekt
(Bandwagon Effect)
Definition
Wir haben das Bedürfnis, konformistisch zu sein, und schliessen uns darum Ideen und Gruppen an, welche sich Beliebtheit erfreuen.
Beispiel
Wir sind abends unterwegs und wollen in einem Restaurant essen. Wir finden zwei Restaurants mit den gleichen Menüs und den gleichen Preisen.
Das eine Restaurant ist fast voll, das andere ist fast leer. Wir bevorzugen intuitiv das volle Restaurant.
Projektionsfehler
(Projection bias)
Definition
Wir gehen unbewusst davon aus, dass andere Menschen (und wir selber in der Zukunft) die gleichen Gefühle, Einstellungen und Glauben haben wie wir.
Beispiel
Ihr Kühlschrank ist leer und Sie beschliessen, einzukaufen. Sie wissen ganz genau, was Sie brauchen und was Sie im Supermarkt kaufen werden.
Im Supermarkt angekommen, haben Sie Hunger. Sie kaufen ein und gehen nach Hause. Zu Hause merken Sie, dass das, was Sie gekauft haben, nicht dieselben Dinge sind, welche Sie sich einzukaufen vorgenommen hatten. Und jetzt merken Sie, dass Sie eigentlich Lust auf etwas nochmals anderes haben.
Prävalenzfehler
(Base rate fallacy)
Definition
Bei bedingten Wahrscheinlichkeiten, wo die Wahrscheinlichkeit von Y von der Wahrscheinlichkeit von X abhängt, sind wir schlecht darin, die Wahrscheinlichkeit von X zu verarbeiten.
Beispiel
Ein Test für Leukämie hat folgende Eigenschaften:
- Alle Fälle von Leukämie werden erkannt.
- Es gibt 5% Falschpositive (der Test meldet Leukämie, aber tatsächlich sind die Personen gesund).
Nun wird eine zufällig ausgewählte Person mit diesem Test untersucht. Der Test sagt, die Person habe Leukämie. Was ist wahrscheinlicher: Dass die Person Leukämie hat, oder, dass sie gesund ist?
Intuitiv würden wir schätzen, dass die Wahrscheinlichkeit, dass die Person Leukämie hat, viel höher ist. In Tat und Wahrheit aber ist die Wahrscheinlichkeit, dass die Person wirklich Leukämie hat, sehr gering, nämlich weniger als 2%.
Rückschaufehler
(Hindsight bias)
Definition
Nachdem ein Ereignis eingetreten ist, meinen wir, dass wir das Ereignis als wahrscheinlicher eingeschätzt haben als wir es tatsächlich eingeschätzt haben.
Beispiel
Im Titelkampf stehen sich Rocky Balboa und Appollo Creed gegenüber.
Vor dem Kampf hat keine einzige Person auf einen Sieg von Balboa gewettet; auch Ihr Sitznachbar hat auf Creed gewettet. Nach dem Kampf (Balboa gewinnt) sagt Ihr Sitznachbar: «Ich war mir schon vor dem Kampf sicher, dass Balboa gewinnen wird!».
Selbstüberschätzung
(Overconfidence bias)
Definition
Wenn wir Urteile über etwas treffen, sind wir uns unserer Urteile sicherer, als unsere Urteile genau sind (Wenn wir die Genauigkeit unserer Urteile schätzen, sind die Werte höher als die effektiven Genauigkeiten unserer Urteile).
Beispiel
Eine Gruppe von Leuten wird gebeten, zu entscheiden, ob auf eine Frage die Antwort A, B, C oder D die richtige ist. Zudem geben die Leute an, wie sicher sie sich sind, dass ihre Antwort stimmt.
Im Schnitt geben die Leute an, dass sie 90% sicher sind, dass ihre Antwort stimmt. Effektiv sind nur 60% der Antworten richtig.
Selektive Wahrnehmung
(Selective perception)
Definition
Wir nehmen Informationen aus unserer Umwelt nicht objektiv und gleichmässig wahr, sondern selektiv, und zwar aufgrund vorheriger Beeinflussungen und Erwartungshaltungen.
Beispiel
Sobald Sie diesen Satz fertiggelesen haben, sind Sie sich bewusst, dass Sie atmen.
Status quo-Tendenz
(Status quo bias)
Definition
Wir bevorzugen den gegenwärtigen Zustand unverhältnismässig stark gegenüber Veränderungen.
Beispiel
Es ist objektiv klar, dass Sie mit einem anderen Mobiltelefon-Vertrag bei gleichen Leistungen Geld sparen könnten.
Sie bleiben aber bei Ihrem jetzigen Vertrag, weil «es ja funktioniert», oder Sie mit dem Umstieg diffuse Risiken verbinden.
Warum sind kognitive Verzerrungen wichtig?
Es gibt also kognitive Verzerrungen. Warum genau soll das von Bedeutung sein?
Wir verarbeiten Informationen nicht in einem luftleeren Raum, sondern eingebettet in unsere gesellschaftliche Realität. Wir handeln und wir üben mit unseren Handlungen Einfluss auf andere Menschen und, allgemeiner, auf unsere Umwelt aus. Kognitive Verzerrungen können zur Folge haben, dass wir meinen, über objektive Informationen zu verfügen, an denen wir unsere Handlungen ausrichten. Wenn die Informationen aber gerade unzuverlässig sind, weil sie ein Produkt verzerrten Denkens sind, verschwenden wir möglicherweise Zeit und Energie mit unserem Tun, und schlimmstenfalls richten wir sogar Schaden an.
Wo spielen kognitive Verzerrungen im Bereich der Wissenschaften eine Rolle?
Anekdotisches Denken ist die Folge frei wuchernder kognitiver Verzerrungen.
Wenn Menschen eine eher wissenschafts-ablehnende Haltung haben, argumentieren sie im Grunde stets auf dieselbe Art und Weise: Wissenschaft mag zwar schön und gut sein. Aber das, was wir selber fühlen und erleben, ist mindestens so aussagekräftig wie Wissenschaft. Den eigenen subjektiven Anekdoten wird volles Vertrauen geschenkt, und die Möglichkeit, dass unsere Anekdoten vielleicht das Ergebnis verzerrter Wahrnehmung und Verarbeitung von Informationen sind, wird ausgeschlossen.
Eine wissenschafts-ablehnende Haltung ist die Folge anekdotischen Denkens. Und anekdotisches Denken ist die Folge frei wuchernder kognitiver Verzerrungen.
Können wir kognitive Verzerrungen «ausschalten»?
Die klare Antwort: Nein.
Die Bereitschaft, zu akzeptieren, dass wir uns getäuscht haben können, ist die Grundlage kritischen Denkens.
Es gibt gegenwärtig keine Mittel, um unser Gehirn so zu verändern, dass wir nicht mehr anfällig für verzerrtes Denken wären. Der alternative Weg, um jede Verzerrung zu vermeiden, wäre ein permanentes aktives Nachdenken darüber, ob das eigene Denken bei jeder noch so banalen Informationsverarbeitung verzerrt ist oder nicht. Diese unmögliche Sisyphusarbeit dürfte ein probates Mittel sein, um rasch den Verstand zu verlieren.
Ganz hilflos sind wir aber nicht. Wir können nämlich unsere Anfälligkeit für verzerrtes Denken ein wenig reduzieren. Dadurch, dass Sie bis hierher gelesen haben, haben Sie schon einen Schritt in diese Richtung gemacht: Wenn wir uns bewusst sind, dass auch wir verzerrt denken, werden wir unserem eigenen Denken gegenüber skeptisch. Diese Einsicht ist essenziell. Die Bereitschaft, zu akzeptieren, dass wir uns getäuscht haben können, ist die Grundlage kritischen Denkens.