12 Häufige Vorurteile, die beeinflussen, wie wir Entscheidungen für den Alltag treffen

Stellen Sie sicher, dass Ihre Entscheidungen nicht auf Vorurteilen beruhen.

Obwohl das Konzept der illusionären Überlegenheit wohl auf Konfuzius und Sokrates zurückgeht, mag es ein Schock sein, dass seine Diskussion, die unter dem Dunning-Kruger-Effekt bezeichnet wird, fast 20 Jahre alt ist; und obwohl es einfach das Ergebnis einer Echokammer sein kann, die durch meine eigenen sozialen Medien erstellt wurde, scheint es in den Nachrichten und Beiträgen, die ich in letzter Zeit gelesen habe, häufig aufzutauchen – sogar durch Meme! Für diejenigen unter Ihnen, die mit dem Phänomen nicht vertraut sind, bezieht sich der Dunning-Kruger-Effekt auf eine kognitive Verzerrung, bei der Personen mit einem geringen Kenntnisstand in einem bestimmten Subjekt irrtümlicherweise ihr Wissen oder ihre Fähigkeiten als größer einschätzen, als es ist. In ähnlicher Weise bezieht es sich auch auf Experten, die ihren eigenen Wissensstand oder ihre Fähigkeiten unterschätzen.

Aber vielleicht ist es nicht meine Echokammer … vielleicht ist es ein Teil unserer neuen Wissensökonomie (Dwyer, 2017; Dwyer, Hogan & Stewart, 2014) und die Art und Weise, wie wir Informationen schnell und mühelos verarbeiten (richtig oder falsch) mit Hilfe des Internets. In Anbetracht der Häufigkeit, mit der ich in letzter Zeit die Erwähnung dieser kognitiven Tendenz in Verbindung mit dem Interesse an meinem vorherigen Blog 18 Common Logical Fallacies and Persuasion Techniques gesehen zu haben schien, habe ich auf jeden Fall entschieden, dass es interessant sein könnte, eine ähnliche Liste zu erstellen – diese Zeit, eine der kognitiven Vorurteile .

Eine kognitive Verzerrung bezieht sich auf einen “systematischen Fehler” im Denkprozess. Solche Vorurteile werden häufig als eine Art von Heuristik betrachtet, die im Wesentlichen eine mentale Abkürzung ist – Heuristiken erlauben es, ohne umfangreiche Überlegung und / oder reflektierende Beurteilung einen Schluss zu ziehen, da sie im Wesentlichen Schemata für solche Lösungen sind (West, Toplak und Stanovich) 2008). Obwohl es viele interessante Heuristiken gibt, behandelt die folgende Liste ausschließlich kognitive Verzerrungen. Darüber hinaus sind dies nicht die einzigen kognitiven Verzerrungen (z. B. der Halo-Effekt und das Phänomen der gerechten Welt ). Vielmehr handelt es sich dabei um die 12 häufigsten Vorurteile, die aus meiner Erfahrung beeinflussen, wie wir alltägliche Entscheidungen treffen.

1. Der Dunning-Kruger-Effekt

Neben der Erklärung dieses Effekts sind sich Experten oft bewusst, was sie nicht wissen, und sie setzen (hoffentlich) ihre intellektuelle Ehrlichkeit und Demut auf diese Weise ein. Je mehr Sie wissen, desto weniger zuversichtlich sind Sie in diesem Sinne – nicht aus mangelndem Wissen, sondern aus Gründen der Vorsicht. Andererseits, wenn Sie nur wenig über etwas wissen, sehen Sie es simpel: Sie glauben, dass das Konzept leichter zu verstehen ist, als es tatsächlich ist.

2. Bestätigungsverzerrung

Nur weil ich den Dunning-Kruger-Effekt an die erste Stelle stelle, bedeutet das nicht, dass ich ihn für die am häufigsten besetzte Befangenheit halte – es ist ein interessanter Effekt, sicher; In meinen Critical Thinking-Klassen warne ich jedoch ständig die Konfirmationsbestätigung . Wir bevorzugen alle Ideen, die unsere bestehenden Überzeugungen bestätigen und das, was wir zu wissen glauben. Wenn wir forschen, leiden wir alle unter dem Versuch, Quellen zu finden, die unsere Ansichten über das Thema rechtfertigen. Diese Voreingenommenheit zeigt die Wichtigkeit von, wie ich in meinem letzten Beitrag über 5 Tipps für kritisches Denken besprochen habe und Devil’s Advocate spiele. Das heißt, wir müssen die Bestätigungsvoreingenommenheit überwinden und beide (oder mehr als zwei, alle) Seiten der Geschichte berücksichtigen. Denken Sie daran, dass wir kognitiv faul sind. Wir mögen es nicht, unsere Wissens- (Schema-) Strukturen zu ändern und wie wir über Dinge denken. Bemerkenswerterweise ähnelt der Bestätigungsfehler in dieser Hinsicht dem Überzeugungsfehler .

3. Self-Serving-Bias

Eine Prüfung nicht bestehen, weil Ihr Lehrer Sie hasst? Gehst du in der nächsten Woche immer wieder und hast die nächste Ace, weil du trotz dieses Lehrers besonders hart gelernt hast? Herzlichen Glückwunsch, Sie haben den Eigennutzer engagiert! Wir schreiben Erfolge und positive Ergebnisse unserem Tun zu, indem wir uns in unserer eigenen Herrlichkeit sonnen, wenn die Dinge gut laufen; Wenn wir jedoch mit Misserfolgen und negativen Ergebnissen konfrontiert werden, neigen wir dazu, diese Ereignisse auf andere Personen oder kontextuelle Faktoren außerhalb von uns zurückzuführen.

4. Der Fluch des Wissens und der Nachsicht

In Bezug auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1974) und in gewissem Umfang The False Consensus Effect . Wenn Sie (wirklich) eine neue Information verstehen, steht Ihnen diese Information nun zur Verfügung und erscheint oft offensichtlich . Es ist leicht zu vergessen, dass Sie diese Informationen zu einem bestimmten Zeitpunkt nicht kannten. Sie gehen also davon aus, dass auch andere Personen wie Sie diese Informationen kennen. Es ist jedoch oft eine unfaire Annahme, dass andere das gleiche Wissen teilen. Der Hindsight Bias ähnelt dem Fluch des Wissens insofern, als wir diese Informationen (dh die Details des Ereignisses) haben, dann scheint es offensichtlich, dass dies die ganze Zeit passieren würde. Ich hätte es kommen sehen sollen!

5. Optimismus / Pessimismus-Neigung

Wie Sie wahrscheinlich anhand des Namens erraten haben, neigen wir dazu, die Wahrscheinlichkeit positiver Ergebnisse zu überschätzen, insbesondere wenn Sie in guter Stimmung sind oder die Wahrscheinlichkeit negativer Ergebnisse überschätzen, wenn Sie sich schlecht fühlen oder eine pessimistische Haltung einnehmen. Hören Sie je den Ausdruck “Hoffnung auf das Beste, bereiten Sie sich auf das Schlimmste vor” ? Abhängig von Ihrer Stimmung oder Einstellung kann dies entweder Gewissenhaftigkeit, organisierte Beratung (positiver Einfluss) oder ein Abwehrmechanismus (negativer Einfluss) gegen einen Rückschlag sein. Seien Sie sich im Fall von Optimismus oder Pessimismus bewusst, dass Emotionen das Denken irrational machen können. Denken Sie daran, einer meiner 5 Tipps für kritisches Denken. Lassen Sie Emotionen an der Tür!

6. Der versunkene Kostentäuschung

Obwohl als Trugschluss bezeichnet, sehe ich ‘Sunk Cost’ ebenso im Einklang mit Voreingenommenheit als fehlerhaftes Denken, angesichts der Art und Weise, wie wir in Bezug auf Sieg, Niederlage und ‘Break Even’ denken. Zum Beispiel glauben wir im Allgemeinen, dass wir, wenn wir etwas hineinlegen, etwas herausbekommen sollten – ob Aufwand, Zeit oder Geld. Manchmal verlieren wir damit… und das ist es – wir bekommen nichts zurück. Unter versunkene Kosten versteht man etwas verlorenes, das nicht wiederhergestellt werden kann. Unsere Abneigung gegen das Verlieren (Kahneman, 2011) lässt uns irrational an der Idee des “Wiedergewinnens” festhalten, auch wenn es bereits verloren gegangen ist (im Glücksspiel als Jagd nach dem Pot bekannt) – wenn wir eine Wette abschließen und hinterher jagen, vielleicht eine andere Wette auf die ursprüngliche Wette (und hoffentlich mehr), obwohl wir die anfängliche Wette vernünftigerweise als out-and-out als verloren betrachten sollten. Hier gilt der entsprechende Hinweis, wie Sie Ihre Verluste reduzieren können.

7. Negative Bias

Negativitätsverzerrung ist keine völlig eigenständige Einheit von Pessimism Bias , aber sie ist subtil und wichtig verschieden. Tatsächlich funktioniert es nach ähnlichen Mechanismen wie der Sunk Cost Fallacy , da es unsere tiefgehende Abneigung gegen das Verlieren widerspiegelt. Wir gewinnen gerne, aber wir möchten noch mehr verlieren. Wenn wir also eine Entscheidung treffen, denken wir im Allgemeinen in Bezug auf Ergebnisse – entweder positiv oder negativ. Die Voreingenommenheit kommt ins Spiel, wenn wir das Potenzial eines negativen Ergebnisses irrational als wichtiger als das positive Ergebnis einschätzen.

8. The Declin Bias (alias Deklinismus)

Möglicherweise haben Sie die Beschwerde gehört, dass das Internet die Verbreitung von Informationen stürzt. Aber Sokrates sagte angeblich dasselbe über das geschriebene Wort. Der Deklinismus bezieht sich auf eine Befangenheit zugunsten der Vergangenheit und nicht nur darauf, wie die Dinge laufen. In ähnlicher Weise könnten Sie ein Mitglied einer älteren Generation kennen, das Beschwerden mit “Nun, zurück zu meiner Zeit” vorwegnimmt, bevor Sie mit “Wie es noch schlimmer wirdnachgeht . Die Ablehnungsverzerrung kann aus etwas resultieren, das ich wiederholt in meinen Blogs erwähnt habe – wir mögen keine Veränderung. Die Menschen mögen ihre Welten, um Sinn zu machen, sie mögen Dinge, die in hübschen, ordentlichen kleinen Paketen verpackt sind. Unsere Welt lässt sich leichter einbinden, wenn die Dinge für uns sinnvoll sind. Wenn sich die Dinge ändern, muss auch die Art und Weise, wie wir über sie nachdenken; und weil wir kognitiv faul sind (Kahenman, 2011; Simon, 1957), versuchen wir unser Bestes, um unsere Denkprozesse nicht zu verändern.

9. Der Backfire-Effekt

Der Backfire-Effekt bezieht sich auf die Stärkung eines Glaubens, auch nachdem er angefochten wurde. Cook und Lewandowsky (2011) erklären dies sehr gut im Zusammenhang mit dem Gedankenwechsel der Menschen in ihrem Debunking Handbook . Der Backfire-Effekt funktioniert möglicherweise auf derselben Grundlage wie der Deklinismus , da wir keine Veränderung mögen. Sie ähnelt auch der Negativitätsverzerrung , da wir verhindern wollen, dass andere und negative Ergebnisse verloren gehen – in diesem Fall wird die eigene Idee in Frage gestellt oder abgelehnt (dh als “falsch” angesehen) und sie halten sich daher strenger auf die Idee, als sie vorher hatten. Es ist auch ähnlich dem Reaktanzeffekt . Allerdings gibt es Vorbehalte gegen den Backfire-Effekt – zum Beispiel neigen wir auch dazu, einen Glauben aufzugeben, wenn genügend Beweise in Bezug auf bestimmte Fakten vorliegen ; Allerdings kann der “Eltern-Glaube” oder ein anderer verwandter Glaube tatsächlich gestärkt werden, wenn wir versuchen, unser Verständnis umzustrukturieren.

10. Der grundlegende Attributionsfehler

Der grundlegende Zuordnungsfehler ist dem Self-Serving-Bias ähnlich, insofern wir für Entschuldigungen kontextabhängige Ausreden suchen, im Allgemeinen aber andere Menschen oder deren Merkmale für ihr Versagen verantwortlich machen. Es ist auch eine Neigung, die sich aus der Verfügbarkeitsheuristik ergibt, da wir nur auf der Grundlage der verfügbaren Informationen Urteile fällen. Eines der besten Beispiele für ein Lehrbuch integriert Stereotypisierung: Stellen Sie sich vor, Sie fahren hinter einem anderen Auto. Der andere Fahrer schwenkt etwas und beginnt unvorhersehbar zu beschleunigen und zu verlangsamen. Sie beschließen, sie zu überholen (damit Sie nicht länger hinter einem so gefährlichen Fahrer stecken bleiben) und wenn Sie hinüberblicken, sehen Sie eine Frau hinter dem Lenkrad. Der grundlegende Attributionsfehler tritt ein, wenn Sie zu der Einschätzung gelangen, dass das Fahren schlecht ist, weil sie eine Frau sind (die auch an einem unbegründeten Stereotyp festhält). Was Sie wahrscheinlich nicht wissen, ist, dass der andere Fahrer drei Kinder hat, die auf dem Rücksitz herumschreien und herumspielen, während sie versucht, eines zum Fußball zu bringen, eines zum Tanzen und das andere zu einer Klavierstunde. Sie hatte einen besonders anstrengenden Tag und jetzt läuft sie mit allen Kindern zu spät, weil sie die Arbeit zur normalen Zeit nicht verlassen konnte. Wenn wir dieser Fahrer wären, würden wir uns aus diesen Gründen als schlecht fahren beurteilen, nicht aus dem, wer wir sind. Tangential ist meine Frau ein viel besserer Fahrer als ich.

11. Bias innerhalb der Gruppe

Wie wir durch die Berücksichtigung des Self-Serving-Bias und des grundlegenden Attributionsfehlers gesehen haben, neigen wir dazu, selbstsüchtiger zu sein, wenn wir über unsere Erfolge und Misserfolge urteilen. Dies gilt für diejenigen, die wir nahe und lieb haben, die, die wir als ähnlich empfinden, und diejenigen, die wir als Teil unserer „Gruppe“ betrachten. In-Group Bias bezieht sich einfach auf die unfaire Bevorzugung von jemandem aus der eigenen Gruppe. Sie mögen denken, dass Sie unvoreingenommen, unparteiisch und fair sind, aber wir alle erliegen dieser Neigung, nachdem wir uns so entwickelt haben. Aus evolutionärer Sicht kann diese Voreingenommenheit als Vorteil betrachtet werden – indem Sie diejenigen, die Ihnen ähnlich sind, vor allem in Bezug auf die Verwandtschaft und die Förderung der eigenen Linie bevorzugt und geschützt werden.

12. Der Forer-Effekt (aka The Barnum-Effekt)

Um den Forer-Effekt (allgemein als Barnum-Effekt bezeichnet ) besser zu verstehen, ist es hilfreich, wieder zuzugeben , dass Menschen ihre Welten sinnvoll finden. Sie mögen Dinge, die in hübschen, ordentlichen kleinen Paketen und Mustern verpackt sind . Auf diese Weise ist es einfacher, damit unsere Welt für uns einen Sinn ergibt. Wenn dies nicht der Fall wäre, hätten wir keine Routine (dh Heuristik), auf die wir zurückgreifen könnten, und wir müssten schwerer denken, dies in einen Kontext zu setzen neue Informationen in unsere Welt. Wenn also Lücken in unserem Denken darüber bestehen, wie wir die Dinge verstehen, werden wir versuchen, diese Lücken mit dem zu schließen, was wir intuitiv für sinnvoll halten, und anschließend unsere bestehenden Schemata verstärken. Wenn unser Verstand solche Verbindungen herstellt, um unser eigenes persönliches Verständnis unserer eigenen persönlichen Welten zu festigen, ist es leicht zu erkennen, wie Menschen dazu neigen können, vage Informationen zu verarbeiten und sie auf eine Weise zu interpretieren, die sie persönlich und spezifisch erscheinen lässt. In Anbetracht unserer egozentrischen Natur (zusammen mit unserem Verlangen nach schönen, ordentlichen kleinen Paketen und Mustern) halten wir bei der Verarbeitung unbestimmter Informationen an dem fest, was wir für sinnvoll halten, und verwerfen, was nicht der Fall ist. Wir verarbeiten einfach besser Informationen, von denen wir glauben, dass sie speziell auf uns zugeschnitten sind, unabhängig von der Mehrdeutigkeit. Der Forer-Effekt bezieht sich insbesondere auf die Tendenz, dass Menschen vage und allgemeine Persönlichkeitsbeschreibungen als für sich einzig zutreffend akzeptieren, ohne zu erkennen, dass dieselbe Beschreibung auf jeden anderen angewendet werden kann (Forer, 1949). Wenn zum Beispiel Menschen ihr Horoskop lesen, können selbst vage, allgemeine Informationen den Anschein erwecken, dass ihnen etwas relevantes und spezifisches (und manchmal genaues) empfohlen wird.

Während Heuristiken im Allgemeinen nützlich sind, um Schlussfolgerungen zu ziehen, indem sie uns kognitive Abkürzungen zur Verfügung stellen, die uns dabei unterstützen, Entscheidungsermüdung abzuwehren, machen einige Formen von Heuristiken – kognitive Verzerrungen – unsere Urteile irrational. Obwohl verschiedene kognitive Verzerrungen in diesem Beitrag behandelt wurden, sind diese keinesfalls die einzigen Verzerrungen da draußen – nur die, die meiner Erfahrung nach am häufigsten mit der täglichen Entscheidungsfindung beschäftigt sind. Wenn Sie mehr über diese und andere kognitive Verzerrungen erfahren möchten, sollten Sie sich yourbias.is ansehen. Denken Sie daran, dass wir jeden Tag Tausende von Entscheidungen treffen, einige wichtiger als andere. Stellen Sie sicher, dass diejenigen, die eine Rolle spielen, nicht auf Vorurteilen, sondern auf reflektierendem Urteilsvermögen und kritischem Denken basieren.

Verweise

Cook, J. & Lewandowsky, S. (2011). Das Entlarvungshandbuch. St. Lucia, Australien: Universität von Queensland. Abgerufen von http://www.skepticalscience.com/docs/Debunking_Handbook.pdf

Dwyer, CP (2017). Kritisches Denken: Konzeptuelle Perspektiven und praktische Leitlinien. Cambridge, Großbritannien: Cambridge University Press; mit Vorwort der ehemaligen APA-Präsidentin Dr. Diane F. Halpern.

Dwyer, CP, Hogan, MJ und Stewart, I. (2014). Ein integrierter Rahmen für kritisches Denken für das 21. Jahrhundert. Denkfähigkeiten und Kreativität, 12, 43–52.

Forer, BR (1949) “Der Trugschluss der persönlichen Validierung: Eine Demonstration der Leichtgläubigkeit im Klassenzimmer”, Journal of Abnormal Psychology, 44, 118-121.

Kahneman, D. (2011). Schnell und langsam denken. Pinguin: Großbritannien.

Kruger, J. & Dunning, D. (1999). Ungeübt und nicht bewusst: Wie Schwierigkeiten, die eigene Inkompetenz zu erkennen, zu überhöhten Selbsteinschätzungen führen. Journal of Personality and Social Psychology, 77, 6, 1121–1134.

Simon, HA (1957). Modelle des Menschen. New York: Wiley.

Tversky, A. & Kahneman, D. (1974). Urteil unter Unsicherheit: Heuristiken und Vorurteile. Science, 185, 4157, 1124–1131.

West, RF, Toplak, ME und Stanovich, KE (2008). Heuristiken und Vorurteile als Messgrößen für kritisches Denken: Assoziationen mit kognitiven Fähigkeiten und Denkweisen. Journal of Educational Psychology, 100, 4, 930–941.