12 biais communs qui affectent la façon dont nous prenons les décisions au quotidien

Assurez-vous que vos décisions qui importent ne sont pas fondées sur des préjugés.

Bien que le concept de supériorité illusoire remonte sans doute à Confucius et à Socrate, il peut être choquant que sa discussion qualifiée d’effet Dunning-Kruger ait presque 20 ans; et bien que cela puisse simplement être le résultat d’une chambre d’écho créée par mes propres médias sociaux, il semble apparaître fréquemment dans les nouvelles et les messages que j’ai lus récemment – même à travers des memes! Pour ceux d’entre vous qui ne sont pas familiers avec le phénomène, l’effet Dunning-Kruger fait référence à un biais cognitif dans lequel des individus ayant un faible niveau de connaissances sur un sujet particulier estiment à tort que leurs connaissances ou leurs capacités sont plus grandes qu’elles ne le sont. De même, il s’agit également des experts qui sous-estiment leur niveau de connaissances ou leurs capacités.

Mais, encore une fois, ce n’est peut-être pas ma chambre d’écho… peut-être que cela fait partie intégrante de notre nouvelle économie du savoir (Dwyer, 2017; Dwyer, Hogan & Stewart, 2014) et de la manière dont nous traitons l’information rapidement (à droite ou à gauche). mal) avec l’aide d’internet. Quoi qu’il en soit, étant donné la fréquence avec laquelle il semble que j’ai souvent rencontré la mention de ce préjugé cognitif ces derniers temps, ainsi que l’intérêt suscité par mon précédent blog, j’ai décidé qu’il pourrait être intéressant de dresser une liste similaire. temps, l’un des biais cognitifs .

Un biais cognitif fait référence à une «erreur systématique» dans le processus de réflexion. Ces biais sont souvent considérés comme un type d’heuristique, qui est essentiellement un raccourci mental – l’heuristique permet de faire une inférence sans délibération approfondie et / ou sans jugement réfléchi, étant donné qu’il s’agit essentiellement de schémas pour de telles solutions (West, Toplak, & Stanovich , 2008). Bien qu’il existe de nombreuses heuristiques intéressantes, la liste suivante traite exclusivement des biais cognitifs. En outre, il ne s’agit pas des seuls biais cognitifs existants (par exemple, l’ effet de halo et le phénomène mondial juste ); Ce sont plutôt les 12 biais les plus courants qui affectent la façon dont nous prenons les décisions au quotidien, selon mon expérience.

1. L’effet Dunning-Kruger

Outre l’explication de cet effet ci-dessus, les experts sont souvent conscients de ce qu’ils ne savent pas et engagent (espérons-le) leur honnêteté intellectuelle et leur humilité de cette manière. En ce sens, plus vous en savez, moins vous serez probablement confiant – non par manque de connaissances, mais par prudence. D’un autre côté, si vous en savez peu sur quelque chose, vous le voyez d’une manière simpliste – vous incitant à croire que le concept est plus facile à comprendre qu’il ne le peut réellement.

2. Biais de confirmation

Ce n’est pas parce que j’ai mis l’effet Dunning-Kruger au premier rang que je considère que c’est le biais le plus couramment employé – c’est un effet intéressant, bien sûr; mais dans mes cours de pensée critique, le biais de confirmation est celui sur lequel je préviens constamment les étudiants. Nous favorisons tous les idées qui confirment nos croyances existantes et ce que nous pensons savoir. De même, lorsque nous menons des recherches, nous essayons tous de trouver des sources qui justifient ce que nous pensons du sujet. Comme je l’ai déjà expliqué dans mon précédent article intitulé 5 conseils pour la pensée critique, jouer de l’avocat du diable est une évidence . Autrement dit, nous devons surmonter le biais de confirmation et prendre en compte les deux aspects (ou, s’il en existe plus de deux, tous) de l’histoire. Rappelez-vous que nous sommes paresseux sur le plan cognitif – nous n’aimons pas changer nos structures de connaissances (schémas) et notre façon de penser les choses. Notamment, le biais de confirmation est similaire au biais de croyance à cet égard.

3. Biais de service personnel

Avez-vous déjà échoué à un examen parce que votre professeur vous hait? Est-ce que tu vas la semaine suivante et as la suivante parce que tu as étudié très dur malgré ce professeur? Félicitations, vous avez engagé le parti pris égoïste! Nous attribuons des succès et des résultats positifs à notre action, nous lorgnant dans notre propre gloire lorsque les choses vont bien; mais lorsque nous sommes confrontés à des échecs et à des résultats négatifs, nous avons tendance à attribuer ces événements à d’autres personnes ou à des facteurs contextuels extérieurs à nous-mêmes.

4. La malédiction de la connaissance et les préjugés rétrospectifs

Similaire à l’ heuristique de disponibilité (Tversky & Kahneman, 1974) et, dans une certaine mesure, à l’effet du faux consensus , une fois que vous comprenez (vraiment) une nouvelle information, cette information est maintenant disponible et semble souvent évidente. . Il peut être facile d’oublier qu’il y a eu une occasion où vous ne connaissiez pas cette information et vous supposez donc que d’autres personnes, comme vous, connaissent également cette information. Cependant, il est souvent injuste que d’autres partagent les mêmes connaissances. Le biais de Hindsight est similaire à la malédiction de la connaissance en ce sens qu’une fois que nous avons cette information (c.-à-d. Les détails de l’événement), il semble alors évident que cela se produirait depuis le début. J’aurais du le voir venir!

5. Biais d’optimisme / pessimisme

Comme vous l’avez probablement deviné d’après son nom, nous avons tendance à surestimer la probabilité d’obtenir des résultats positifs, en particulier si vous êtes de bonne humeur ou surestimez la probabilité de résultats négatifs si vous vous sentez déprimé ou pessimiste. Avez-vous déjà entendu l’expression «Espérez le meilleur, préparez-vous au pire» ? Selon votre humeur ou votre attitude, il peut s’agir soit d’un conseil consciencieux, organisé (effet positif), soit peut-être d’un mécanisme de défense (effet négatif) contre un échec. Dans les deux cas d’optimisme ou de pessimisme, sachez que les émotions peuvent rendre la pensée irrationnelle. Rappelez-vous, un de mes 5 conseils pour la pensée critique, laissez l’émotion à la porte!

6. L’erreur des coûts irrécupérables

Bien que considéré comme une erreur, je vois le «coût irrécupérable» tout autant en harmonie avec les préjugés que les pensées erronées, étant donné la manière dont nous pensons en termes de gagner, de perdre et de «casser». Par exemple, nous pensons généralement que lorsque nous introduisons quelque chose, nous devrions en tirer quelque chose – qu’il s’agisse d’effort, de temps ou d’argent. Sur ce, parfois nous perdons… et c’est tout – nous ne recevons rien en retour. Un coût irrécupérable fait référence à quelque chose de perdu qui ne peut pas être récupéré. Notre aversion à perdre (Kahneman, 2011) nous oblige à adhérer de manière irrationnelle à l’idée de “regagner”, même si elle a déjà été perdue (connu sous le nom de jeu consistant à courir après le pot – quand on fait un pari et qu’on le poursuit, peut-être un autre parier pour récupérer l’original [et, espérons-le, plus] même si, de manière rationnelle, nous devrions considérer le pari initial comme perdu à tout va). Le conseil approprié de réduire vos pertes est applicable ici.

7. Biais de négativité

Le parti pris de négativité n’est pas une entité totalement distincte du parti pris de pessimisme , mais il est distinct et subtilement important. En fait, cela fonctionne selon des mécanismes similaires à ceux de la stratégie Sunk Cost Fallacy, dans la mesure où il reflète notre profonde aversion à perdre. Nous aimons gagner, mais nous détestons perdre encore plus. Ainsi, lorsque nous prenons une décision, nous pensons généralement en termes de résultats – positifs ou négatifs. Le biais intervient lorsque nous évaluons irrationnellement le potentiel d’un résultat négatif comme étant plus important que celui du résultat positif.

8. Le biais de déclin (aka Déclinisme)

Vous avez peut-être entendu dire que l’Internet ralentirait la diffusion de l’information; mais Socrate aurait dit la même chose à propos du mot écrit. Le déclinisme se réfère à un parti pris en faveur du passé au-delà de «comment vont les choses». De même, vous connaissez peut-être un membre d’une génération plus âgée qui préfigure les griefs avec la mention «Eh bien, de retour dans ma journée» avant de poursuivre avec «l’état de la situation qui empire ». Le biais de refus peut résulter de quelque chose que j’ai mentionné à plusieurs reprises dans mes blogs – nous n’aimons pas les changements. Les gens aiment que leurs mondes aient un sens, ils aiment les choses emballées dans de petits paquets bien rangés. Notre monde est plus facile à engager lorsque les choses nous semblent utiles. Lorsque les choses changent, il en va de même pour notre façon de penser. et comme nous sommes paresseux sur le plan cognitif (Kahenman, 2011; Simon, 1957), nous faisons de notre mieux pour éviter de changer nos processus de pensée.

9. L’effet de retour

L’effet de retour se réfère au renforcement d’une conviction même après qu’elle a été remise en question. Cook et Lewandowsky (2011) l’expliquent très bien dans le contexte de l’évolution des mentalités dans leur manuel Debunking . L’effet de retour peut fonctionner sur la même base que le déclinisme , en ce sens que nous n’aimons pas le changement. Il est également similaire au biais de négativité , en ce sens que nous souhaitons éviter de perdre et d’autres résultats négatifs – dans le cas présent, une idée est contestée ou rejetée (c’est-à-dire perçue comme étant «erronée») et, par conséquent, ils tiennent plus serré. à l’idée qu’ils avaient avant. Il est également similaire à l’ effet de réactance . Cependant, il existe des réserves à l’effet de retour de flammes – par exemple, nous avons également tendance à abandonner une croyance s’il existe suffisamment de preuves contre elle en ce qui concerne des faits spécifiques ; bien que néanmoins, la croyance «parent» ou une autre croyance apparentée puisse en réalité être renforcée alors que nous essayons de restructurer notre compréhension.

10. L’erreur fondamentale d’attribution

L’erreur fondamentale d’attribution est similaire au biais d’auto-service , en ce sens que nous cherchons des excuses contextuelles pour nos échecs, mais que nous blâmons généralement les autres ou leurs caractéristiques pour leurs échecs. C’est aussi un parti pris découlant de l’ heuristique de disponibilité, dans la mesure où nous émettons des jugements uniquement sur la base des informations dont nous disposons. L’un des meilleurs exemples de ce manuel dans les manuels intègre les stéréotypes: imaginez que vous conduisez derrière une autre voiture. L’autre pilote s’écarte un peu et commence de façon imprévisible à accélérer et à ralentir. Vous décidez de les doubler (pour ne plus être coincés derrière un conducteur aussi dangereux) et, en regardant au-dessus, vous voyez une femme au volant. L’erreur fondamentale d’attribution intervient lorsque vous estimez que leur conduite est mauvaise parce qu’il s’agit d’une femme (liée également à un stéréotype non fondé). Mais ce que vous ignorez probablement, c’est que l’autre pilote a trois enfants qui hurlent et rigolent sur la banquette arrière, alors qu’elle essaie d’en amener un au football, un danser et l’autre à une leçon de piano. Elle a eu une journée particulièrement difficile et maintenant, elle est en retard avec tous les enfants car elle ne pouvait pas quitter son travail à l’heure habituelle. Si nous étions ce conducteur, nous nous considérerions comme si nous conduisions mal pour ces raisons, et non pas pour qui nous sommes. Tangentiellement, ma femme est un bien meilleur conducteur que moi.

11. Biais intra-groupe

Comme nous l’avons vu en prenant en compte les préjugés d’auto-service et l’ erreur d’attribution fondamentale , nous avons tendance à être plus gentils avec nous-mêmes lorsque nous portons des jugements sur nos succès et nos échecs. Cela s’étend à ceux qui nous sont chers et proches, à ceux que nous percevons comme similaires et à ceux que nous considérons comme faisant partie de notre «groupe». Simplement, le parti pris dans le groupe se réfère à la faveur injuste de quelqu’un de son propre groupe. Vous pensez peut-être que vous êtes impartial, impartial et juste, mais nous avons tous succombé à ce parti pris, ayant évolué de la sorte. C’est-à-dire que, d’un point de vue évolutif, ce parti pris peut être considéré comme un avantage – favorisant et protégeant ceux qui vous ressemblent, en particulier en ce qui concerne la parenté et la promotion de sa propre ligne.

12. L’effet Forer (aka l’effet Barnum)

Comme dans le cas du déclinisme , pour mieux comprendre l’effet Forer (généralement connu sous le nom d’ effet Barnum ), il est utile de reconnaître une fois de plus que les gens aiment que leur monde ait un sens, ils aiment les choses emballées dans de jolis petits paquets et motifs. . C’est plus facile ainsi: pour que notre monde ait un sens pour nous, car s’il ne le faisait pas, nous n’aurions aucune routine préexistante (c’est-à-dire une approche heuristique) dans laquelle nous pourrions nous replier et il nous faudrait réfléchir plus fort pour contextualiser ce fait. nouvelles informations dans notre monde. Sur ce, s’il y a des lacunes dans notre réflexion sur la façon dont nous comprenons les choses, nous allons essayer de les combler avec ce que nous pensons intuitivement, ce qui a du sens, renforçant ensuite notre (nos) schéma (s) existant (s). Lorsque nos esprits établissent de tels liens pour consolider notre compréhension personnelle de nos propres mondes personnels, il est facile de voir comment les gens peuvent avoir tendance à traiter des informations vagues et à les interpréter de manière à leur donner un aspect personnel et spécifique. Compte tenu de notre nature égocentrique (ainsi que de notre désir de créer de petits paquets et modèles sympas), lorsque nous traitons des informations vagues, nous nous en tenons à ce que nous estimons avoir pour nous et nous nous débarrassons de ce qui ne l’est pas. Simplement, nous traitons mieux les informations qui, à notre avis, nous sont spécifiquement adaptées, indépendamment de l’ambiguïté. Plus précisément, l’effet Forer fait référence à la tendance des gens à accepter des descriptions de personnalité vagues et générales comme s’appliquant uniquement à elles-mêmes sans se rendre compte que la même description pourrait être appliquée à presque tout le monde (Forer, 1949). Par exemple, lorsque les gens lisent leur horoscope, même vague, une information générale peut sembler leur conseiller quelque chose de pertinent et de spécifique (et parfois de précision).

Bien que les heuristiques soient généralement utiles pour faire des inférences, en nous fournissant des raccourcis cognitifs qui nous aident à éviter la fatigue des décisions, certaines formes d’heuristiques – les biais cognitifs – rendent nos jugements irrationnels. Cet article a couvert divers biais cognitifs, mais il ne s’agit nullement des seuls biais, mais des plus courants, selon mon expérience, dans le cadre de la prise de décision au quotidien. Si vous souhaitez en savoir plus sur ces biais et sur d’autres biais cognitifs, je vous recommande de consulter yourbias.is. N’oubliez pas que nous prenons des milliers de décisions chaque jour, certaines plus importantes que d’autres. Assurez-vous que ceux qui comptent ne sont pas basés sur des préjugés, mais plutôt sur un jugement réfléchi et une pensée critique!

Références

Cook, J. et Lewandowsky, S. (2011). Le manuel de démystification. Sainte-Lucie, Australie: Université du Queensland. Extrait de http://www.skepticalscience.com/docs/Debunking_Handbook.pdf

Dwyer, CP (2017). Pensée critique: perspectives conceptuelles et directives pratiques. Cambridge, Royaume-Uni: Cambridge University Press; avec préface de l’ancienne présidente de l’APA, Dr. Diane F. Halpern.

Dwyer, CP, Hogan, MJ, et Stewart, I. (2014). Un cadre intégré de pensée critique pour le 21ème siècle. Aptitudes à la pensée et créativité, 12, 43–52.

Forer, BR (1949) «L’erreur de la validation personnelle: démonstration de la crédulité en classe», Journal of Anormal Psychology, 44, 118-121.

Kahneman, D. (2011). Penser vite et lentement. Pingouin: Grande-Bretagne.

Kruger, J. & Dunning, D. (1999). Non qualifié et inconscient: comment les difficultés à reconnaître sa propre incompétence conduisent à des auto-évaluations exagérées. Journal de la personnalité et de la psychologie sociale, 77, 6, 1121-1134.

Simon, HA (1957). Modèles d’homme. New York: Wiley.

Tversky, A. et Kahneman, D. (1974). Jugement sous incertitude: heuristiques et biais. Science, 185, 4157, 1124-1131.

West, RF, Toplak, ME et Stanovich, KE (2008). Heuristique et biais en tant que mesures de la pensée critique: associations avec des capacités cognitives et des dispositions de pensée. Journal of Educational Psychology, 100, 4, 930–941.