05/06/2013

Peut-on faire confiance à notre jugement ? La fiabilité des « experts* » en cause

* ou des « expertises » dans les domaines à « environnement instable » tels que la politique, l’économie ou le monde des affaires.

« Les véritables bouleversements historiques ne sont pas ceux qui nous étonnent par leur grandeur et leur violence. Les seuls changements importants, ceux d'où le renouvellement des civilisations découle, s'opèrent dans les idées, les conceptions et les croyances » (extrait de « Psychologie des foules » de Gustave LE BON)


Êtes-vous bien sûr d’avoir entendu ce que vous croyez avoir entendu, vu ce que vous êtes persuadé avoir vu ou lu ce que vous imaginez avoir lu ? Et cela en toutes occasions, quel que soit le lieu ou le lien qui vous unis à la situation où vous avez perçu les informations dont vont dépendre vos futures opinions, connaissances ou croyances ?

Si vous répondez oui à chacune de ces deux questions, alors vous êtes probablement souvent victime de vos propres turpitudes. Ce constat n’est pas ici à prendre au sens négatif du terme, il indique simplement que si vous faites aveuglement confiance à vos perceptions sans une autocritique rigoureuse de ces dernières, vous avez de très fortes chances de vous leurrer vous-mêmes et de tromper autrui… en toute bonne foi.

Incroyable me direz-vous ? Impossible renchériront certains ? Comment diable s’exclameront d’autres ?!

Et pourtant…

C’est bien ce que démontrent tous les récents travaux effectués sur les processus de prises de décisions et les effets des dissonances cognitives entre les deux circuits qu’emprunte l’information pour être traitée par notre cerveau et produire du sens.

Dans un livre paru en français en 2012, « Système 1 / Système 2 : les deux vitesses de la pensée », Daniel KAHNEMAN nous présente ses recherches sur les biais cognitifs et les heuristiques de jugement ; c’est-à-dire les croyances, les représentations, les égarements, les méprises, les faux-semblants, etc., et autres erreurs de raisonnement qui orientent nos choix dans la mauvaise direction confirmant ainsi la maxime suivant laquelle « les apparences sont souvent trompeuses ».

Daniel KAHNEMAN n’est pas n’importe qui puisqu’il est le premier psychologue dont les travaux ont été distingués par un prix Nobel obtenu en 2002. Le « couac » de l’histoire… car « couac » il y a, réside dans le fait que cette distinction suprême pour un chercheur ne lui à pas été attribuée dans sa spécialité, mais… en économie. Cette gratification est venue récompenser ses théories portant sur la psychologie du jugement et de la prise de décision (des managers, ordonnateurs et autres responsables qui, pour le coup, apparaissent bien plus « irresponsables » qu’ils ne le laissent entrevoir au premier abord). Certes, les réflexions sur nos erreurs de perceptions et autres illusions ne datent pas d’hier et ont parcouru la philosophie sur plus de 2500 ans d’histoires, mais ce qui est relativement nouveau aujourd’hui, c’est la façon d’aborder nos différents modes de pensée conduisant à ces appréciations tronquées qui escamotent la réalité.

En cela, l’approche de Daniel KAHNEMAN mérite que l’on s’y attarde quelque peu, surtout dans un monde en crise tel que le notre actuellement où les « nouvelles religions » sont le propre de « gourous » que l’on nomme « experts ».

Le journal, les Echos.fr, n’hésite pas à décréter en introduction de son article : « S'il est un livre dont la lecture devrait être rendue obligatoire dans tous les conseils d'administration, comités de direction et autres lieux de prise de décision, c'est bien celui-ci : “Système 1 / Système 2 : les deux vitesses de la pensée” ».

Ce livre jette un sacré pavé dans la marre du mythe de l’homo œconomicus dont nous peinons à mesurer toute la nocivité. Figure de proue de l’économie néolibérale, représentée par le prix Nobel d’économie de 1976 Milton FRIEDMAN, ce modèle qui prédomine encore de nos jours et que l’on nous sert à toutes les sauces aux infos quotidiennes décrit un être rationnel, prévoyant, autonome, etc. agissant au mieux des intérêts financiers de la « nation ».

Quelle bonne blague !

Nombreux sont ceux qui y ont cru et y croient encore. Or, qu’on se le dise : il n’y a rien de plus faux !

Les conclusions que l’on peut tirer du livre de Daniel KAHNEMAN sont sans appel et réactualisent à leur manière l’adage de Blaise PASCAL : « le cœur à ses raisons que la raison ne connaît point ». À ceci près que transposé à l’archétype de l’homo œconomicus ce n’est pas du « cœur » dont il s’agit, mais de son « amour » démesuré pour les choses matérielles de ce monde.

Quelques définitions nous aideront à mieux connaître ce sujet.

 

Les biais cognitifs :

Selon Richard HEUER[1], ancien agent recruteur de la CIA du temps de la guerre froide et auteur d’un livre sur la « Psychologie de l’analyse du renseignement » (1999, non traduit en français), un biais cognitif  est une « erreur mentale causée par des stratégies de traitement simplifié de l’information ».

En psychologie clinique un biais cognitif serait :

« Une routine cognitive (raisonnement, jugement, décision, perception) amenant, dans des circonstances particulières, une déviation systématique de la réponse comportementale par rapport à une réponse attendue ou considérée comme correcte. Le processus cognitif à l'œuvre, généralement bénéfique dans d'autres circonstances, entraîne l'apparition d'une réaction aberrante : perception faussée, jugement erroné, décision illogique, interprétation fallacieuse, etc.

Plusieurs points sont essentiels à la définition :

  • Comportement aberrant : un biais cognitif entraîne une cognition inattendue ou erronée (et éventuellement une réponse comportementale inadaptée qui la suit). Le résultat du processus cognitif donne une perception, une décision, un jugement, une réaction, inadaptée (incorrecte, illogique, incomplète, fausse...)
  • Systématicité : le processus cognitif étant de nature routinière, il entraîne de façon automatique la mauvaise réponse, et il est généralement nécessaire de se concentrer pour en contrer l'effet, d'en connaitre l'existence ou des moyens de compenser.
  • Circonstances particulières : ce sont les conditions qui vont transformer la routine cognitive, qui permettent habituellement de s'adapter à la réalité, en mécanisme inadapté. Le biais cognitif n'est pas un phénomène en soi : on désigne le biais cognitif comme les conditions dans lesquelles un schéma normal de pensée donne régulièrement un résultat différent de celui qu'il devrait être (selon des critères logiques principalement). Aussi, par exemple, un individu ne présentant pas ces schémas de pensée normaux, ne présente pas non plus le ou les biais qui lui correspondent. A contrario, certaines pathologies exacerbent l'effet des biais, ou l'étendent à d'autres circonstances.
  • À noter : certains biais cognitifs proviennent davantage d'un manque dans le schéma normal de pensée, que d'une erreur propre au schéma de pensée (rationalité limitée, par exemple, dans les cas de simplifications, ou de décisions basées sur des informations limitées).

Les biais touchent toute la sphère de la cognition : perception, attention, mémoire, raisonnement, mais également des fonctions élaborées comme le langage (biais linguistiques) ou la culture, et des domaines particuliers tels que l'économie, la politique, les médias.

 

Les principaux secteurs d'étude des biais cognitifs, tels que la finance comportementale, la victimologie ou la gestion des ressources humaines, explorent ces processus pour expliquer les comportements inadaptés des agents considérés comme rationnels (consommateurs, vendeurs, groupes d'intérêt ou groupes sociaux) et prévoir ou utiliser (dans le domaine de la propagande et de la publicité, par exemple), ces failles de la pensée humaine. L'étude des biais cognitifs, principalement conduite par des psychologues, sociologues et économistes, présente ainsi de profondes implications dans les domaines publicitaire, judiciaire, éducatif, scientifique.

 

On peut distinguer les biais cognitifs selon l'aspect cognitif touché : raisonnement/décision, mémoire, gestion de la réalité sociale.

  • · Raisonnement/décision : biais de représentativité, biais de confirmation, biais de disponibilité…
  • · Mémoire : biais rétrospectif, effet de primauté, effet google...
  • · Social : erreur fondamentale d'attribution, biais acteur-observateur, effet de faux consensus, biais d'attribution causale... »

Quant aux heuristiques de jugement, ce sont les stratégies de traitement simplifié de l’information, telles que désignées par Richard HEUER, qui aboutissent fréquemment à des biais. Véritables raccourcis mentaux, elles permettent de résoudre les problèmes auxquels nous sommes confrontés en faisant l’économie de « l’énergie mentale » propice à la recherche d’une solution optimale. « Cet aspect fonctionnel des heuristiques se traduit soit par la négligence d’une partie de l’information, soit par la focalisation sur une autre partie de l’information ; dans les deux cas les efforts cognitifs sans trouve réduit »[2] ce qui augmente les risques d’erreurs en raison du fait que l’énergie psychique économisée à court terme se paye généralement en dépenses supplémentaires à long terme pour corriger les mauvaises orientations prises par les choix qui en découlent.

Ce phénomène est très bien illustré à l’heure actuelle par la crise économique sans précédent que notre société traverse.

 

Présentation des systèmes 1 et 2 tels que conçut par Daniel KAHNEMAN :

Pour que nous puissions nous faire une représentation didactique de ses théories, Daniel KAHNEMAN nous demande de considérer « Système 1 » et Système 2 » comme des surnoms (comme Bob et Joe), dont sont affublés des personnages fictifs possédant chacun des personnalités bien distinctes. En effet, le « Système 1 » est rapide, intuitif et émotionnel, il fonctionne automatiquement avec peu ou pas d’effort et une sensation de contrôle délibéré ; le « Système 2 » est plus lent, plus réfléchi, plus contrôlé et plus logique, il accorde de l’attention aux activités mentales contraignantes qui le nécessitent, y compris des calculs complexes.

« Quand nous pensons à nous-mêmes, nous nous identifions au Système 2, le soi conscient, qui raisonne, qui a des convictions, fait des choix et décide que penser et que faire. Bien que le Système 2 croie être au cœur de l’action, c’est le système 1 automatique qui est le héros du livre… le Système 1 produit sans effort les impressions et les sentiments qui sont les sources principales des convictions explicites et des choix délibérés du Système 2. Les opérations automatiques du Système 1 engendrent des enchaînements d’idées étonnamment complexes, mais seul le Système 2 prend les commandes surmontant les impulsions et les associations en roue libre du Système 1 ».

En résumé, deux « personnalités » distinctes habitent notre cerveau et dans un fonctionnement idéal, ces deux « suzerains » qui président à notre destinée travaillent et interagissent ensemble. Seul souci, et pas des moindres, notre Système 2 est extrêmement paresseux et nécessite un gros effort mental pour être activé. Effort mental qui, comble de malheur et comme nous le verrons plus loin au sujet de l’aversion à la perte, se paye cash en énergie mentale dont certains travaux ont pu démontrer l’impact « négatif ». Autrement dit, pour que notre Système 2 se mette en ordre de marche de façon efficiente il faut en avoir l’envie et l’utilité ou la motivation.

Ce qui a pour conséquence de compliquer sérieusement les choses qui peuvent parfois prendre de fâcheuses tournures lorsque l’un ou l’autre de ces deux protagonistes est pris d’un sentiment de toute-puissance et décide de faire bande à part. Cela génère toutes sortes de troubles qui peuvent aller de la simple dépression à la folie en passant par différentes étapes. C’est cette géographie de dysfonctionnement que la psychopathologie cognitive tente de situer à l’heure actuelle en fonction des déficits perceptifs liés à l’attention, à l’évaluation (représentation), à la mémoire et à la motivation.

Il ne saurait être question d’exposer ici, même sous forme très condensée, tous les exemples et les expériences cités dans le livre de Daniel KAHNEMAN. J’ai donc délibérément choisi de ne présenter que cinq biais cognitifs ou heuristiques de jugement. Choix malheureusement limitatif compte tenu du mode de présentation en tant qu’article informatif, mais j’invite le lecteur intéressé par le sujet à prendre connaissance de ce livre, car il ne manquera pas d’y trouver quelques « pépites ».

 

L’effet de halo :

La tendance à aimer (ou à détester) tout en bloc chez une personne – y compris des choses que vous n’avez pas observées – est connue sous le nom d’effet de halo depuis près d’un siècle, mais le concept n’est pas passé dans le langage courant. C’est regrettable, dénonce Daniel KAHNEMAN, parce que c’est un nom qui convient tout à fait à un biais commun qui joue un grand rôle dans la vision que l’on porte sur les gens et les situations.

Par exemple, quand un orateur sûr de lui et séduisant bondit sur scène, vous pouvez être sûr que son auditoire jugera ses déclarations plus favorablement qu’il ne le mérite.

L’effet de halo intervient dans de très nombreux cas et il contribue à la cohérence, parce qu’il nous pousse à faire correspondre notre vision de toutes les qualités d’une personne au premier jugement que nous en avons eu ou bien à celui d’un attribut la caractérisant significativement.

 

Le biais de confirmation :

 

Nous avons tous tendance à faire un tri dans les informations et les preuves que nous recevons. Nous sélectionnons celles qui corroborent nos hypothèses ou nos croyances antérieures et éludons celles qui viennent les contredire. Autrement dit, nous abstrayons. C’est une des principales conséquences de la « fainéantise » de notre Système 2.

Un phénomène d'autant plus ostentatoire que l'incertitude règne dans un climat polémique. Ce processus n'épargne d'ailleurs pas les scientifiques eux-mêmes, bien qu'ils en soient conscients.

Des psychologues ont clairement mesuré à quel point les chercheurs évaluent d'autant plus favorablement les publications de la littérature scientifique que celles-ci apportent des résultats conformes à ce qu'ils croient, tandis qu'ils accueillent moins favorablement celles qui contredisent leurs convictions.

La parade consiste à ne pas négliger les points de vue contraires et c’est dans ce but que Richard HEUER a créé ce qu’il appelle « l'analyse des hypothèses concurrentes » (ou AHC).

 

Le biais d’ancrage :

 

Selon Daniel KAHNEMAN, si beaucoup de phénomènes psychologiques peuvent être démontrés expérimentalement, rares sont ceux qui peuvent être véritablement mesurés. L’ancrage compte au nombre de ces exceptions et ses effets ont un impact impressionnant. Du simple « amorçage » à la technique d’étiquetage en passant par des ajustements insuffisants, les mécanismes psychologiques qui produisent l’ancrage sont partout et nous rendent beaucoup plus influençables que nous l’imaginons. L’effet d’ancrage survient lorsque les gens considèrent une valeur particulière avant d’estimer une quantité inconnue.

Exemples :

  • · Si on vous demande si GANDHI avait plus de 114 ans à sa mort, vous finirez par lui donner un âge beaucoup plus élevé que si la question d’ancrage avait évoqué son décès à 35 ans.
  • · Si vous réfléchissez à ce que vous devrez payer pour une maison, vous serez influencé par le prix de départ affiché.
  • · En demandant aux  visiteurs d'un centre de protection des oiseaux marins combien ils étaient prêts à donner pour sauver 50 000 oiseaux de mer de petites marées noires off-shore, les promesses de don s’élevaient à 64 euros en moyenne. En posant une question d’ancrage comme : « Seriez-vous prêt à verser 5 euros… », le montant auquel s’engageaient à payer les donateurs tombait à 20 euros, mais si l’ancrage était une somme plus extravagante, 400 euros, ils étaient prêts à verser en moyenne 143 euros.
  • · Etc.

 

L’aversion à la perte :

Les nombreux choix auxquels nous sommes confrontés dans la vie sont « mixtes » ; il y a un risque de perte et une possibilité de gain, et nous devons décider si nous acceptons ce pari ou si nous le rejetons. Pour faire ce choix, nous devons contrebalancer le bénéfice psychologique du gain espéré avec le coût psychologique de sa perte probable.

Or, nos dispositions mentales ne sont pas la même en fonction du résultat envisagé. Nous sommes bien plus motivés par le fait de protéger nos acquis que par celui d’en acquérir de nouveau. L’aversion à l’échec est beaucoup plus forte que le désir de dépasser l’objectif dans des proportions inégales supérieures à 2 pour 1. D’où parfois l’effet pervers qui en résulte de persistance dans l’erreur qui peut avoir des conséquences catastrophiques dans les milieux politiques, financiers, etc., mais aussi dans le domaine amoureux lorsqu’il s’agit de mettre fin à une relation toxique.

L’aversion à la perte est encore plus marquée lorsque le choix a effectué porte sur des solutions dont nous ignorons ou ne conceptualisons pas correctement le gain espéré. C’est-à-dire, la peur de l’inconnu.

 

L’illusion de validité des experts :

(Nda : Aussi étrange que cela puisse paraître en raison du fait que cette heuristique de jugement est probablement l’un des plus importants à connaître, je n’ai pu trouver de lien vers lequel le lecteur intéressé par le sujet pourrait se diriger afin d’approfondir la question comme il m’a été possible de le faire pour les précédents biais cognitifs présentés ci-dessus, ce qui tendrait à démontrer la croyance en la « toute-puissance » des experts dont nos médias raffolent pour nous présenter l’actualité, et surtout, l’actualité économique et politique principalement affectée par les excès de confiance).

Daniel KAHNEMAN nous fait part d’une occasion exceptionnelle qu’il a eue afin avec Richard THALER[3] de pouvoir analyser de près l’illusion du talent financier. Cette expérience lui permit d’accéder à une somme d’informations unique, véritable trésor, concernant les performances de consultants en patrimoine anonymes sur une période de huit années. Sa conclusion sans appel a de quoi laisser perplexes et dubitatifs tous ceux qui prêtent des talents particuliers et font aveuglément confiance aux décideurs, experts ou responsables en tout genre qui exercent dans les domaines des affaires, de l’économie et de la politique. Elle se résume à ceci : les choix fondés sur l’expertise ne sont pas plus exacts que s’ils étaient faits à l’aveuglette.

Après avoir décrit les résultats de son étude, Daniel KAHNEMAN étaye sa conclusion par un autre exemple encore plus saisissant et relate les travaux de Philip TETLOCK, psychologue de l’université de Pennsylvanie, qui a analysé les prédictions d’experts sur une période de plus de vingt ans, publié dans son livre « Expert Political Judgment : How Good Is IT ? How Can We Know ? » (Les experts en politique : Sont-ils bons ? Comment savoir ?). Philip TETLOCK a interviewé des spécialistes en matière de prévision politique et économique. Durant le temps imparti à ses recherches (plus de 20 ans), il a pu recueillir plus de 80 000 prévisions et ses conclusions sont à proprement parler désastreuses : les experts s’en sont moins bien tirés que s’ils s’étaient contentés d’assigner des probabilités équivalentes à chacun des résultats potentiels. Autrement dit, des gens qui passent tout leur temps à étudier un sujet particulier, et gagnent ainsi leur vie, fournissent des prédictions moins sûres que ce qu’obtiendraient des singes en tirant des fléchettes au hasard.

Selon  Daniel KAHNEMAN, la raison en est que la personne qui acquiert davantage de connaissances (Nda : dans les domaines précités, i.e. à « environnement instable » tel que la politique, l’économie, les affaires, etc.) développe une illusion accrue de ses capacités et affiche dès lors une confiance en soi irréaliste.

Les conclusions que l’on peut tirer des différents chapitres de ce livre sur les excès de confiance en soi et, de façon plus générale, sur les erreurs de jugement entrainant des décisions irrationnelles, sont contraires à la « logique » et au « bon sens » que nous instillent à doses homéopathiques les médias « mainstream » grands pourvoyeurs de la pensée unique et de la doxa néolibérale prêchée par les apôtres de l’économie de marché représentée par la théorie de l’homo œconomicus et des politiques inspirées par les idées de Milton FRIEDMAN, prix Nobel en 1976, telles que celles développées aux Etats-Unis par Ronald REAGAN, en Angleterre par Margaret THATCHER, au Chili par Augusto PINOCHET, etc. Ce courant de pensée dénoncé par Noami KLEIN dans son livre paru en 2009 sur « La stratégie du choc » et le reportage qui s’ensuivit (à voir ici) est aujourd’hui également remis en cause, toutefois de manière beaucoup plus « pacifique », par l’approche de l’économie comportementale de Daniel KAHNEMAN, prix Nobel en 2002.

Est-ce à dire que les prochaines années seront influencées par cette nouvelle façon de concevoir l’économie et la politique ?

C’est à espérer bien qu’il ne nous soit pas possible aujourd’hui de prévoir dans quel sens évolueront les évènements à venir des décisions politiques prises à l’heure actuelle. Il semblerait toutefois, compte tenu du comportement de nos médias et de nos dirigeants, que nous n’ayons pas encore fini de manger notre pain noir en raison du fait que le modèle de l’homo œconomicus prédomine sur celui de l’économie comportementale.

 

Philippe VERGNES

 

N.B. :

Sur les biais cognitifs, les erreurs de perceptions ou les illusions, etc., auxquels nous accordons trop d’importances, quelques exemples en vidéos ou en images (il en existe des centaines) vous seront peut-être utiles pour mieux en comprendre les effets. A visionner les vidéos de Kokichi SUGIHARA ici, ici, ici et ou les illusions d’optiques et leur explications scientifiques sur le site de l’ophtalmologie ici. Lorsque l’on sait que tous nos sens peuvent subir ce genre de « distorsions », mieux vaut réfléchir à deux fois (ou tourner 7 sept fois la langue dans sa bouche) avant de dire des « bêtises ».



[1] Richard HEUER est également l’inventeur de la matrice des hypothèses comparées (ACH) pour lutter contre les biais cognitifs et aider un analyste tout au long de sa réflexion afin de produire la meilleure information disponible à partir de données incertaines.

[2] Ouvrage collectif, « Psychologie sociale Tome 2 », p. 150.

[3] Richard THALER est l’un des fondateurs de la finance comportementale (FC) qui, avec l’économie comportementale (EC) initiée par Daniel KAHNEMAN, prend en compte le facteur humain dans les prises de décision des acteurs du marché financier et de la politique économique en général. En cela, elle s’oppose à la théorie de l'Homo œconomicus dont le principal représentant est Milton FRIEDMAN.

Les commentaires sont fermés.