Note : ce billet est inspiré d’une part par le travail de collecte et d’organisation des biais cognitifs réalisés par Buster Benson, d’autre part par une première sélection de biais cognitifs et un projet sur la prospective et les risques systémiques entrepris avec Grégoire Chambaz.
Si la prospective est une “indiscipline intellectuelle” (M. Godet) et si un scénario est “de bout en bout un travail de l’imaginaire” (P. Gabilliet), on peut raisonnablement s’attendre à ce que l’activité qui consiste à penser et explorer les futurs soit jalonnée de nombreux pièges, au premier rang desquels, les biais cognitifs, qu’il s’agit de repérer et d’éviter.
Biais cognitifs : éléments de définition
Les biais cognitifs sont des erreurs qui se traduisent en raisonnements qui dévient systématiquement – et non ponctuellement ou aléatoirement – de la pensée rationnelle.
Ils affectent l’ensemble des individus, quel que soit leur niveau d’expertise ou d’intelligence. Les travaux de recherche en la matière indiquent d’ailleurs que les experts – et les chercheurs eux-mêmes – sont peut-être plus exposés, en raison notamment des certitudes que leur expertise leur rend difficile de remettre en question.
Tandis que la littérature sur les biais cognitifs est abondante, nous proposons ici d’en aborder quelques uns et de les mettre en rapport avec les étapes par lesquelles passe systématiquement toute démarche d’anticipation en entreprise :
- Mobiliser une information ;
- Évaluer une information ;
- Discuter et débattre ;
- Explorer les futurs possibles.
Mobiliser une information
Notre mémoire ne confère pas le même statut à toutes les informations auxquelles nous avons eu accès par le passé. Les biais mnésiques tendent ainsi à favoriser d’une part les informations auxquelles nous avons été le plus récemment exposés (effet de récence), et d’autre part celles que l’on se remémore le plus facilement (heuristique de disponibilité). En outre, il nous est généralement plus aisé de nous souvenir d’une information plutôt que de sa provenance, ce qui peut s’avérer problématique dès lors que nous sommes amenés à mobiliser des informations dont le niveau de fiabilité peut être très variable. Tomber dans une sorte de relativisme et accorder le même crédit à différentes informations, quelque soit leur provenance, est un écueil bien réel.
Évaluer une information
Lors de l’évaluation d’une information, notre jugement s’avère là aussi perfectible. Pour commencer, il tend à s’appuyer de manière disproportionnée sur la première impression (effet d’ancrage) que suscite l’évaluation d’une information et peut en outre se reposer quasi-exclusivement sur un détail marquant de l’information plutôt que sur un ensemble d’attributs. Par la suite, le biais de confirmation risque de nous entraîner à sélectionner et à interpréter de nouvelles informations disponibles de sorte à confirmer notre impression première. Plus tard, pour nous protéger du risque de dissonances cognitives ou bien lorsque les premiers symptômes se manifesteront, nous serons enclins à faire fi de nouvelles observations, et, partant, d’intégrer de nouvelles informations, si celles-ci remettent en cause la cohérence de jugements antérieurs devenus croyances (effet de halo).
Nous faisons régulièrement l’expérience de cet effet d’ancrage lors de journées organisées autour des technologies considérées comme “de rupture”. Celles-ci se composent généralement d’une présentation suivie d’un partie créative par rapport à un défi particulier. En fonction de l’emphase mis sur l’une ou l’autre des technologies, les solutions proposées, indépendamment du sujet considéré, auront tendance à utiliser celles-ci comme décrite quelques instants plus tôt. Il est difficile de s’affranchir totalement de ces biais, mais en rendant les participants attentifs à ceux-ci, nous obtenons une plus grande variétés de propositions.
Discuter et débattre
Penser et explorer les futurs impliquent de discuter et de mettre en débat analyses, conjectures, questionnements, etc. En leur qualité d’activités sociales, discussions et débats sont sujets à plusieurs biais cognitifs. En présence d’une figure d’autorité, par exemple, son supérieur hiérarchique, un participant pourra avoir tendance à ne pas évoquer certains sujets ou alors à le faire dans le strict respect de normes et de codes propres à l’organisation. C’est la soumission à l’autorité, un processus qu’a notamment cherché à étudier dans les années 1960 le psychologue américain Stanley Milgram dans une expérience restée célèbre, quoique controversée.
Lorsque l’on croit avoir repéré l’émergence d’un consensus parmi les membres d’un groupe de discussion, il nous sera souvent plus difficile de s’y opposer et l’on préférera s’y conformer.
Engagé parfois dans une véritable joute verbale, on peut être tenté de ne retenir d’une discussion que les éléments qui confortent notre argumentaire ou notre position, ignorant alors tout élément susceptible de contredire notre propos (cherry picking).
Enfin, il n’est pas rare, dans une démarche de prospective, de faire les frais de la malédiction de la connaissance, ce biais cognitif qui survient lorsqu’une personne qui communique avec d’autres personnes présume que celles-ci ont les mêmes connaissances pour comprendre. En effet, dès lors que la prospective invite selon les mots de Gaston Berger à “voir large” en réunissant des “hommes d’expérience, ayant des formations et des responsabilités différentes”, il se peut que l’un ou l’autre ne fasse pas l’effort de s’adapter aux différents niveaux de connaissances en présence.
Explorer les futurs possibles
Pour finir, chaque individu est doté d’une posture singulière vis-à-vis de l’avenir qui conditionne la manière dont il est sensible, perçoit et interprète les informations sur le(s) futur(s). Certains expriment une préférence exagérée pour le statu quo ; ils perçoivent systématiquement toute forme de nouveauté comme source de risques plutôt que d’opportunités (le biais du statu quo est un terme utilisé en finance comportementale que l’on peut raisonnablement transposer dans le contexte qui nous intéresse ici).
D’autres font montre d’un optimisme irréaliste et sont convaincus qu’ils sont, quoiqu’il arrive, moins exposés aux risques que leurs semblables (biais d’optimisme).
D’autres encore sont systématiquement enthousiastes vis-à-vis de toute forme de nouveauté, en particulier technologique, sans avoir procédé à une quelconque évaluation des bénéfices attendus : c’est la néomanie, un terme inventé par Roland Barthes dans Mythologies pour dire la passion de la nouveauté.
D’autres enfin ont tendance à garder en tête une image embellie du passé et à imaginer un futur plus noir qu’il ne sera (déclinisme).
La plupart des démarches de prospective font intervenir la construction de scénarios. Là encore, plusieurs biais cognitifs risquent d’altérer la rigueur et la qualité du travail collectif.
Déjà évoqué plus tôt, le biais d’optimisme (respectivement de pessimisme) consiste à sur-représenter des conséquences positives (respectivement négatives) à l’intérieur d’un scénario, le privant de fait de la nuance essentielle pour garantir sa crédibilité ainsi que son utilité pour l’organisation.
Le syndrome “not invented here” renvoie quant à lui au biais qui consiste à rejeter systématiquement ce qui n’a pas été inventé “ici”, c’est-à-dire, dans le cas présent, par l’équipe de prospective.
Un livre sur le sujet, humoristique et frais à souhait : Méfiez-vous de votre cerveau
[…] Cet article est repris du site Le Blog de la Turbine, avec l’aimable autorisation de l’auteur (Joffrey Lavigne) https://www.leblogdelaturbine.org/post/d%C3%A9sirs-de-fictions-d%C3%A9sirables […]
[…] Cet article est repris du site La Prospective Technologique, avec l’aimable autorisation de l’auteur. https://prospective-technologique.ch/q030-penser-les-futurs-quels-pieges-eviter/ […]
Bonjour
Excellent article. Merci pour cette synthèse des biais.
Est ce possible de partager ce texte sur notre blog ? https://futursproches.com/micro-recits-et-blog/ Etes vous ok ? Evidemment nous partagerons la source et le lien vers l’article.
Nicolas Gluzman
http://www.futursproches.com