Biais, raisonnement et rationalité
p. 59-69
Texte intégral
Introduction
1On a souvent noté qu’il y a une analogie remarquable, mais inversée, entre les thèses de l’un des principaux fondateurs de la psychologie, Helmholtz, et les travaux des psychologues cognitifs contemporains du raisonnement. L’analogie tient au fait que tous deux considèrent que les mécanismes mentaux qu’ils étudient, ceux de la perception et ceux du raisonnement, sont de nature inférentielle, bien que les inférences en question soient inconscientes. L’analogie est inversée parce que, quand Helmholtz étudiait les inférences visuelles, il se référait aux inférences logiques, inductives, ou déductives, pour comprendre comment il peut y avoir des illusions perceptives, alors que quand les psychologues du raisonnement étudient les inférences logiques, déductives, ou inductives, ils se réfèrent aux illusions perceptives, pour comprendre les illusions logiques qu’ils mettent en évidence (Gigerenzer, 1991). On a moins souvent noté – sauf, à ma connaissance, Raymond Boudon (Boudon, 1995, p. 173) – qu’il y a aussi une analogie inversée entre la théorie lévy-bruhlienne de la mentalité primitive et la théorie des illusions cognitives des psychologues contemporains. Lévy-Bruhl s’intéresse à la pensée logique des « primitifs », et il la tient pour une forme de perception par similarités (qu’il appelle « participation ») qui cause leurs erreurs de jugement. Les psychologues cognitifs contemporains s’intéressent à la pensée naturelle des « civilisés » et ils la trouvent également soumise à des biais quasi perceptifs de similarité, qui sont autant de déviations par rapport à la norme du raisonnement logique correct. Ils parlent précisément en ce sens de pensée « magique ». Ces analogies ne tiennent pas seulement aux rapprochements entre perceptions et inférences logiques et aux illusions qui les affectent. Elles tiennent aussi, dans les deux cas, psychologique et sociologique, au modèle causal de la cognition et des croyances adoptés par ces auteurs. Si nous percevons illusoirement certaines choses, ou si nous croyons ou jugeons faussement certaines choses, c’est parce que certains processus causaux, largement inconscients, forment une pente naturelle de notre esprit, et échappent aux raisons que nous pourrions fournir de ce que nous voyons ou croyons. Le modèle causal semble approprié pour la perception, parce que nous n’entretenons pas facilement l’idée qu’on puisse, par exemple, voir une tasse de café « pour une raison » : nous la voyons, c’est tout ; il n’y a pas de raisons à cela, mais seulement des causes. Mais ce modèle se heurte à des objections bien connues quand il s’agit des croyances et des jugements, que nous pouvons entretenir au contraire « pour des raisons ». Bien entendu, un causaliste quant aux croyances soutiendra que les raisons de croire ne sont pas, la plupart du temps, de bonnes raisons, mais des rationalisations. Mais un non-causaliste pourra toujours lui rétorquer que certaines raisons de croire sont de bonnes raisons, et que cela suffit pour menacer le modèle causal. C’est en ce sens que Raymond Boudon a critiqué la théorie des biais de Kahneman et Tversky pour l’inférence naturelle, en soutenant que les prétendus « biais » observés par les psychologues pouvaient aussi bien, et mieux, s’expliquer comme l’expression de conjectures plausibles de la part des agents, et par conséquent comme l’expression de ce qu’il appelle une « rationalité cognitive » plutôt que d’une irrationalité inévitable. Je partage, dans une large mesure, le diagnostic de Boudon. Il me semble en effet que ce que l’on est tenté de considérer comme « irrationnel » dans le raisonnement naturel est bien souvent l’effet de l’imposition d’une norme de rationalité inappropriée, et pas une irrationalité véritable. Le point où je serai peut-être en désaccord avec Boudon est que ce diagnostic ne nous conduit pas nécessairement à abandonner le modèle causal.
Biais, heuristiques et rationalité
2On présente souvent les travaux de Kahnemann et Tversky comme ayant montré, de façon sûre, que notre raisonnement naturel est affecté par des illusions cognitives et des « tunnels mentaux » qui forment, selon l’expression d’un vulgarisateur récent (Piattelli-Palmarini, 1995) un véritable « inconscient cognitif », ou un îlot stable d’irrationalité à l’œuvre dans la pensée quotidienne, suscitant, tout comme l’inconscient freudien, des réactions de « résistance » telle celle qui consiste à considérer justes nos raisonnements intuitifs même quand on nous révèle qu’ils ne le sont pas. Tout le monde connaît la célèbre conjunction fallacy suivante et son personnage principal, Linda :
Linda a 31 ans, elle est célibataire, a son franc parler et est très brillante. Elle a fait des études de philosophie. Quand elle était étudiante, elle était très concernée par les problèmes de discrimination raciale et de justice sociale, et elle a aussi participé à des manifestations antinucléaires. Laquelle de ces deux hypothèses est la plus probable ?
a) Linda est employée de banque ;
b) Linda est employée de banque et active dans le mouvement féministe.
3La majeure partie des sujets répondent b). Mais la bonne réponse est a), car la conjonction de deux événements est toujours moins probable qu’un événement unique. Nous faisons ainsi une erreur élémentaire, tenace, de raisonnement probabiliste, le paralogisme de la conjonction. On peut se demander pourquoi les psychologues parlent ici d’illusions cognitives, de « pensée magique », ou d’inconscient cognitif, alors qu’aucun des auteurs de la longue tradition logique qui traite des paralogismes n’a, à ma connaissance, jamais soutenu que, par exemple, le paralogisme de l’affirmation du conséquent était une illusion de ce type, et le but des ouvrages sur les paralogismes est justement d’enseigner par contraste les règles de la pensée correcte, ce qui en général marche quand les gens ont reçu une éducation logique suffisante. La réponse est que les psychologues mettent en évidence, dans un grand nombre de raisonnements probabilistes (mais aussi déductifs), des schèmes de raisonnement qui ne sont pas des règles logiques au sens usuel du terme, que les sujets suivraient ou croiraient suivre (celui qui affirme le conséquent croit en général que la règle qu’il suit est valide) mais des « heuristiques » ou des « biais » mentaux, qui ont comme propriété, selon ces psychologues, de ne pas être directement accessibles à la conscience et de persister même quand on montre aux sujets leur erreur et qu’on les confronte à la règle normative correcte. Le terme d’heuristique suggère souvent l’idée d’une procédure de raisonnement qui n’est pas valide selon les règles de la logique canonique, mais qui aide à découvrir la vérité. Mais ici elle empêche de la découvrir. Dans le cas de Linda, le biais ou l’heuristique est celui de similarité : on juge que Linda a plus de chance d’être une employée de banque féministe, parce qu’elle ressemble plus, dans la description donnée, à une féministe qu’à une employée de banque. On le voit nettement quand on propose aux sujets de choisir entre les deux raisonnements suivants au sujet de Linda :
- Linda a plus de chances d’être une employée de banque que d’être une employée de banque féministe parce que toute employée de banque féministe est une employée de banque, mais certaines femmes employées de banque ne sont pas féministes, et Linda pourrait être l’une d’elles.
- Linda a plus de chances d’être une employée de banque féministe parce qu’elle ressemble plus à une activiste féministe qu’à une employée de banque.
4Et ils répondent b), bien qu’ils voient bien le contraste entre les deux raisonnements, et qu’on leur donne en a) la bonne solution (Tversky et Kahneman, 1982).
5D’autres paralogismes ont été mis en évidence. Il y a des biais de « disponibilité », d’« ancrage », ou de « représentativité », qui ont tous à voir avec le rôle que la similarité, ou la typicalité, joue dans la vie psychique : nous tendons à raisonner du semblable au semblable, en négligeant les sources de dissimilarité des problèmes qu’on nous présente. L’un de ces biais est aussi celui de la négligence du taux de base. Par exemple Cascells et al. (Cascells, Schoenberger et Grayboys, 1978) présentèrent à soixante étudiants et professeurs de la Harvard Medical School le problème suivant :
6Si un test pour détecter une maladie dont la prévalence est de 1/1 000 a un taux de faux positifs de 5 %, quelle est la probabilité pour qu’une personne chez qui on a trouvé la maladie ait effectivement celle-ci, en supposant que l’on ne sache rien des symptômes de la personne en question ?
7Avec le théorème de Bayes, la probabilité a posteriori que la personne ait effectivement la maladie est de 0,02 ou 2 %. Mais presque la moitié des sujets estimèrent cette probabilité à 0,95 %. Seulement 11 répondirent 2 %. Le taux de base de 1/1 000 est négligé, et le jugement est fondé seulement sur les caractéristiques du test. Conclusion : les gens ne sont pas de bons bayésiens, même quand ont leur a appris les règles du raisonnement statistique. La question que l’on a envie de poser est : pourquoi devraient-ils l’être ? Après tout le théorème de Bayes n’a été formulé qu’en 1764 et effectivement utilisé en statistiques qu’au dix xixe et surtout au xxe siècle. On n’a pas attendu sa formulation pour raisonner correctement sur les probabilités dans la vie quotidienne. La réponse des psychologues n’est pas que les gens devraient être de bons bayésiens simplement parce que les lois de l’inférence bayésienne sont les lois de la pensée statistique correcte ou normative et qu’ils devraient être de bon bayésiens idéalement. Cette réponse n’affecterait en rien la psychologie cognitive des agents. Elle serait simplement comparable à la réponse que Frege et Husserl faisaient aux psychologistes de leur époque : même si les sujets ne font pas, effectivement de bons raisonnement logiques, cela ne menace en rien le statut normatif des lois de la logique, qui sont « idéales » et non pas « réelles » dans l’esprit des sujets. Mais les psychologues cognitifs sont des pychologistes au moins en ceci qu’ils font l’hypothèse qu’il peut y avoir une « réalité psychologique » des règles du raisonnement correct, déductif ou inductif. Comme l’a montré de manière éclairante Gerd Gigerenzer dans une série de travaux, les psychologues cognitifs du xxe siècle ont, pour ainsi dire, transféré dans l’esprit humain, c’est-à-dire dans leur objet d’étude, les propriétés de la méthode qu’ils employaient dans leurs inférences des données aux hypothèses, c’est-à-dire les propriétés de la méthode statistique de Neyman-Pearson-Fisher, en concevant l’homme comme un « statisticien intuitif » (Gigerenzer, Krüger et Morgan, 1987). Kahneman et Tversky font la même chose mais en prenant comme paradigme la méthode statistique bayésienne. En d’autres termes, pour employer la célèbre distinction chomskyenne, ils partent de l’hypothèse qu’il y aurait une compétence bayésienne, mais que les erreurs et les biais affectent la performance. Mais ce que les travaux de Kahnemann et Tversky semblent montrer est que cette hypothèse est battue en brèche : les biais qui affectent la performance sont si nombreux, si systématiques et « robustes » qu’on en vient à douter même qu’il existe une telle compétence bayésienne. Il ne faut cependant pas comprendre ces travaux comme mettant en doute systématiquement l’hypothèse de la compétence bayésienne. Au contraire, certains des résultats de Kahneman et Tversky semblent montrer qu’un raisonnement de type bayésien est disponible, au moins à l’état implicite (Kahneman et Tversky, 1982 ; cf. aussi Osherson, 1991). Cela veut dire qu’ils ne soutiennent pas, contrairement à ce que l’on dit souvent, que les agents sont systématiquement, de façon permanente, irrationnels du point de vue de leur compétence. Mais la compétence bayésienne est empêchée, au niveau de la performance, et peut-être même au niveau de la compétence, par la concurrence de schèmes de raisonnement biaisés. De ce point de vue, il n’y a pas nécessairement de conflit entre Kahneman et Tversky et la thèse d’un philosophe comme Jonathan Cohen, qui soutient que l’on doit toujours, au niveau de la compétence, supposer que les agents sont rationnels, et que les erreurs de raisonnement sont dues à des défauts dans la performance (Cohen, 1981).
La rationalité cognitive
8Raymond Boudon (Boudon, 1995, p. 173 sq.) a contesté ces raisonnements des psychologues cognitifs, à partir de l’une des expériences de Kahneman et Tversky destinée à mettre en évidence un biais de « disponibilité. » On demande à des psychiatres si la dépression est la cause du suicide, et ils répondent que la plupart du temps c’est le cas. Et quand on leur demande pourquoi ils croient cela, ils disent qu’ils ont reçu dans leur cabinet un nombre appréciable de sujets manifestant des symptômes dépressifs et ayant fait une tentative de suicide. Bien entendu, d’un point de vue statistique, cela ne prouve rien, car, comme le montre Boudon, on peut établir que, sur 100 patients dont 10 présentent des symptômes dépressifs et ont fait une tentative de suicide, la tentative de suicide peut avoir lieu 10 fois sur 50, que le patient manifeste ou non des symptômes dépressifs. Mais Boudon montre aussi que, quand on précise l’information sur l’échantillon, et en présence de l’information suffisante, la corrélation entre les symptômes dépressifs et le suicide n’est pas nulle, mais plausible. Par conséquent, selon Boudon, les psychiatres peuvent « à bon droit » considérer comme plausible la conjecture d’une corrélation causale entre les deux événements. Boudon en conclut que, loin de manifester l’existence d’une pensée prélogique, ce test montre qu’il y a une rationalité dans la réponse des médecins, et qu’ils ne sont pas sujets à une illusion cognitive particulière. Cette rationalité est celle qu’il appelle « cognitive », en un sens différent, et même opposé, de celui que les psychologues donnent au mot « cognitif » quand ils parlent d’illusion cognitive : chez eux ce mot désigne l’existence d’un biais irrationnel inconscient, alors que pour Boudon ce mot désigne l’existence d’un processus « métaconscient », qui peut être accessible à la conscience et devenir manifeste, et qui constitue le fondement des « bonnes raisons » que les sujets peuvent fournir. Point n’est besoin, donc, de se soumettre au modèle causaliste des « biais et heuristiques ». L’explication par les raisons suffit et marche même très bien.
9Je suis tout à fait d’accord avec Boudon, et je pense que ses analyses rejoignent en grande partie celles d’un des critiques les plus sévères des analyses de Kahneman et Tversky, Gerd Gigerenzer.
Le modèle écologique de la rationalité
10Gigerenzer soutient que la plupart des résultats de Kahneman et Tversky proviennent du fait qu’ils présupposent que la théorie statistique correcte pour évaluer la compétence et les performances des sujets est la théorie bayésienne, subjectiviste, de probabilités. Cette théorie consiste à évaluer la probabilité subjective, ou le degré de croyance, qu’un agent assigne à un événement isolé. Or il y a, rappelle-t-il, une théorie concurrente des probabilités, la théorie fréquentiste, selon laquelle la probabilité mesure la fréquence objective d’un événement au sein d’une séquence d’autres événements, et pas le degré de croyance subjective d’un sujet sur un événement isolé. Or si l’on reformule les questions soumises par Kahneman et Tversky à leurs sujets en termes fréquentistes, en précisant la population concernée de l’échantillon, les biais tendent à disparaître. En particulier, dans le cas du paralogisme de la conjonction de Linda, on constate que les violations de la conjonction tombent de 91 dans le cas initial à 22. Or si l’esprit, selon l’hypothèse de Kahneman et Tversky, résout le problème de Linda en utilisant une heuristique de similarité ou de représentativité, le changement dans le format de la représentation (i.e. le passage d’une représentation subjectiviste à une représentation fréquentiste du problème) ne devrait pas, normalement, altérer le résultat, parce qu’il ne change pas le degré de similarité entre les items. Mais il altère ce résultat. Donc le format de représentation joue un rôle crucial dans la nature de l’« erreur » observée1. Et puisqu’il n’y a plus d’erreur systématique quand il change, cela signifie qu’on a simplement choisi le mauvais format, et qu’il n’y a pas irrationalité, mais seulement emploi de la mauvaise théorie normative. On observe le même phénomène pour la négligence du taux de base, quand on formule le problème ainsi :
1 Américain sur 1 000 a la maladie X. On a développé un test pour détecter quand une personne a X. Chaque fois que le test est administré à une personne atteinte de la maladie, il devient positif, mais quelquefois, le test est positif sur une personne saine. En particulier sur 1 000 personnes saines, 50 d’entre elles sont positives au test. Imaginez qu’on ait choisi un échantillon au hasard de 1 000 Américains. Combien de gens qui sont positifs au test auront effectivement la maladie ?
11La proportion des bonnes réponses (2 %) passe de 12 % à 76 %. Les gens ne négligent plus le taux de base quand on leur offre une formulation fréquentiste de la tâche. Il ne s’agit pas de dire que la présentation fréquentiste donne un autre standard de rationalité, puisque la bonne réponse à la question est, qu’on adopte ou pas la conception subjectiviste des probabilités, celle que prédit le théorème de Bayes. Mais le théorème en lui-même est neutre par rapport à l’une ou l’autre des interprétations. En revanche, du point de vue psychologique, les formats subjectiviste ou fréquentiste des représentations sont distincts. Donc les sujets ne sont pas irrationnels. Les biais qu’ils manifestent dépendent seulement du type de représentation.
12La stratégie de Gigerenzer et associés pour réfuter le soupçon d’irrationalité est la même que celle esquissée par Boudon : changeons la présentation du problème, et les sujets n’apparaîtront plus irrationnels. Et quand Boudon nous incite à considérer la taille de l’échantillon, il recourt implicitement, même s’il ne le dit pas explicitement, à un format de représentation fréquentiste. Mais pour que l’identité de vues entre les deux auteurs soit complète, il faudrait que Gigerenzer nous dise aussi que la représentation fréquentiste des raisonnement probabilistes ou inductifs n’est pas seulement une représentation qui s’impose, de manière causale, à l’esprit des gens, mais qu’elle constitue aussi une raison « cognitive » de favoriser certaines réponses. Or ce n’est pas ce que dit Gigerenzer. Il soutient, dans le même esprit que les psychologues cognitifs, que le traitement de l’information dans les raisonnements probabilistes naturels obéit à des représentations fréquentistes. Au lieu d’avoir une compétence bayésienne, ou une compétence bayésienne en principe, les gens ont une compétence fréquentiste. Selon Gigerenzer, cette compétence a été acquise au cours de l’évolution : les gens se sont habitués à évaluer la fréquence relative de certains événements dans l’environnement sur une classe de référence. Ils sont bien meilleurs à cela que quand il s’agit d’un événement isolé dont il faudrait estimer la probabilité subjective, parce que l’esprit est en harmonie avec la fréquence naturelle des événements et leur répétition. En ce sens, comme le dit Gigerenzer, il y a une « validité écologique » des raisonnements fréquentistes, et cette validité s’explique par l’harmonie entre les algorithmes fréquentistes que les gens ont développés et les traits de l’environnement. Dans d’autres travaux, que je n’examinerai pas ici, Gigerenzer a également soutenu que les raisonnements probabilistes marchaient encore mieux quand le domaine des objets sur lesquels s’effectue le raisonnement était spécifique et non abstrait. Il rejoint ainsi les travaux des psychologues cognitifs de tendance évolutionniste, comme Cosmidès et Tooby, qui soutiennent que les compétences et les performances des raisonnements inductifs autant que déductifs sont facilités par des schèmes quasi concrets (ou seulement semi-abstraits) et domaines-spécifiques qu’ils appellent des « contrats sociaux » (Gigerenzer et Hugg, 1992 ; Cosmidès, 1989). Pour donner cependant une idée du genre de schèmes auxquels pense Gigerenzer, considérons le problème suivant :
Quelle est la ville qui compte le plus d’habitants ?
a) Heidelberg
b) Bonn
Jusqu’à quel point êtes-vous sûr que votre réponse est correcte ? 50 %, 60 %, 70 %, 80 %, 90 %, 100 %
13Selon Gigerenzer, ce que ce genre de problèmes teste, c’est la confiance et le choix de la réponse, pas un biais de confiance excessive. Il s’agit donc d’expliquer directement la confiance, pas la déviation par rapport à une norme non controversée. On va donc supposer que les sujets donnent leur réponse en construisant ce que Gigerenzer appelle un « modèle mental probabiliste » (par analogie, bien entendu, avec les « modèles mentaux » de Johnson-Laird). Il généralise les deux options « Heidelberg » et « Bonn » à une classe de référence, telle que « toutes les villes d’Allemagne ». Et il généralise la variable concernée – le nombre d’habitants – à un réseau d’indices de probabilité qui covarie avec la cible. Par exemple, ces indices sont : « La ville est-elle une capitale fédérale ? », « A-t-elle un club de football qui joue en première division ? », « Est-ce une ville industrielle ? », etc. Si, par exemple, la majorité des villes jouant en première division sont plus peuplées, cela donne une validité à l’indice. Maintenant l’indice peut ne pas être pertinent : aucune des deux villes ne joue en première division. On prend alors un autre indice : capitale ou pas ? Et cela décide de la réponse en faveur de Bonn. L’indice « capitale » n’est pas universel : Canberra est une capitale, mais a moins d’habitants que Sydney, etc. Les indices du modèle sont en général fiables, mais pas universellement. Donc le sujet travaille avec le savoir limité qu’il a, et construit des modèles probabilistes d’estimation sur des classes de référence. C’est l’expérience des fréquences et des indices qui permet de construire le modèle. Ce modèle permet aussi de prédire les cas dans lesquels il y aura ce que Kahneman et Tversky appellent un biais de confiance excessive : quand le sujet n’a pas d’indices (par exemple si on lui présente deux cités peu connues, comme Hyderabad et Islamabad), il aura tendance à avoir moins de bonnes réponses. Mais ce sera dû à un défaut de sa connaissance générale empirique, pas à un biais irrationnel.
14Le modèle de Gigerenzer est donc bien causal, il n’est pas, du moins de prime abord, « cognitiviste » au sens de Boudon, mais cognitiviste au sens usuel : il suppose que nous avons certaines représentations encodées dans un format fréquentiste, qui sont responsables de raisonnements qui sont en général bons et corrects, parce qu’évolutionnairement ou écologiquement renforcés. Les erreurs de raisonnement sont seulement des artefacts de l’expérimentateur quand il choisit la mauvaise norme de rationalité. Il n’y a donc pas de pensée magique ou prélogique, ou s’il y a une telle pensée, elle est valide. Toutes proportions gardées, cela revient à adopter, sur les illusions cognitives, une position qui ressemble à celle que Gibson avait au sujet des illusions perceptives : l’esprit n’a pas d’illusions, il perçoit correctement l’environnement selon des principes « écologiques », ce ne sont que des psychologues habiles qui forgent de toutes pièces des illusions en montant des dispositifs destinés à piéger le système perceptif dans des conditions non écologiques. Mais il y a en fait, comme l’a noté Gigerenzer (Gigerenzer, 1991), trois dissymétries importantes entre les illusions cognitives et les illusions perceptives usuelles, comme celle de Müller-Lyer. Premièrement, les secondes sont établies à partir d’une norme incontestable – la mesure physique des deux lignes – alors que les premières sont normativement instables – on peut choisir le format subjectiviste ou le format fréquentiste. Deuxièmement, les illusions visuelles sont d’habitude stables, alors que les illusions cognitives varient beaucoup selon les manières de présenter les problèmes. Et troisièmement, dans les illusions perceptives le contexte de perception joue un rôle, alors que les illusions cognitives (telles qu’elles sont mises en évidence) le négligent. On ne doit donc pas pousser l’analogie trop loin.
Les bonnes raisons sont des causes
15Étant donné que le partisan de la « rationalité cognitive » et le partisan de l’« écologie cognitive » sont d’accord sur les deux points suivants : 1) les sujets qui manifestent des biais de raisonnement ne sont pas nécessairement soumis à une illusion, et 2) ils sont en fait rationnels, la question se pose de savoir ce qui les départage. Ce n’est pas l’hypothèse de rationalité globale des sujets, puisque les deux réponses présupposent que les sujets sont globalement rationnels. C’est plutôt le sens qu’ils donnent respectivement au mot « rationalité ». Je viens d’indiquer la réponse : c’est que, pour un tenant de la rationalité cognitive, un bon raisonnement, qu’il soit déductivement correct ou inductivement correct, ou plausible, l’est du point de vue du sujet qui le formule, et pas en vertu d’un type de représentation qui a permis à ses ancêtres de survivre, et qui serait encastrée dans son système cognitif (au sens usuel, non boudonien). Il y a une ressemblance entre les deux réponses, parce que les modèles causaux, comme le montre celui des psychologues cognitifs, sont en général invoqués pour expliquer la pensée fausse ou incorrecte, pas la pensée vraie ou correcte, alors qu’ici la conception écologique invoque un mécanisme causal (une histoire évolutionniste) qui produit la plupart du temps des croyances vraies, ou qui est « fiable », comme le disent les théoriciens naturalistes de la connaissance. Mais le modèle causal de Gigerenzer s’appuie sur une notion de rationalité distincte, apparemment, de celle de Boudon : il sous-entend que « rationnel » veut dire essentiellement « qui permet d’atteindre ses objectifs » ou en l’occurrence « adaptatif », alors que le modèle de la rationalité cognitive, en cela wébérien, admet qu’on peut avoir de bonnes raisons qui ne sont pas zweckrational, et même qui pourraient être bonnes sans être efficaces ou utiles pour l’agent. Or qu’il y ait de telles bonnes raisons n’est pas niable. Pour prendre un exemple, de nombreux économistes et psychologues cognitifs ont mis en valeur le fait que les gens violent la règle économique dite de « profits et pertes » (sunk-cost rule) : une fois que nous avons fait une certaine dépense, si les circonstances révèlent qu’il aurait mieux valu ne pas la faire, nous continuons à nous comporter de manière à justifier la dépense, alors qu’il vaudrait mieux adopter le comportement inverse, tout en la mettant « aux profits et pertes » (Dawkins et Carlyle, 1976 ; Arkes et Blumer, 1985 ; Nisbett, 1992). Combien d’entre nous ont continué à voir un film qui se révèle un navet parce qu’ils ont payé leur place de cinéma, ou continuent de manger un repas insipide, parce qu’ils savent qu’ils devront payer la note de toutes façons ? Le comportement « rationnel » consisterait ici à quitter le cinéma, ou le restaurant, et à faire passer l’argent dépensé aux profits et pertes. Il est certainement irrationnel de dire qu’on continue de manger parce qu’on a payé. Mais on peut aussi avoir de bonnes raisons de se comporter ainsi, bien que ce ne soient pas des raisons économiques. Une théorie comme celle de Gigerenzer ne permet pas d’expliquer pourquoi ce peuvent être de bonnes raisons. Indépendamment de problèmes spécifiques que rencontrent toutes les théories qui essaient d’expliquer en termes évolutionnistes les normes de rationalité, éthique ou logique, que je n’examinerai pas ici (Engel, 1994, 1996), le fait qu’un modèle causal comme celui de Gigerenzer ne permette pas de rendre compte de ce sens des bonnes raisons ou du mot « rationnel », me paraît suffisant pour rejeter son application unilatérale.
16Je ne voudrais pas exclure, cependant, que dans le cas qui nous occupe, celui des inférences probabilistes, il y ait une compatibilité entre les hypothèses de Gigerenzer et celles d’un « rationalisme cognitif » comme celui de Boudon. Premièrement, Gigerenzer ne dit pas, contrairement aux psychologues cognitifs auxquels il s’oppose, que les représentations sur lesquelles les sujets s’appuient pour fournir leurs réponses soient inconscientes, ou automatiques, comme peuvent l’être les biais ou les heuristiques. Il insiste au contraire pour dire que les sujets sont parfaitement conscients de ce qu’ils font, et qu’ils usent de jugements, pas de processus automatiques. En ce sens, leurs raisons, toutes causales qu’elles soient, sont bien « métaconscientes ». Le sujet les forme avec les connaissances dont il dispose, aussi limitées soient-elles. Deuxièmement, Gigerenzer ne dit pas que la norme fréquentiste soit absolue. Il admet que les normes bayésiennes peuvent être correctes, et revendique seulement un pluralisme des normes, et en conséquence une grande prudence dans l’estimation des résultats qui paraissent dévier par rapport à cette norme. Troisièmement, n’y a-t-il pas des critères du raisonnement correct indépendamment du choix d’une norme subjectiviste ou fréquentiste ? Les fréquentistes nous recommandent de considérer une classe de référence. Mais les bayésiens savent aussi que leurs résultats dépendront de la manière dont ils calculent les probabilités a priori. Combinant ce qu’il y a de correct dans les modèles fréquentistes et ce qu’il y a de correct dans les modèles bayésiens, n’obtient-on pas simplement des règles du raisonnement inductif correct ? Quand les psychiatres évaluent correctement la probabilité que leurs patients dépressifs se suicident, leurs bonnes raisons ne sont-elles pas tout simplement de bonnes raisons inductives ? Sauf à nier, comme les poppériens, qu’il puisse y avoir de telles bonnes raisons, je ne vois pas pourquoi on exclurait l’existence de celles-ci.
Conclusion
17Quelles leçons pouvons-nous tirer de cette discussion quand il s’agit de confronter les travaux de la psychologie cognitive comme ceux de Kahneman et Tversky et le projet d’une sociologie de la connaissance ? À la suite de Boudon, j’ai fait remarquer les limites du modèle « causaliste » des premiers. Mais il faut aussi remarquer que les limites du modèle causaliste ne sont pas seulement des limites externes, venant du fait que le comportement des sujets peut aussi bien s’expliquer par leur adhésion à de « bonnes raisons » qui ne sont pas simplement des causes de leur comportement, mais aussi des limites internes, venant du fait qu’il y a deux sortes d’hypothèses causalistes en compétition : l’une est celle des « biais » et « heuristiques », l’autre celle des « schèmes » écologistes proposés par Gigerenzer. Tout comme celle de Kahneman et Tversky, la conception écologique est une « théorie froide » de la cognition, qui explique les jugements des agents par des propriétés du traitement cognitif de l’information plutôt que par la présence d’affects, comme le font les théories dite « chaudes ». Les limites internes de l’explication causaliste affectent la proposition de ceux qui, comme Jon Elster, entendent renouveler et prolonger la théorie marxiste des idéologies en s’inspirant de la psychologie cognitive de Kahneman et Tversky (Elster, 1985, pp. 624-625). Car si les « défaillances cognitives » révélées par Kahneman et Tversky se trouvent ne pas être des défaillances, mais des conséquences de processus de pensée essentiellement corrects du point de vue adaptatif, les mécanismes de formation de croyances qui sont responsables de la diffusion de ce que l’on appelle des « idéologies » ne sont pas nécessairement des mécanismes engendrant des « illusions », mais purement et simplement des mécanismes d’engendrement de croyances rationnelles. La conclusion qui s’impose est ou bien qu’une théorie « froide » n’est pas vraiment une théorie du « microfondement » des idéologies, si par « idéologie » on entend une forme de croyance illusoire, irrationnelle, ou trompeuse, ou bien qu’il faut réviser la notion d’idéologie et cesser d’associer cette notion à celle d’un ensemble de croyances irrationnelles. Mais il y a, comme on l’a vu, un prix à payer : c’est la réintroduction d’un modèle darwinien au sein même des explications causales cognitivistes de la formation des croyances, et par conséquent un retour à une forme d’explication fonctionnelle prenant le pas sur les explications causales. Marx, dans la mesure où il croyait aux explications fonctionnelles, aurait peut-être été disposé à payer ce prix. Mais je doute qu’un « rationaliste cognitiviste » y soit lui-même disposé.
Notes de bas de page
1 Il y a certainement d’autres facteurs que le format de la représentation qui peuvent affecter les réponses, comme la compréhension des énoncés présentés et leur forme sémantique et pragmatique, ainsi que me l’a fait remarquer Danièle Dubois. Mais je néglige ici ces facteurs. Je ne connais pas de travaux au sujet de ces problèmes qui montreraient que ces facteurs affectent systématiquement la nature des réponses et donc de leur interprétation.
Auteur
Université de Caen, CREA et Institut universitaire de France.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Trajectoires de l’immatériel
Contribution à une théorie de la valeur et de sa dématérialisation
Jean Clam
2004
L’aveuglement organisationnel
Ou comment lutter contre les malentendus
Valérie Boussard, Delphine Mercier et Pierre Tripier
2004
Georges Friedmann
Un sociologue dans le siècle, 1902-1977
Pierre Grémion et Françoise Piotet (dir.)
2004
Des mondes de confiance
Un concept à l’épreuve de la réalité sociale
Vincent Mangematin et Christian Thuderoz (dir.)
2004