Délibération et décision : l’espace public disqualifié par le calcul économique, une approche critique de la théorie probabiliste classique
p. 351-367
Texte intégral
1Reinhard Stelten, prix Nobel d’économie en 1994, écrivait récemment :
« Le principal courant théorique moderne en économie se fonde sur une image irréaliste de la prise de décision par l’homme. Les agents économiques sont décrits comme des maximisateurs bayésiens de l’utilité subjective pleinement rationnels. Cette conception de l’économie n’est pas étayée sur des preuves empiriques, mais plutôt sur l’axiomatisation de l’utilité et de la probabilité subjective. Dans le livre fondamental de Savage (1954), les axiomes sont des exigences de cohérence (consistency) des actions. On ne peut qu’admirer la structure imposante construite par Savage. Elle exerce une forte attirance intellectuelle comme concept de rationalité idéale. Toutefois, il est faux de supposer que les hommes se conforment à cet idéal1. »
2L’autorité de la pensée économique se soutient aujourd’hui de décisions épistémologiques, principalement de la possible modélisation probabiliste de pans entiers du monde et de l’activité humaine – notamment du jugement – ainsi que de la calculabilité des décisions. La maniabilité technique de l’outil probabiliste pousse à en élargir abusivement le champ d’application. En effet, les hypothèses sous-jacentes aux modèles stochastiques les plus usités (le mouvement brownien, par exemple) supposent une anthropologie implicite – rationalité, indépendance des acteurs, etc. – et postulent une possible réduction du temps au présent immédiat2, bien éloignées de l’expérience quotidienne partagée. Surtout, en feignant de croire que le jugement ou la décision découlent, par pure déhiscence, de l’enquête qui les documente, elle invite chacun à se défaire de sa compétence de citoyen au profit de l’expertise technique. Elle nous conduit à rabattre nos projets sur des anticipations élaborées par ces experts et tente de nous convaincre que toutes nos préférences sont prédéterminées. Elle dissuade au fond d’ouvrir un espace public pour délibérer de notre avenir. Cette pensée économique renforce le sentiment que l’espace politique est un espace « par défaut », en creux, pure condition de possibilité de l’action des acteurs de la société civile pour faire valoir des intérêts particuliers, espace colonisé par la technisation des problèmes, rétif aux pratiques d’assemblées et aux délibérations publiques, plus enclin aux négociations furtives, souvent discrètes, qui trouvent leur forme achevée dans le lobbying généralisé. En revanche, nous verrons que, reconnaître l’impossibilité de « calculer » l’avenir du monde, prendre acte que décider en situation d’incertitude relève du jugement ou du pari, peut contribuer à restituer à l’espace politique public sa place fondamentale. Examiner plus en détail ce qui distingue les conceptions de la démocratie centrée sur la notion de société civile de celles centrées sur la notion d’espace public, ne peut être entrepris ici. Notons seulement que les premières mettent l’accent sur la négociation et le lobbying de groupes constitués sur la base d’une identité ou d’un intérêt partagé, alors que les secondes privilégient la visibilité des actions et la délibération publique. Ces deux idéaux-types de démocratie se combinent de manière à la fois singulière et fluctuante dans nos sociétés occidentales. Ils informent de manière différente les programmes d’appui aux réformes démocratiques dans les pays du Sud3.
3Le pouvoir de séduction exercé par le calcul des probabilités est tel, qu’on peut lire dans un ouvrage récent : « Si le président Kennedy s’est montré si ferme dans la crise cubaine, c’est que les ordinateurs américains, digérant des montagnes de statistiques ont affirmé qu’il y avait une probabilité considérable pour que les Russes abandonnent au dernier moment et s’ils ont effectivement abandonné, c’est probablement parce que leurs ordinateurs avaient fait les mêmes calculs et donné les mêmes résultats4 », alors que A. Schlesinger, ancien conseiller de J. F. Kennedy, confirmait très récemment encore « que les généraux soviétiques présents à Cuba étaient prêts à utiliser des armes nucléaires tactiques, en 1961, si les États-Unis avaient attaqué. Or, c’est précisément ce que les chefs d’état-major et les responsables du renseignement conseillaient à Kennedy. JFK rejeta leurs recommandations, afin de poursuivre – et de mener à son terme – une action diplomatique5 ». Cette anecdote est révélatrice à plus d’un titre. La décision de JFK va à l’encontre des recommandations « calculées » de l’État-major et les Russes sont prêts à attaquer contrairement à ces mêmes calculs. Les calculs sont faux quant aux intentions des Russes et la décision ne découle pas du calcul. Cette anecdote illustre tout à la fois, l’ascendant qu’exerce le calcul des probabilités, dès qu’il s’agit de commenter une situation aléatoire, et la confusion entre jugement moral et jugement probabiliste. Cet article veut montrer l’absence de fondement de cette identification en s’appuyant sur la généalogie du calcul des probabilités, enquête d’épistémologie historique sur le jugement et la décision appréhendée à la troisième personne du singulier6.
Émergence des probabilités
4Le calcul des probabilités qui s’ébauche à la fin du XVIIe siècle acquiert rapidement une robustesse technique qui lui confère rapidement le monopole de la formalisation de l’aléatoire.
5Pour L. Daston, le domaine spécifié de phénomènes dont traitent les probabilités est constitué par les « jugements des hommes éclairés, jugements formés en situation d’incertitude ». La théorie classique des probabilités, nous dit l’auteur, prétend répondre à une série de questions : est-il rationnel de jouer à cette loterie, de croire en Dieu, d’acheter une rente viagère, de condamner un accusé sur la base des informations disponibles ? « La fortune de la théorie classique des probabilités dépendait de la conformité de ses résultats aux intuitions des hommes raisonnables7. » Certes, le terme raisonnable est lui-même relativement indéterminé, notamment à la fin du XVIIe siècle. Retenons la proximité, voire l’adéquation, entre sciences morales et calcul des probabilités que cette conception présuppose, et donc entre description et prescription, entre jugement et probabilité. « Les probabilistes classiques persistaient à croire que le raisonnable était univoque, malgré les débats interminables sur sa propre définition8. » Probabilité et jugement resteront liés jusqu’à la fin du XIXe siècle comme en témoignent par exemple les travaux de Poisson, même si Condorcet, par exemple, distingue conceptuellement probabilité et « motif de croire ».
6L’objet de ce texte est de proposer un commentaire critique de cette proximité entre calcul probabiliste et jugement, en introduisant une grille d’analyse permettant d’une part, de distinguer les opérations élémentaires de quantification qui, rassemblées, inaugurent le « calcul des probabilités » à la fin du XVIIe siècle, et, d’autre part, d’analyser les enjeux théoriques et politiques liés à la « probabilisation » du monde, enjeux qu’on peut mettre en perspective, à partir des formalisations du jugement en situation d’incertitude que nous offrent certains travaux récents, en Intelligence Artificielle, préoccupés de la mise au point de « systèmes experts ».
Que font les mathématiciens quand ils probabilisent le monde ?
7Commençons par tenter d’identifier les modes opératoires élémentaires qui constituent l’innovation des années 1660. Il faut distinguer, d’abord, deux opérations fondamentales, souvent intriquées mais pas toujours, et en tout cas, mêlées dans des proportions différentes selon les auteurs, les situations ou les problèmes à résoudre. Il s’agit, d’une part, de la production de nombres qui veulent signifier le poids ou la force d’un argument, la confiance en une opinion, l’intensité d’une croyance, à partir de ce qui l’étaye, de ses « éléments d’évidence » et, d’autre part, de l’établissement de proportions entre ces poids, ou entre ces degrés de confiance. Une troisième opération, possible uniquement si l’événement considéré est lui-même quantifiable (un gain, par exemple, ou un bien non « organique » selon l’expression de Keynes, c’est-à-dire atomique et sommable) est la pondération de ces gains par ces poids relatifs, pour « évaluer l’espérance ».
8Soit une situation simplifiée, celle où l’on a affaire à deux événements ou énoncés p et q.
91-. Il se peut que je puisse énumérer tous les « éléments d’évidence » qui supportent p, et que, de plus, ils soient incompatibles et entraînent nécessairement p. Si je connais le poids de chacun de ces éléments, je pourrai calculer le poids de p. De même pour q. Admettons que le poids de p9 soit N1 et celui de q, N2. C’est là le premier mode opératoire.
102-. Supposons à présent que q est l’énoncé non p. Alors dans ce cas, et par comparaison des poids respectifs de ces deux énoncés contraires, je pourrai « faire la balance » et dire que la probabilité de p est N1/N1 + N2, quotient qui représente la part de p dans le poids total. Il est clair que si q n’est pas non p, on ne pourra pas envisager de calculer une probabilité, on pourra tout au plus observer que le poids de p (par exemple) est supérieur au poids de q. Il se peut que, dans certains cas, ceci soit suffisant pour prendre une décision. Mais on ne pourra pas cependant parler de probabilité.
11Ceci mérite d’être comparé à ce qui se passe lors d’un procès judiciaire10 « Lors d’un procès en justice, toute inférence est relative, ou, du moins, conditionnée par les éléments d’évidence dont dispose la cour » et on peut se trouver dans le dernier cas évoqué où une décision peut être prise sans que pour autant on ait évalué le poids de toutes les alternatives11. C’est cette dernière opération, la balance, le calcul de proportions (qui n’est possible que lorsqu’on a évalué le poids de toutes les éventualités12), qui constitue l’innovation essentielle, même si l’opération précédente, évaluation du poids ou de la confiance est parfois le problème le plus difficile à résoudre13.
123-. L’autre innovation (la troisième opération), consiste, là où c’est possible, à pondérer un avantage ou un danger par ce poids relatif, ce qui conduira à la notion d’espérance. Longuement discutée au cours des trois derniers siècles, elle est relative au versant des probabilités orienté directement vers l’action et le jugement.
13La Logique de Port-Royal, dans le livre iv, met chacun en garde : « Il faut désabuser tant de personnes qui ne raisonnent guère autrement dans leurs entreprises qu’en cette manière : Il y a du danger en cette affaire donc elle est mauvaise, il y a de l’avantage dans celle-ci, donc elle est bonne ; puisque ce n’est ni par le danger, ni par les avantages, mais par la proportion qu’ils ont entre eux qu’il faut en juger. » On n’a pas attendu Pascal pour procéder ainsi lorsque la comparaison est aisée ? Certes14. Ce qui est neuf, c’est la tentative de quantifier cette comparaison. Ayant réussi à le faire dans certains cas particuliers, on tentera dès lors de le faire ailleurs, d’étendre le champ de pertinence de ce mode opératoire15. Lorsqu’en revanche, on dispose de fragments de tables numériques (nombre de morts selon la maladie, par exemple), on sera tenté de les traiter de cette manière et de faire apparaître des « fréquences », notion qui relève principalement de la seconde opération.
14Pour traiter certains problèmes, il se peut que l’on ne compare pas des fréquences mais les nombres eux-mêmes. En témoigne, par exemple, le raisonnement de Graunt pour analyser les causes de la contagion de la peste :
« La contagion de la peste dépend plus de disposition de l’air que des effluves émanant des corps des hommes. Ce que l’on prouve […] par les brusques écarts faits par la peste, sautant en une semaine de 118 à 927, reculant de nouveau de 993 à 258, pour passer encore à 852 dès la semaine suivante16. »
15L’argument porte sur la variabilité du nombre de cas qui s’apparente bien plus aux variations de la météorologie et dont il paraît difficile de rendre compte sous la seconde hypothèse. Un tel raisonnement, fondé sur des critères purement épistémiques, relève du deuxième mode opératoire distingué plus haut, sans en passer par des « éléments d’évidence » qui relèveraient d’un raisonnement proprement théorique. La première opération élémentaire, qui consiste à évaluer la force probante ou le poids d’un événement ou d’un argument, est ici absente. Jusqu’au milieu du XVIIe siècle, la probabilité est un attribut de l’opinion. Jusqu’au milieu du XVIIe siècle, on ne peut concevoir d’« élément d’évidence » que dans le cadre d’une théorie. « Il n’existe pas de critère épistémique indépendant (je reprends ici la théorie de I. Hacking). C’est seulement quand des critères épistémiques peuvent être appréhendés indépendamment de ce que la théorie dit des causes, que peuvent émerger probabilité et usage des statistiques. »
16Que ces opérations élémentaires aient à la fin du XVIIe siècle une relative autonomie, en témoignent les travaux de J. Bernoulli. Dans certains travaux de Bernoulli, la notion de probabilité en tant que quantification de la comparaison des poids d’arguments est franchement passée au second plan, au profit d’une probabilité conçue comme évaluation du poids, de la force probante d’un argument, comme degré de certitude. Cet usage révèle clairement l’autonomie relative des deux opérations mises en pratique dans le calcul des probabilités naissant (la quantification du poids d’un argument d’une part, la proportion qu’ont ensemble les poids de toutes les éventualités d’autre part, et que Bernoulli distingue en la nommant probabilité absolue).
« Si outre les arguments favorables à la chose à approuver, s’offrent d’autres arguments purs par lesquels le contraire est persuadé, les arguments des deux genres sont à pondérer en particulier au moyen des précédentes règles, afin de pouvoir établir la raison qui intervient entre la probabilité de la chose et la probabilité du contraire. On doit noter, ici, que si les arguments apportés dans les deux parties sont assez forts, il peut se faire que la probabilité des deux parties dépasse notablement la moitié de la certitude, c’est-à-dire rende probable chacun des deux contraires, quoiqu’une plaidant relativement à l’autre soit moins probable que l’autre ; ainsi il peut se faire que quelque chose ait 2/3 de certitude, tandis que son contraire possède 3/4, et de cette façon les deux contraires seront probables, et cependant le premier moins probable que son contraire, et cela dans la raison de 2/3 à 3/4, soit 8 à 917. »
17Mais, et c’est le point crucial, lorsqu’on parle de la force probante d’un argument on attribue une force à une inférence et non à une simple croyance. La pertinence de cette distinction apparaît dès lors que l’on veut composer des arguments entre eux, comme l’a bien vu Bernoulli. C’est précisément cette confusion qui permet d’espérer que le calcul des probabilités puisse déterminer l’action (ou le jugement) en la « calculant », confusion que les formalisations récentes de l’incertitude permettent précisément d’éclairer.
Comment les jugements de vraisemblance évoluent dans le temps ?
18Il faut ici accorder une attention toute particulière à l’évaluation de la vraisemblance d’une inférence, et, de manière plus générale, à l’évolution des degrés de croyance (de jugement, de décision) dans le temps. La plus grande partie des résultats de la théorie des probabilités n’est pas affectée par la diversité de ses interprétations (probabilité subjective, objective, épistémique, quantitative, etc.). Néanmoins, une exception au cœur de ce consensus : des divergences apparaissent lorsqu’il s’agit de formaliser la manière dont les probabilités évoluent avec le temps, lorsqu’il s’agit de donner forme à une « cinématique » des probabilités18. La conception bayésienne, largement admise, héritière du postulat d’additivité, réduit ce processus à une pure conditionalisation.
19Van Fraassen, en distinguant deux concepts de rationalité qu’il nomme avec humour, le concept prussien et le concept anglais, illustre une forme non bayésienne (bien que possiblement additive quant au fond) de dynamique de la croyance. « Ce qu’il est rationnel de croire, est exactement ce que l’on est rationnellement contraint de croire » est la version prussienne19 ; « ce qu’il est rationnel de croire inclut tout ce qu’on n’est pas rationnellement contraint de refuser » est la version anglaise20. Suivons le commentaire de l’auteur :
« La première consiste à dire qu’il existe certaines règles pour bien diriger sa raison, des canons de la logique au sens large, qu’il est nécessaire de suivre et qui dictent l’unique manière permise de s’adapter à ce que l’expérience nous fournit de nouveau. Cette conception est celle à laquelle les écrits de Newton sur l’induction faisaient allégeance, du moins officiellement, et c’est aussi celle que professe strictement le bayésien orthodoxe. La seconde conception consiste à dire que nous créons et inventons de nouvelles hypothèses et théories et que nous agissons non seulement par inclination, mais aussi de manière rationnelle lorsque nous les adoptons après avoir pris en considération le témoignage des données qui leur sont favorables, même si elles vont bien au-delà de tout ce que nous aurions pu espérer constituer en mélangeant adaptation aux données et opinions antérieures. Cette conception de la libre entreprise rationnelle de l’esprit (qui requiert un concept permissif de rationalité) a été défendue de manière adéquate par les pragmatistes américains21. »
20Van Fraassen cite W. James22 pour qui
« lorsque nous formons une opinion, nous poursuivons deux buts principaux : croire le vrai et éviter l’erreur. L’intensité avec laquelle nous poursuivons chacun de ces buts, qui nous entraînent dans des directions différentes, doit être pour une part affaire de choix23 […] ». « James illustre ainsi clairement l’une des conceptions traditionnelles de la théorie de la connaissance, qui admet l’existence de sauts rationnels légitimes laissant loin derrière la rassurante sécurité de notre mélange de témoignages-des-données-plus-opinions-antérieures. Comment aurions-nous pu, sinon, adopter jamais rationnellement la haute opinion dans laquelle nous tenons aujourd’hui les théories de Darwin, d’Einstein et de Bohr24 […] ? »
21W. James et, après lui, Van Fraassen préconisent de traiter un énoncé et son contraire25 de manière en partie autonome (« les enquêtes nous entraînent dans des directions différentes »). Partant, une formalisation additive de la cinématique des jugements s’en trouve disqualifiée.
22Les chercheurs du XIXe siècle avaient l’espoir de pouvoir placer les sciences morales sous l’autorité des raisonnements mathématiques, mathématique étant entendu dans le sens très restrictif de méthodes numériques précises. C’est la visée des travaux de Poisson, par exemple, qui intitule son traité Recherches sur la probabilité des jugements en matière criminelle et en matière civile. Poisson renonce à toute évaluation des probabilités de base à partir d’éléments d’évidence. C’est la loi des grands nombres appliquée à des observations a posteriori qui lui permettra d’estimer la probabilité qu’un juge a de ne pas se tromper26. Poisson quantifie les moments 2 et 3 de notre matrice pour « calculer » une décision. Poisson, comme beaucoup d’autres, au XIXe siècle, exprime un fort préjugé en faveur de l’additivité des modélisations de l’incertitude et pour la similitude (et donc l’indépendance) des expériences répétées27.
23En résumé, la grille d’analyse des approches de l’incertitude proposée comporte trois « moments » :
24Ce qui relève de la formation et de la confiance dans des connaissances, des hypothèses, des croyances, et qui porte le regard sur ce qui accrédite ces croyances. Il faut évidemment, I. Hacking nous y a fortement invités, veiller à ne pas confondre ce qui relève d’un lien causal ou explicatif (une problématique théorique) et ce que B. Winters appelle des « considérations de vérité » : les témoignages et les éléments d’évidences.
25Ce qui relève d’un travail de comparaison, de balance, entre des poids, des occurrences. C’est un mode opératoire que l’on voit émerger notamment dans le style d’argument portant sur des effectifs, inauguré par Graunt à propos des épidémies. La première forme achevée se trouve dans la Logique de Port-Royal.
26Ce qui relève de l’action, de la décision, de la conduite. Le premier instrument mathématique de l’inférence, du jugement pour l’action, pour tenter de déterminer ce qu’il convient de faire est la notion d’espérance. On connaît les controverses qu’elle a suscitées, notamment autour du paradoxe de Saint Pétersbourg.
27La formule paradigmatique du « pari mondain28 » peut être représentée par la règle suivante :
28Le joueur J est placé devant le jeu suivant29 : s’il « gage30 » il gagne a avec une probabilité p, il perd b avec une probabilité q (évidemment p + q = 1).
Gain | Perte |
a | b |
p | q |
29Si a surpasse plus b que q surpasse p, c’est-à-dire si ap > bq, on peut « gager ». Ce que nous apprend l’axiome d’Eudoxe31, c’est que si a et b sont de même ordre, même si a est très grand et b très petit, il existe des nombres p et q tels que ap < bq. Autrement dit, même si la promesse de gain est très grande et la perte possible petite, il se peut que « la proportion que toutes ces choses ont ensemble » recommande de ne pas jouer.
« Il est de la nature des choses finies de pouvoir être surpassée, quelques grandes qu’elles soient, par les plus petites, si on les multiplie souvent, ou que ces petites choses surpassent les grandes en vraisemblance de l’événement, qu’elles n’en sont surpassées en grandeur. Ainsi le moindre petit gain peut surpasser le plus grand qu’on puisse imaginer, si le plus petit est souvent réitéré, ou si ce grand bien est tellement difficile à obtenir, qu’il surpasse moins en grandeur que le petit en facilité. Et il en est de même des maux que l’on appréhende, c’est-à-dire que le moindre petit mal peut-être plus considérable que le plus grand mal qui n’est pas infini, s’il le surpasse par cette proportion32. »
30C’est donc là précisément l’invention majeure de cette fin du XVIIe siècle, cette règle de décision pour les affaires mondaines.
Un nouveau probabilisme ?
31En écrivant les Provinciales, Pascal s’attaque au « probabilisme » qui forme un ensemble de maximes que de nombreux casuistes (et parmi eux surtout des jésuites) utilisent pour énoncer les recommandations et les conduites à tenir dans les différents cas de conscience qui leur sont soumis. Parmi ces cas de conscience figurent notamment les questions d’usure et de prêts à intérêts. Peu de temps après la publication de ces Lettres et de la Logique de Port-Royal, les autorités pontificales en viennent à condamner les maximes élaborées par les casuistes pendant près d’un siècle, maximes dont certaines, aujourd’hui, nous sidèrent par leur laxisme moral. La place manque ici pour retracer toutes les péripéties de la signification du terme « probable ». Contentons-nous de noter qu’il passe d’une acception qui entretient la plus grande proximité avec celle de certitude, (tout proche est le glissement de probable vers approuvé puis approuvable par une autorité reconnue33 (les Pères de l’Église, puis d’autres savants) à celle toute différente de « qui peut se produire ». Le point de basculement, pour la signification du terme, et d’ouverture pour les opinions et actions autorisées, paraît être une maxime de Medina (1577) dont l’expression excède les intentions de l’auteur : « Si une opinion est probable, il est permis de la suivre, quand même est plus probable l’opinion opposée. » Cette maxime a un double effet : tout d’abord, elle introduit la conception moderne de la probabilité (elle est susceptible de degré) bien qu’en fait l’auteur ait en vue une acception proche de la conception aristotélicienne, ensuite, elle libère le sujet de son statut de créature (dont l’action ne peut que se conformer à une règle qui la détermine) au profit de décisions qui peuvent prendre en compte des « intérêts » échappant à la juridiction religieuse.
32En recommandant de calculer une bonne décision (la matrice de Port-Royal) – en dehors bien sûr de ce qui relève de la foi, (cf. le fragment des Pensées Infini-Rien) –, Pascal et Port-Royal font plusieurs choses à la fois. D’une part, ils consacrent le concept « moderne » de probable, autorisent la séparation du champ des affaires « terrestres » d’avec celui de la foi, dégagent le croyant de l’obligation de s’en remettre aux autorités ecclésiastiques pour prendre une décision, et résolvent le « scandale » induit par le laxisme du probabilisme, en introduisant une « règle » de décision fondée sur la « pesée croisée » des actions et de leur probabilité (moment 2 de la probabilisation). On peut représenter la matrice du probabilisme sous la forme d’un tableau où la recherche de l’intérêt ne semble plus contrainte par rien.
Probable | Plus probable |
Intérêt plus grand | Intérêt |
33La maxime de Medina, dans sa lecture laxiste, ignore au fond la première ligne du tableau, à la différence de la maxime de Port-Royal. Celle-ci réintroduit une autorité (celle du calcul, de la méthode) là où semblaient pouvoir proliférer des actions sans limite. Elle définit ce qui est raisonnable, au lieu de dicter ce qui est bon. À ce titre, elle contribue à fonder une nouvelle rationalité de l’action.
34Si l’émergence du « probabilisme » percute de plein fouet le dogmatisme religieux, lequel n’avait pas réussi au cours des siècles précédents à formuler des maximes claires et précises permettant de fixer avec certitude les conduites à suivre en toutes circonstances (notamment dans le nouveau contexte marchand et commercial), la règle de Port-Royal reconfigure une règle et par là une autorité qu’il conviendra de suivre. Aujourd’hui, le dogmatisme du savoir réapparaît précisément à travers l’autorité du calcul probabiliste, tendant, de nouveau, à confiner le sujet dans un rôle de simple créature, de créature du marché.
Le postulat d’additivité
35La théorie « classique » des probabilités propose de confondre les trois moments, de rassembler les trois modes opératoires encore distinguables au moment de l’émergence de ce style de raisonnement, en une seule opération intellectuelle qui, du coup, étend, par contamination, le principe d’additivité à l’ensemble du champ.
36Dès le début du XXe siècle, des réserves sont formulées. Dans sa thèse, soutenue en 1906, qui intitulé A treatise on probability, Keynes soutient que l’additivité ne concerne que des situations très particulières. D’une part, en cette période de pensée utilitariste, il défend l’idée que la notion de bien elle-même n’est pas intégralement additive (une part des biens est de caractère « organique » et non atomique et sommable) et, surtout, que les degrés de probabilité ne sont pas toujours numériquement mesurables (« Normal ethical theory at the present day, if there can be said to be any such, makes two assumptions : first, that degrees of goodness are numarically mesurable and arithmétically additive, and second, that degrees of probability also are numerically measurable34. »). Ces hypothèses, au fondement de la théorie éthique « normale » qu’il rejette, forment une condition nécessaire pour introduire la notion d’espérance (déjà critiquée de manière pertinente notamment par D’Alembert au XVIIIe siècle35). Mais, si Keynes souligne les limites de pertinence de l’additivité36, il développera néanmoins une théorie additive de la formation de la croyance rationnelle fondée sur un principe d’indifférence, là où elle lui semble légitime. Il en précise lui-même les limites : il s’agit d’une théorie qui, faisant fond sur des connaissances certaines, appelées propositions primaires, rend compte du poids que l’on peut accorder à des propositions secondaires. Pour Keynes, cette manière de rendre compte de la formation des connaissances est conforme à l’expérience courante. Néanmoins, il souligne que sa théorie devrait être modifiée si, à la différence de son hypothèse de travail, les prémisses primaires ultimes des arguments ne sont que des « connaissances probables37 ». Le procédé n’est donc pas itératif, car à la seconde étape, on n’a plus de certitude sur les propositions secondaires.
37C’est à cet endroit précis que les modélisations récentes de l’incertitude introduisent une mécanique inférentielle dont je voudrais exposer quelques traits. J’utilise l’expression « mécanique inférentielle » et non calcul, même si l’outil informatique permet in fine de produire des résultats numériques, parce que ceux-ci ne peuvent faire l’objet d’une simple arithmétique, et oblige à reprendre à nouveaux frais l’analyse du rapport entre calcul et jugement.
38Deux présupposés implicites conditionnent en fait les approches probabilistes de l’incertitude38 : d’une part, les événements (ou l’ensemble des propositions formulables, des éventualités) peuvent être décrits de manière exhaustive39. D’autre part, on postule l’additivité de la « probabilité » en tant qu’application, c’est-à-dire que la probabilité de p ⁄ q, si p et q sont incompatibles (p et q ne peuvent être satisfaites en même temps) est la somme des probabilités de p et de q. Ce second postulat est lié au premier, lequel doit être examiné de manière minutieuse selon la nature de la situation concernée. Notons que ces conditions pourraient bien n’être que rarement satisfaites, réduisant ainsi l’extension du champ d’application légitime des probabilités. K. Popper a tenté d’engager un programme de recherche sur cette question dès le début des années trente. Il avait convenu avec R. Carnap, qu’il fallait « distinguer clairement, d’une part, les probabilités telles qu’elles sont utilisées en physique, en particulier en mécanique quantique, et qui satisfont aux principes du “calcul des probabilités” ; et d’autre part, ce que l’on appelle la “probabilité des hypothèses”, leur degré de confirmation, ou encore […] leur “degré de corroboration”. K. Popper écrit « Nous nous accordions sur ceci qu’il ne fallait pas présupposer, sans, du moins, de sérieux arguments, que le degré de confirmation (ou de corroboration) d’une hypothèse satisfait aux principes du calcul des probabilités. Nous étions d’accord pour considérer, au vu des arguments développés dans la Logik40, que ce problème demeurait ouvert, et qu’il constituait à vrai dire le problème central41. » Comme nous le savons, R. Carnap n’a jamais donné suite à cet engagement : dans l’ouvrage42 qu’il publie quinze ans plus tard il affirme, sans réellement argumenter, selon K. Popper, que le degré de confirmation d’une hypothèse est une probabilité au sens du calcul des probabilités.
39Modéliser la formation du degré de confirmation d’une hypothèse, sans imposer les postulats du calcul des probabilités, peut éventuellement s’inspirer des théories des possibilités qui prennent en charge une des intuitions de Bernoulli, restée en friche faute d’outils mathématiques suffisamment perfectionnés.
Des modélisations de l’incertitude non additives
40Dans le cadre de ce chapitre, il n’est pas possible de présenter par le menu les procédures de formalisation qui permettent de développer ce qu’on pourrait nommer l’opérationnalité des théories possibilités43. Notons que la formalisation, telle que nous pourrions la présenter, articule des conditions « sémantiques » et « syntaxiques » sans qu’il soit possible de les séparer.
41En outre, s’il y a lieu de parler de calcul, c’est en un sens beaucoup plus large que ce que l’on peut entendre par calculabilité « humainement effective », selon Gödel, puisque la mise en œuvre de la mécanique inférencielle requiert une technologie électronique sophistiquée, les entités sur lesquelles cette mécanique s’applique étant le plus souvent des couples de nombres.
42Le résultat de la procédure se donne également sous la forme d’un couple (même si dans certains choix de formalisation celui-ci peut être considéré comme un intervalle).
43C’est aussi un « calcul » qui, en général, n’est pas « vérifonctionnel » (ou purement syntaxique). Un calcul est dit vérifonctionnel lorsque la valeur de vérité d’un énoncé ne dépend que des valeurs de vérité des éléments qui le composent et non des éléments eux-mêmes. Un calcul qui n’est pas vérifonctionnel présente une forme particulière de dépendance au contexte. Plus précisément, lorsqu’il s’agit de formaliser les procédures de jugement en situation d’incertitude, c’est la configuration du contexte qui oriente le choix des définitions des procédures de calcul et, partant, qui détermine la syntaxe ultérieure de la formalisation, c’est-à-dire la machinerie inférentielle permettant de « modéliser » le jugement.
Enjeux théoriques et politiques liés à ces décisions épistémologiques
44Pour clarifier ce point, il faut revenir sur « ce sur quoi fait fond » le jugement épistémique (au sens large), le premier moment de notre grille. C’est ce que désigne le terme anglais « evidence44 », ce que Bernoulli appelle « cas » et que je nommerai ici « indice » : ce qui paraît soutenir l’indexicalité, la dépendance au contexte. Ces indices ne sont pas eux-mêmes toujours complètement assurés (à la différence du modèle keynésien requérant des connaissances certaines) : ils font individuellement l’objet d’une confiance inégale, partielle, instable. De plus, leur configuration peut prendre des formes différentes selon les situations (être simplement juxtaposés, fortement liés par des liens logiques, emboîtés, etc.). Par ailleurs, la nature du lien entre l’indice et l’énoncé peut être directe, détournée, etc. (Bernoulli en a donné des exemples). Ensuite, le plus souvent, le travail d’examen de la confiance que l’on peut accorder à un énoncé v se mène « en soupesant le pour et le contre », c’est-à-dire que, à la manière d’un procès judiciaire45, l’on constitue un dossier à charge et un dossier à décharge. On enquête simultanément sur v et non v. Enfin, l’enquête sur la validité des énoncés v et non v peut ne pas pouvoir être menée jusqu’au bout : l’urgence de la décision, par exemple, peut l’interrompre. Si on accepte à présent de formaliser l’aboutissement de cette démarche, au moment de la suspension de l’enquête, on aura accordé un poids, un degré de confiance à chacun de ces deux énoncés : p1 exprimera la confiance accordée à v, p2 à non v46 si bien qu’en général, c’est un couple (p1, 1-p2) qui exprimera notre confiance dans un énoncé v. Si nous avons à comparer la confiance que l’on peut accorder à deux propositions différentes, v et v’, il y a évidemment des cas où clairement le couple (p1, 1-p2) pourra être dit supérieur au couple (p’1, 1-p’2). Mais R2 ne peut pas être ordonné de manière compatible avec les opérations usuelles, si bien que dans le cas général, ces deux couples peuvent très bien ne pas pouvoir être ordonnés. Il y a donc à « décider », faire un choix, un pari, certes informé par ces données, mais qui ne s’y réduit pas. C’est dans cet espace de la décision qu’apparaît l’illusoire prétention à calculer le monde. Un tel effort de formalisation de la production du jugement, même en ayant simplifié drastiquement la description des bases de connaissance, invite à restituer à la décision politique partagée toute sa place : l’expertise ne peut remplacer, par le calcul, la responsabilité politique.
45Les théories des possibilités – je nomme ainsi improprement l’ensemble des modélisations de l’incertitude moins exigeantes au niveau axiomatique que la théorie des probabilités, et dont la mécanique calculatoire est donc plus complexe – forment aujourd’hui cette avancée théorique au plus près des procédures effectives de jugement : leur « mise à l’épreuve » par des enquêtes empiriques promet d’être féconde. Mais, surtout, ce qu’il importe de noter ici, est que ce remaniement n’est pas un simple élargissement de la perspective. C’est une profonde mutation de point de vue.
46Dans le cadre de la théorie des probabilités, on considère implicitement que l’on peut distinguer ce qui est un avantage de ce qui constitue un danger47, et qu’on peut leur affecter un poids en fonction de leur degré de probabilité ou de vraisemblance. Calculer l’espérance dans ce cas signifie que l’on prétend adopter une position de surplomb à partir de laquelle la décision s’impose48. Nous ne sommes pas loin du paradoxe. L’invention du calcul des probabilités qui voulait apporter au dogmatisme de la causalité universelle les correctifs nécessaires, se mue ici en un nouveau dogmatisme, éclipsant à son tour la complexité des problèmes.
47Les théories des possibilités ouvrent à nouveau l’espace de décision que la maxime de Port-Royal avait fermé. Un même énoncé, ou événement, peut être envisagé à la fois comme un avantage et un danger, un obstacle et une circonstance opportune. Aucun calcul ne dispense d’un jugement. Les quantifications élaborées ne sont plus qu’une aide à la décision. Celle-ci ne découle plus simplement de la délibération issue des « documents » qui l’étayent. La décision n’est plus l’application de recommandations déduites des expertises techniques, elle est irrémédiablement un pari, requalifiant ainsi le politique, et plus encore l’espace public.
48D’une part, on ne peut plus être totalement assuré que les préférences que l’on s’apprête à faire valoir, toujours fondées sur des informations incomplètes, resteront les meilleures à nos yeux. Elles peuvent évoluer à l’écoute d’informations complémentaires (apportées par d’autres) et de l’exposé des préférences des autres : on a dès lors affaire à des citoyens et non à des individus. D’autre part, aucune position privilégiée, aucun calcul ne garantit la décision issue de la délibération. À la position de surplomb se substitue l’obligation de l’engagement, ouvrant sur un espace public d’expérimentation politique et de responsabilité.
Bibliographie
Des DOI sont automatiquement ajoutés aux références bibliographiques par Bilbo, l’outil d’annotation bibliographique d’OpenEdition. Ces références bibliographiques peuvent être téléchargées dans les formats APA, Chicago et MLA.
Format
- APA
- Chicago
- MLA
Bibliographie
Arnault A. & Nicole P. (1970), La logique ou l’art de penser, Paris, Flammarion.
10.7551/mitpress/1654.001.0001 :Gigerenzer G. & Stelten R. (2001), Bounded Rationality: The Adaptative Toolbox, Cambridge, MIT Press.
Baschet J. (2001), « L’histoire face au présent perpétuel. Quelques remarques sur la relation passé/futur », dans Hartog F. et Revel J. (dir.), Les usages politiques du passé, Éditions de l’EHESS,
Bernoulli J. (1998), L’art de conjecturer, (traduction de J. Peyroux Blanchard).
Berthoz A. (2003), La décision, Paris, Odile Jacob.
Boursin J.-L. (1986), Les structures du hasard. Les probabilités et leurs usages, Paris, Le Seuil.
Carnap R. (1950), Logical Foundations of Probability, Chicago.
Daston L. (1989), « L’interprétation classique des probabilités », Annales ESC, 44e année, no 3, mai-juin.
10.3845/ree.2006.059 :Dubois D. & Prade H, (1988), Théorie des possibilités, Paris, Masson.
Fabre P. A. (à paraître) « Espace mystique et espace politique : la décision ignatienne », dans Fabre P.A., Gruson P., Leclerc-Olive M. (dir.), L’actualité du XVIIe siècle.
Hacking I. (2002), L’émergence de la probabilité, Paris, Le Seuil.
Hartog F. (2003), Régimes d’historicité. Présentisme et expériences du temps, Paris, Le Seuil.
10.5840/tpm1997118 :James W. (1948), « The will to believe » dans Essays in Pragmatism, Hafner, New York.
10.1007/978-1-349-00843-8 :Keynes J. M. (1973), A treatise on probability, Macmillan for the Royal Economic Society.
Leclerc-Olive M. (2003), « Les nouvelles collectivités territoriales, entre aide internationale et pouvoirs locaux : légitimité instrumentale ou légitimité politique ? » dans Lebeau Y., Niane B., Piriou A., Saint Martin (de) M., (éd.), État et acteurs émergents en Afrique, Paris, Karthala.
Poisson S. D. (2003), Recherches sur la probabilité des jugements en matière criminelle et en matière civile, Paris, Éditions Jacques Gabay, (1837).
Van Fraassen B. (1994), Lois et symétries, Paris, Vrin.
Popper K. (1992), Un univers de propensions, L’éclat.
Notes de bas de page
1 Voir Gigerenzer G., Stelten R., (2001), p. 13. Cité par Berthoz A., (2003), p. 11-12.
2 Baschet J., (2001), Voir aussi Hartog F., (2003).
3 Voir par exemple, Leclerc-Olive M., (2003).
4 Boursin J.-L., (1986), p. 133.
5 Le Monde, 12 avril 2001.
6 Il faudrait pour être complet, convoquer des comptes rendus rapportés à la première personne. Voir par exemple, Fabre P. A., (à paraître).
7 Pour Nicolas Bernoulli, l’homme raisonnable est le juge préoccupé d’équité, pour Jacques Bernoulli, c’est plutôt le marchand avisé soucieux de prudence commerciale. Daston L., (1989), p. 716.
8 Daston L., op. cit. p. 726.
9 S’il apparaît que le principe d’« indifférence » s’applique, on pourra se contenter de les dénombrer.
10 Voir Hacking I., (2002), p. 133.
11 L’opération de comparaison n’a pas cependant complètement disparu puisqu’il subsiste, même si elle n’est pas quantifiée, des opérations d’évaluation de la cohérence entre les divers énoncés ultimes prononcés.
12 Rendu possible par la maîtrise des méthodes de dénombrement.
13 Voir par exemple les tentatives de formalisation de ce calcul par J. Bernoulli. On verra plus loin que Poisson, au XIXe siècle se dispense de cette enquête.
14 Voir par exemple, Al-Ghazali, Vivification des sciences de la foi, III, 365, I, 19. Ce texte est cité par Miguel Asin Palacios, dans Huellas del islam, 1920.
15 Arnault A., Nicole P., (1970), p. 430.
16 Cité par Hacking I., p. 150.
17 Bernoulli J., (1998), p. 157. Ces travaux qui ne postulent pas une additivité a priori, ont longtemps été négligés par l’histoire de la pensée probabiliste.
18 Voir par exemple Van Fraassen B., (1994) p. 452.
19 Par analogie avec la conception prussienne de la loi : tout ce qui n’est pas explicitement permis est interdit.
20 Van Fraassen B., (1994), p. 279.
21 Ibid., p. 280.
22 James W., (1948),
23 Il faut entendre ici la mécanique bayésienne.
24 Ibid., p. 281.
25 Qui fait écho, on l’aura vu, au couple liberté positive, liberté négative, ou encore aux deux sortes d’erreur que l’on commet lorsqu’on applique un test statistique.
26 Poisson S. D., (2003), p. 368.
27 Le débat entre Bienaymé et Poisson est à cet égard très éclairant.
28 Par opposition au « pari existentiel » du fragment Infini-Rien des Pensées de Pascal.
29 Un exposé plus détaillé de cette approche anthropologique du pari est présenté dans M. Leclerc-Olive, Gestion de l’incertitude et temporalités, à paraître. En toute rigueur, ce tableau ne devrait pas être présenté en termes de probabilités, mais de « chances », ce qui est fait dans ce dernier texte.
30 Par exemple en misant b dans un jeu où, si J gagne, il touche a + b.
31 Que Pascal attribue à Archimède. Gardies J.-L., Pascal entre Eudoxe et Cantor, op. cit.
32 Arnault A., Nicole P., (1970), p. 430.
33 Cette acception du terme probable est particulièrement ébranlée par la « découverte du Nouveau Monde » et la révolution copernicienne. La controverse de Valladolid et la première publication de la conception copernicienne sont contemporaines. Le sens ancien de probable, lié à une autorité incontestable ne peut plus servir de prémisse assurée, on ne le retrouvera que comme conséquence, certifiée par le « syllogisme probabiliste ».
34 Keynes J. M., (1973), p. 343.
35 Ibid., p. 347.
36 Ibid., p. 29-30.
37 Ibid., p. 18.
38 C’est le travail d’axiomatisation des probabilités de Kolmogorov (1933) qui met au jour ces présupposés.
39 Van Frassen inclut même l’équiprobabilité parmi ces exigences.
40 Publié en français sous le titre La logique de la découverte scientifique, Payot, 1992.
41 Popper K., (1992), p. 24.
42 Carnap R., (1950).
43 Dubois D., Prade H, (1988).
44 Traduit par « mise en évidence » ou « évidence factuelle » par exemple dans l’ouvrage de Hacking I., (2002).
45 La métaphore du procès judiciaire a ses limites : une argumentation pour gagner, pour faire valoir son point de vue et une argumentation réglée sur la recherche de la vérité, ne sont pas réglées sur les mêmes visées.
46 Sans perte de généralité, on peut supposer que ces deux nombres sont compris entre 0 et 1.
47 Arnault A., Nicole P., (1970), p. 427.
48 Notons que cette opération de quantification de l’incertain est celle qui a permis de découpler peu à peu l’éthique de l’action économique.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Le développement solidaire des territoires
Expériences en Pays de la Loire
Emmanuel Bioteau et Karine Féniès-Dupont (dir.)
2015
Aide à domicile et services à la personne
Les associations dans la tourmente
Francesca Petrella (dir.)
2012
L'économie sociale entre informel et formel
Paradoxes et innovations
Annie Dussuet et Jean-Marc Lauzanas (dir.)
2007
L'économie sociale et solidaire
Nouvelles pratiques et dynamiques territoriales
Erika Flahault, Henri Noguès et Nathalie Shieb-Bienfait (dir.)
2011
L'entreprise en restructuration
Dynamiques institutionnelles et mobilisations collectives
Claude Didry et Annette Jobert (dir.)
2010
Épargnants solidaires
Une analyse économique de la finance solidaire en France et en Europe
Pascal Glémain
2008
Institutions et développement
La fabrique institutionnelle et politique des trajectoires de développement
Éric Mulot, Elsa Lafaye de Micheaux et Pepita Ould-Ahmed (dir.)
2007