6. L’essentialisme
p. 100-115
Texte intégral
Nous sommes en présence d’une
des principales causes de la confusion philosophique : essayer,
derrière le substantif, de trouver la substance.
Ludwig Wittgenstein, Le Cahier bleu, p. 25.
Les définitions ne sont faites que pour désigner
les choses que l’on nomme, et non pas pour en montrer la nature.
Blaise Pascal, Œuvres complètes, p. 350.
Le nominalisme méthodologique
1Si l’on essaye de remonter à l’origine du « dogme rationaliste » d’une coupure radicale entre le sens commun et la science, on découvre qu’elle se situe dans la conception platonicienne de l’épistémê, science réelle et vraie, opposée à la doxa, l’opinion fluctuante, soumise aux aléas des discours désordonnés qui parcourent la Cité, discours sans référence, sans fondement, lieux du bruit et de la fureur. La conception classique de l’objectivité est liée, jusqu’à Kant (ou même après lui), à la quête de la certitude, voire du savoir absolu de l’essence des choses, de l’épistémê. Le faillibilisme, depuis Peirce et Einstein, s’oppose catégoriquement à cette vue, en considérant que la science n’est ni plus ni moins que doxa, c’est-à-dire qu’elle participe des caractères du premier genre de connaissances de Spinoza, « sujette à l’erreur et (qui) n’a jamais lieu à l’égard de quelque chose dont nous sommes certains mais à l’égard de ce que l’on dit conjecturer ou supposer » (Court Traité, ii, § 2, p. 91). Le point de vue inverse, celui qui considère que la science contient autre chose que des hypothèses testables plus ou moins corroborées, est une forme typique d’essentialisme (cf. CR, p. 26).
2L’essentialisme, recherche de l’essence, quête de l’absolu, ou encore de l’explication ultime, irréfutable, est considéré par Popper non seulement comme une des clés de l’histoire de la connaissance mais encore comme un des obstacles les plus forts au développement d’un rationalisme critique conséquent.
3Les caractères saillants de l’essentialisme selon Popper sont les suivants :
- La connaissance est recherche, par-delà le devenir, de l’essence des choses ;
- La science vise à l’épistémê, c’est-à-dire à une connaissance totalement justifiée et certaine ;
- La méthode de la science est donc la recherche des définitions réelles des termes, celles qui donnent l’essence (cf. CR, p. 103).
4Après avoir dominé l’histoire de la philosophie jusqu’à Kant, l’essentialisme (en particulier les théories de la substance, ou ousiologies), s’est trouvé remis en cause par le développement même des sciences qui n’ont plus besoin des questions « qu’est-ce que » pour progresser (au contraire, ces questions sont autant d’obstacles épistémologiques, en sociologie par exemple : cf. MH, p. 31).
5La science pratique un « nominalisme méthodologique » qui consiste :
- à ne pas rechercher l’irréfutable ;
- à ne considérer les définitions que comme des abréviations (OS ii, chap. 11, p. 14).
6La définition nominaliste, à l’encontre de la définition aristotélicienne (cf. par ex. Topiques i, 5, 101 b36 ; An Post ii, 3, 91 a1, etc.), n’est qu’un outil technique, elle n’apporte aucune information et se lit « de droite à gauche » (OS, ibid.). Toute autre utilisation de la définition est appelée essentialiste. On ne se posera donc plus de questions du genre « qu’est-ce que X ? », ni du genre « quel est le sens du terme X ? », qui n’en est que la traduction moderne1. Les définitions n’ont qu’une importance secondaire, pragmatique, et non pas du tout principielle et fondatrice comme dans la tradition aristotélicienne. Il n’est pas dit cependant que toute tentative en vue de définir un concept est essentialiste. En effet, certaines définitions, par exemple les équations fondamentales de la physique, sont en fait des hypothèses et doivent être traitées comme telles : il en est ainsi de la « définition » einsteinienne de la simultanéité :
Ce n’était pas parce que son sens (meaning) était imprécis ou ambigu, mais à cause d’une théorie intuitive qui nous induisait à charger le terme de trop de sens, ou avec un sens trop « précis », plutôt qu’avec trop peu de sens, que ce terme a fait problème.
OS ii, p. 20
7Einstein n’était pas « réellement concerné par une question de signification d’un terme, mais plutôt une question de vérité d’une théorie ». Il n’aurait rien fait avancer s’il avait « essayé d’améliorer le concept de simultanéité en analysant sa “signification essentielle”, ou même en analysant ce que les physiciens “veulent réellement dire” lorsqu’ils parlent de simultanéité ». L’intérêt d’un concept est proportionnel à l’appareil théorique d’hypothèses (réfutables) qu’il suppose ; autrement dit à la situation de problème qui le caractérise.
8Popper a d’abord cru bon de référer sa problématique au fameux problème des universaux, redéfinissant la position « réaliste » par le terme d’« essentialisme » (où l’on voit la juste place des considérations terminologiques : éviter les ambiguïtés. Ici le terme « réalisme » prête à confusion ; cf. MH, p. 26 et PKP, p. 13). « On considère habituellement que c’est un problème métaphysique ; mais il peut, comme la plupart des problèmes métaphysiques, être reformulé de manière à devenir un problème de méthode scientifique. » (MH, p. 25) Le nominalisme de Popper est donc purement méthodologique. Il est certain d’ailleurs que le nominalisme moderne, aussi bien chez Russell (théorie des types et théorie des descriptions) que chez Quine, est avant tout guidé par des considérations méthodologiques. Mais certains nominalistes font comme s’ils pensaient qu’un nominalisme ontologique est nécessaire pour fonder une méthodologie nominaliste, alors que pour Popper les deux ne sont pas liés (cf. pour le cas d’un nominalisme ontologique couplé à un essentialisme méthodologique, la référence à Hobbes in OS, ii, p. 291).
9Popper résume sa position par la considération de la table suivante :

10Or, la thèse de Popper, opposée à la fois aux « explications de concepts » carnapiennes et aux « analyses » de la philosophie du langage, est la suivante : « En dépit de la parfaite analogie entre la gauche et la droite du tableau, le côté gauche est philosophiquement non important, tandis que le côté droit est philosophiquement très important. » (PKP, p. 15) La thèse combattue est celle selon laquelle « le sens d’une théorie (grammaticalement formulée de manière non ambiguë) est fonction du sens des mots dans laquelle elle est formulée » (id.). En fait, les mots ont dans l’énoncé d’une hypothèse le même statut que les lettres dans l’écriture d’un mot. Ils jouent purement et simplement « un rôle technique ou pragmatique ». On peut ainsi montrer l’équivalence de deux théories T1 et T2 en construisant une théorie plus riche en T3 dans laquelle T1 et T2 peuvent être traduits.
On en a des exemples avec les diverses axiomatisations de la géométrie projective, et aussi avec les formalismes en termes de particules et en termes d’ondes de la mécanique quantique, dont l’équivalence peut être établie en les traduisant tous les deux dans un langage opératoire.
PKP, p. 16
11Non que les mots n’aient aucune importance : pas plus que les lettres, ils ne peuvent être changés sans règles d’équivalence strictes, comme quiconque intéressé par l’interprétation de Parménide, par exemple, peut s’en rendre compte. Car toute traduction est une interprétation du texte original. On peut même dire que « toute bonne traduction d’un texte non trivial est une reconstruction théorique » (ibid.). Une traduction précise d’un texte difficile n’existe pas. Et si deux langages ont une structure différente, « certaines théories peuvent être presque intraduisibles ». La quête de la précision est analogue à la quête de la certitude et toutes deux doivent être abandonnées (ibid., p. 17). En effet, « il est toujours indésirable de faire un effort de précision pour la précision – surtout la précision linguistique – puisque cela conduit habituellement à une perte de clarté, et à une perte de temps et d’efforts sur des préliminaires qui s’avèrent être inutiles parce qu’ils sont dépassés par le progrès du sujet lui-même : on ne devrait jamais essayer d’être plus précis que ne le demande la situation de problème » (PKP, p. 17). Alors que le progrès en clarté constitue une valeur intellectuelle en soi, « un progrès en précision ou en exactitude a seulement une valeur pragmatique comme moyen en vue de quelque fin définie ». L’intérêt d’une théorie n’est pas dans le sens de ses termes mais dans « sa relation logique à la situation de problème dominante ; sa relation aux théories précédentes en compétition ; sa capacité à résoudre des problèmes existants et à en suggérer de nouveaux » (p. 18). Il n’existe pas de concepts « précis » au sens de Frege : tels que pour tout objet x on puisse décider s’il tombe ou non sous leur juridiction (Écrits logiques et philosophiques, p. 93, cité in PKP, p. 21). En fait, il est clair que l’on doit arriver bientôt, par le jeu des définitions, à des concepts indéfinis, ou termes primitifs. Ceux-ci peuvent être définis : 1) selon l’usage et 2) implicitement. Or, les définitions implicites font dépendre le sens des concepts de celui de la théorie, et les théories peuvent être interprétées de plusieurs manières. Ainsi, les concepts définis implicitement sont-ils « systématiquement ambigus ». Des concepts non ambigus n’existent pas. La croyance de Frege reposait sur son logicisme : il croyait qu’il y avait des termes intrinsèquement indéfinissables, suivant le fait que « ce qui est logiquement simple ne peut avoir de définition propre » (p. 128). Toutes les préoccupations conceptuelles (et terminologiques ; Popper malheureusement donne parfois à penser qu’il ne distingue pas) doivent être ad hoc et dépendre de la « demande » théorique (problématique). Les concepts ne sont que des outils (PKP, p. 23), et c’est le problème qui leur donne sens : c’est le problème d’Einstein (les asymétries dans l’électrodynamique des corps en mouvement) qui rend compte de son « analyse » de la simultanéité et non l’inverse (ibid.). La méthode ad hoc de traiter des problèmes de précision et de clarté pourrait être appelée « dialyse », afin de la distinguer de I’analyse : la dialyse ne peut résoudre de problème (ibid.).
Essence et explication ultime
12Le principe méthodologique général : « Ne vous querellez pas au sujet des mots ! » est donc l’expression d’une des conditions de possibilité de l’aptitude d’un discours et d’un échange argumenté à la critiquabilité intersubjective, c’est-à-dire à ce que l’on appelle l’objectivité scientifique2. L’exhortation antiessentialiste est enfin à la base d’une conception positive de la philosophie comme maniement de problèmes et de théories, conception susceptible d’engendrer une véritable réforme de la philosophie et aussi des sciences humaines (cf. Préface de la LDS et CR, p. 66 sq.). La conception nominaliste de la recherche s’opposant à toute enquête sur la « nature essentielle » d’objets hypostasiés (l’art, la société, le sens, etc.) va en effet à l’encontre de toute une tradition selon laquelle la philosophie est « analyse de concepts » avant d’être établissement de problèmes, discussion du sens des mots avant d’être proposition de théories, ou, en termes wittgensteiniens, élucidation avant d’être explication. On peut reprocher à Popper à ce niveau une certaine rapidité qui le conduit à considérer que toute préoccupation centrée sur le sens des mots est liée à une méthodologie essentialiste. À cela le « second » Wittgenstein offre un contre-exemple éclatant.
13L’une des manifestations les plus courantes de l’essentialisme épistémologique est la croyance « naturaliste » en l’existence d’« objets » antérieurs à la théorisation, existence qui impliquerait des distinctions « réelles » entre les différents savoirs :
La croyance qu’il existe quelque chose comme « la » physique, « la » biologie ou « l’ » archéologie et que ces « disciplines » peuvent être distinguées par le sujet (subject matter) dont elles traitent, m’apparaît comme un résidu de l’époque où l’on croyait qu’une théorie doit partir d’une définition de son objet.
CR, p. 67
14De tels « objets » ne constituant pas une base pour distinguer ou classifier les sciences :
Les disciplines sont distinguées en partie pour des raisons historiques et de convenance administrative (comme l’organisation de l’enseignement et du recrutement des chercheurs) et en partie parce que les théories que nous construisons pour résoudre nos problèmes ont une tendance à croître en systèmes unifiés (tendance qui peut être expliquée par le principe selon lequel des explications théoriques sont d’autant plus satisfaisantes qu’elles sont soutenues par des corroborations indépendantes. Pour cela une théorie doit s’étendre (must be sweeping). (ibid.)
15Toutes ces classifications sont inopérantes et non pertinentes : « Car nous n’étudions pas des objets mais des problèmes. Et les problèmes peuvent traverser les frontières de toute discipline ou de tout “objet” (subject matter). » (Ibid.)
16D’une manière générale, la question essentialiste se présente sous la forme d’une interrogation du genre : « Qu’est-ce que (la science, la philosophie, la matière, le temps, etc.) ? ». La réponse que l’on attend est une définition, ou description d’une essence. L’essence est ce qui est commun aux états différents d’une chose au cours de son devenir, elle est même réalisée dans ces états de choses possibles :
En effet, si le principe d’une chose, qui reste identique ou inchangé quand la chose change, est son essence (ou idée, ou forme, ou nature, ou substance), alors les changements auxquels est soumise la chose, mettent en lumière des côtés ou aspects ou possibilités différentes de la chose et par conséquent de son essence. Par suite, l’essence peut être interprétée comme la source des possibilités inhérentes de la chose et les changements comme la réalisation ou l’actualisation des potentialités cachées de son essence (c’est une théorie que l’on doit à Aristote). (
MH, p. 32
17De là provient le lien entre essentialisme et historicisme. Ce point est important du fait que si « la plupart des gens admettent que le nominalisme méthodologique (a) été victorieux dans les sciences naturelles » (MH, p. 28), c’est-à-dire, si l’on ne pose plus des questions du genre « Qu’est-ce que l’énergie ? », « Qu’est-ce qu’un atome ? » ou « Qu’est-ce que la vie ? » (cf. OS i, p. 32 et MH, p. 28), en revanche les sciences historiques et sociales constituent le refuge privilégié de l’essentialisme (MH, p. 29 et PKP, p. 14).
18Pour comprendre en quoi l’essentialisme est à combattre, on doit se référer à ce qui en constitue la base : la doctrine de la science comme épistémê, ou plus précisément, la théorie de l’explication ultime :
La doctrine essentialiste que je conteste est purement et simplement la doctrine selon laquelle la science vise à des explications ultimes : c’est-à-dire des explications qui (par nature) ne peuvent être à leur tour expliquées et qui n’ont pas besoin de l’être.(
CR, p. 105
19C’est ainsi que le rejet de l’essentialisme se présente sous trois aspects :
- Rejet de l’idée d’explication ultime : « Toute explication peut être à son tour expliquée, par une théorie ou conjecture d’un plus haut degré d’universalité. Il ne peut y avoir d’explication qui n’a pas elle-même besoin d’explication, car aucune ne peut être une description autoexplicative d’une essence (telle la définition essentialiste de la substance corporelle par Descartes). » (OK, p. 195)
- Rejet des questions « qu’est-ce que ? ». On doit renoncer à l’idée, caractéristique de l’essentialisme, que « dans chaque chose il y a une essence, une nature inhérente ou principe (tel que l’esprit du vin dans le vin) […] Cette vue animiste n’explique rien » (ibid.).
- Rejet du point de vue selon lequel « ce sont les propriétés essentielles inhérentes à chaque individu ou chose singulière qui peuvent être invoquées pour expliquer le comportement de cette chose » (ibid.). Si l’on refuse la théorie platonicienne de l’explication de la diversité du sensible par la copie de Formes originelles transcendantes, il faut concevoir l’explication en termes de lois universelles décrivant des propriétés structurales du monde, auxquelles se soumettent les individus. « Les lois (qui à leur tour exigent d’être expliquées) expliquent les régularités ou similarités des individus ou des évènements singuliers. Et elles ne sont pas inhérentes aux choses singulières. » (p. 196)
20Alors que l’histoire des sciences peut dans une certaine mesure être décrite comme passage d’éléments autoexplicatifs à d’autres éléments autoexplicatifs3, ce que l’on pourrait appeler le « nouvel esprit scientifique » consécutif aux révolutions einsteinienne et quantique se définit peut-être par le remplacement de la notion ontologique d’autoexplicatif par la notion méthodologique d’hypothèse primitive (provisoirement) inexpliquée4.
21Le problème le plus délicat est peut-être de savoir s’il est toujours possible de distinguer si une question donnée est une « question de fait » ou une « question de mots ». On peut rapprocher, comme le fait J. Bouveresse, cette difficulté de la fameuse dispute engagée par Quine à propos du « dogme empiriste » de la distinction tranchée entre énoncés analytiques et énoncés synthétiques5. Prétendre qu’il est possible de distinguer les questions de faits des questions de mots revient en effet à considérer que l’on est capable de faire une distinction tranchée entre ce qui est du ressort de la signification et ce qui donne des informations extralinguistiques, ou encore, en termes imagés, qu’il est possible de distinguer un pur dictionnaire d’une encyclopédie6, la thèse de Popper étant alors que les dictionnaires ne sont que des outils, tandis que les encyclopédies contiennent du savoir. Dans cette optique, « tout le problème est justement de distinguer entre les questions terminologiques qui sont purement terminologiques (c’est-à-dire effectivement de pure convention ou commodité) et les questions terminologiques qui sont en même temps conceptuelles ou théoriques7 ».
22La réponse de Popper serait qu’il ne faut pas poser le problème en termes essentialistes : n’importe quelle question peut être prise soit comme question de mots soit comme question de faits. C’est le contexte qui décide. Même les bonnes questions peuvent être transformées en questions verbales. Ce mouvement constitue d’ailleurs une des tendances naturelles du savoir, et en particulier de la philosophie : « Toute philosophie, et spécialement tout « école » philosophique, peut dégénérer de telle manière que ses problèmes deviennent impossibles à distinguer d’un babil dénué de sens. » Cette dégénérescence est la conséquence de la croyance erronée selon laquelle « on peut philosopher sans y avoir été obligé par des problèmes qui proviennent du dehors de la philosophie – mathématiques, cosmologie, politique, religion ou rapports sociaux » (CR, p. 71).
23Si l’on perd de vue cette signification originelle du problème, sa discussion est prête à devenir une discussion purement verbale, ou « scolastique ». Il n’y a donc pas deux catégories de questions différant « essentiellement », mais deux attitudes opposées – dont la seule qui soit compatible avec le rationalisme critique est l’antiverbalisme : puisqu’aussi bien « parler clairement, c’est parler de telle manière que les mots n’ont pas d’importance » (OS, ii, p. 296). Cette attitude critique n’est exagérée que dans la mesure où pour redresser un bâton, il faut le tordre dans le sens inverse. Pour réformer la philosophie, il faut lui faire violence, quitte à sacrifier des nuances.
Instrumentalisme et conventionnalisme
24Nous avons évoqué l’importance accordée par Popper au langage en tant que condition de possibilité de l’objectivité. Mais si la médiation linguistique est nécessaire à la constitution de l’objet scientifique, quel est exactement son statut ? Ne faut-il pas en venir à faire de l’objectivité un problème de langage ? Et si la science n’est qu’une langue bien faite, la construction de l’objectivité expérimentale se réduit-elle à la « traduction d’un fait brut dans un certain langage8 » ? En ce sens, une tradition que l’on peut faire remonter au moins à Osiander, préfacier de Copernic, et surtout à Berkeley (cf. CR, p. 166 : « A note on Berkeley as precursor of Mach and Einstein »), et que l’on peut appeler l’instrumentalisme, insiste sur le rôle purement technique des théories et prétend dénoncer « l’illusion » réaliste. Cette tradition repose sur la thèse « selon laquelle les théories ne sont rien d’autre que des règles de calcul (ou d’inférence), du même type que les règles des sciences dites “appliquées”. On peut même la reformuler comme étant la thèse selon laquelle “science pure” est un terme dénué de sens, et selon laquelle toute science est “appliquée” » (CR, p. 111). Or il existe une différence fondamentale, masquée par un jeu de mots, une homonymie, entre une théorie et une règle technologique : une théorie est testée, c’est-à-dire que l’on essaye de la réfuter, tandis qu’une règle est simplement appliquée :
Une théorie est testée non seulement en étant appliquée ou essayée, mais en étant appliquée à des cas très particuliers – cas pour lesquels elle produit des résultats différents de ceux qui nous aurions attendus sans elle ou à la lumière d’autres théories.
CR, p. 112
25Une théorie, dans l’optique poppérienne, contraire à toutes les tentatives de logique inductive probabilitaire, est d’autant plus corroborée que le résultat du test est moins attendu ou encore moins « probable » : plus le contenu croît, moins cet énoncé est logiquement probable. Ainsi, « la recherche d’une haute probabilité ne peut-elle être l’un des buts de la science » (CR, p. 286). Cela peut sembler paradoxal : « Mais si la haute probabilité était l’un des buts de la science, les scientifiques diraient aussi peu de choses que possible, et préfèreraient énoncer des tautologies seulement. » Or le but immanent à la science, par définition, c’est de « progresser, c’est-à-dire d’augmenter son contenu » (ibid.). Il s’agit de gagner de l’information et non de la certitude. Dans le même esprit, Peirce écrivait que « La meilleure hypothèse […] est celle qui peut être le plus facilement réfutée si elle est fausse, ce qui l’emporte de loin sur l’insignifiant mérite d’être probable9 ».
26En aucun cas on ne saurait « tester » un instrument en ce sens :
Un fuselage d’avion peut être « testé » jusqu’à la destruction, mais ce test sévère est entrepris non pour rejeter tout fuselage lorsqu’il est détruit, mais pour obtenir des informations sur lui (c’est-à-dire pour tester une théorie à son sujet), de telle manière que l’on puisse l’utiliser à l’intérieur des limites de son applicabilité.
CR, p. 112-113
27Les tests sont toujours plus ou moins des expériences cruciales, selon l’expression de Bacon. Ainsi, contrairement à ce que dit, après bien d’autres, Putnam, dans son article, par ailleurs très suggestif, sur la corroboration des théories (PKP, i, p. 221-240), Popper a toujours soutenu que la réfutation d’une théorie ne pouvait être le fait de la seule base expérimentale, mais qu’entraient toujours plus ou moins en jeu des « théories de rechange (alternative theories) » :
Dans la plupart des cas, lorsque nous falsifions une hypothèse, nous en avons une autre en réserve. En effet, l’expérience falsifiante est habituellement une expérience cruciale destinée à décider entre ces deux hypothèses, c’est-à-dire qu’elle a été suggérée par le fait que les deux hypothèses diffèrent à certains égards et elle utilise cette différence pour réfuter l’une d’entre elles (au moins).
LDS, p. 85, n. 1
28La critique de l’expérience cruciale s’incarne dans la « thèse Duhem-Quine », selon laquelle « dans chaque test ce n’est pas seulement la théorie en question qui est impliquée mais aussi la totalité de nos théories et suppositions – en fait, plus ou moins la totalité de notre connaissance, de telle manière que nous ne pouvons jamais savoir quelle supposition a été réfutée » (CR, p. 112). Selon la thèse, ce n’est jamais une assertion isolée qui comparait devant le tribunal de l’expérience, mais tout un système d’assertions10.
29Il est vrai selon Popper qu’aucune expérience ne peut vérifier ou établir une théorie. Mais il est faux que l’on ne puisse en principe choisir entre deux théories qui donnent des réponses différentes au test alors que le reste des connaissances et des explications qu’elles supposent est identique, ce choix devant pouvoir s’effectuer pour des raisons parmi lesquelles les facteurs d’ordre rationnel devraient pouvoir occuper une place prépondérante (cf. Widsom, in PKP, ii, p. 831).
30Par ailleurs, comme l’a montré Jules Vuillemin11, il existe des différences importantes entre la thèse de Duhem et celle de Quine, qui tiennent essentiellement au fait que si Duhem postule le dualisme de la connaissance scientifique et de la connaissance commune, Quine postule leur continuité. Duhem affirme la neutralité métaphysique de la science, tandis que Quine affirme qu’elle comporte des « engagements ontologiques ». Le flou des positions poppériennes à ce sujet, qui tiennent peut-être à une insuffisante prise en compte du problème sémantique de la référence des concepts et des théories, et également des problèmes spécifiquement ontologiques (qu’il considère comme traductibles en termes de méthodologie), est susceptible d’expliquer dans une certaine mesure la difficulté qu’il a à répondre de manière satisfaisante au défi de Quine (on en dirait autant de sa position sur le problème de l’analyticité).
31La discussion du noyau commun des deux thèses de Duhem et de Quine demanderait un approfondissement.
Approfondissement d’ordre logique : nature de l’axiomatisation et problème de la réfutation d’un sous-système
Dans une théorie axiomatisée, il est possible de rechercher les liens d’interdépendance qui unissent les différentes parties du système […] Des recherches de ce genre montrent pourquoi la falsification d’un énoncé déduit logiquement d’un système peut ne pas affecter le système tout entier, mais seulement l’une de ses parties […] Ceci est possible parce que les théories de la physique – bien que n’étant en général pas complètement axiomatisées – peuvent présenter entre leurs différentes parties des liaisons suffisamment claires pour nous permettre de décider quels sont les sous-systèmes touchés par une observation falsifiante particulière.(
LDS, p. 70
Approfondissement d’ordre historique
32Existe-t-il effectivement dans l’histoire des sciences des évènements tels que des « expériences cruciales » ? Popper pense que oui, et en un sens toute sa philosophie des sciences peut être considérée comme une réflexion à propos d’un cas paradigmatique : l’expérience de Michelson-Morley (cf. les index de LDS, CR, OK, PKP).
33La croissance de la connaissance requiert au moins trois éléments d’ordre épistémologique (CR, p. 241) :
- La nouvelle théorie doit procéder « à partir d’une idée unifiante, simple, nouvelle et puissante ayant trait à quelque connexion ou relation (telle que l’attraction gravitationnelle) entre des éléments jusqu’alors non connectés (tels que des planètes et des pommes), des « faits » (tels que la masse inertielle et gravitationnelle) ou de nouvelles « entités théoriques » (tels que les champs et les particules) ». C’est le réquisit de simplicité, dont Popper a montré dans la LDS qu’il pouvait en partie être analysé logiquement en termes de degré de testabilité (p. 136-145).
- La nouvelle théorie doit être indépendamment testable (cf. OK, p. 192). Ce réquisit a en partie pour but de « restreindre l’étendue de notre choix parmi les solutions possibles (dont beaucoup sont sans intérêt) d’un problème donné » (CR, p. 242).
- Enfin il est requis qu’une théorie doive passer plusieurs nouveaux tests sévères (ibid.). Ce réquisit « matériel », de « succès empirique », est d’un autre ordre que les deux premiers. Il ne met pas seulement en jeu la tentative d’évitement du conventionnalisme mais aussi la notion même de progrès des connaissances. C’est à rapprocher de ce que Jerzy Giedymin (« A generalization of the refutability postulate », cité dans CR, p. 244, n. 29) appelle la lutte contre les « stratégies dictatoriales » : le principe méthodologique général de l’empirisme doit exclure la possibilité que nous puissions « toujours gagner le jeu joué en accord avec nos règles : la Nature doit pouvoir nous battre au moins de temps en temps ».
34Ainsi, « le système de Ptolémée n’était pas réfuté lorsque Copernic produisit le sien. Et bien qu’ait eu lieu, avant Einstein, l’expérience embarrassante (puzzling) de Michelson et Morley, celle-ci avait été expliquée avec succès par Lorentz et Fitzgerald » (CR, p. 246).
35Mais c’est précisément dans des cas tels que ceux-ci que les expériences cruciales deviennent d’une importance décisive :
Nous n’avons pas de raison de regarder la nouvelle théorie comme meilleure que l’ancienne […] avant que nous en ayons dérivé de nouvelles prédictions que l’on ne pourrait obtenir à partir de l’ancienne théorie (les phases de Vénus, les perturbations, l’équation masse-énergie) et que nous ayons constaté le succès de ces prédictions […] Si la nouvelle théorie a été réfutée à l’occasion d’une de ces expériences cruciales, nous n’avons aucune raison d’abandonner l’ancienne, même si elle n’est pas entièrement satisfaisante. […] Nous avons besoin de la nouvelle théorie pour faire ressortir le point où l’ancienne était déficiente. La situation est différente si la déficience de l’ancienne théorie est déjà connue avant que ne soit inventée la nouvelle ; mais logiquement […] on peut considérer une théorie qui conduit à de nouvelles expériences cruciales (l’équation masse-énergie d’Einstein) comme étant supérieure à une théorie qui se contente de sauver les phénomènes connus (Lorentz-Fitzgerald).
CR, p. 246
36Lakatos a proposé (CGK, p. 184-188) de distinguer une interprétation faible (plutôt celle de Duhem) et une interprétation forte de la thèse D.Q. (plutôt celle de Quine12).
37L’interprétation faible dénie la possibilité d’une preuve contraire (disproof) d’une quelconque composante séparée d’un système théorique, tandis que l’interprétation forte exclut toute possibilité de sélection rationnelle entre les branches d’une alternative. Selon Lakatos, l’interprétation faible ne serait en désaccord qu’avec un « falsificationnisme dogmatique », qui porterait à croire au caractère conclusif d’une réfutation et serait par conséquent en opposition complète avec tout ce qu’a toujours dit Popper. L’interprétation forte que Feyerabend reprend, bon gré, mal gré, à son compte, tout en s’opposant à la « science normale » de Kuhn13, est en revanche selon Lakatos en opposition totale avec toute forme de « falsificationnisme méthodologique ». La thèse faible a pour elle qu’il est toujours possible, avec assez d’imagination, de trouver une possibilité de restaurer la consistance d’un modèle déductif avec une régularité observationnelle en modifiant l’une quelconque des prémisses du modèle en une quelconque partie distante de notre connaissance. Proche en cela de Popper, et plus qu’il ne croit semble-t-il, Lakatos soutient l’idée selon laquelle :
Le falsificationnisme sophistiqué permet que n’importe quelle partie du corps de la science soit remplacée mais seulement à la condition qu’elle soit remplacée dans une voie « progressiste » (progressive), c’est-à-dire que le remplacement couronné de succès anticipe de nouveaux faits .
CGK, p. 187
38C’est l’une des raisons pour lesquelles « la direction de la science est déterminée en premier lieu par l’imagination humaine et non par l’univers des faits qui nous entoure ». Ainsi, le réquisit central est celui qu’il appelle de « Leibniz-Whewell-Popper (selon lequel) la construction planifiée de casiers (pigeon holes) doit procéder plus rapidement que l’enregistrement des faits qui seront logés en eux » (CGK, p. 188).
Approfondissement d’ordre linguistique ou sémantique
39Dans quelle mesure est-on fondé à dire d’un système qu’il puisse être rigoureusement intraduisible dans un autre (thèse dite de Sapir-Whorf), ce qui permet de soutenir qu’une théorie physique, considérée en tant qu’espèce particulière de langage (le langage étant déjà une théorie), puisse être « incommensurable »14 avec une autre. Une telle doctrine, que Popper combat sous le nom de « mythe du cadre de référence » (cf. « The myth of the framework »), est solidaire dans une certaine mesure de la thèse Duhem-Quine, en tant que cette dernière permettrait de montrer que le choix rationnel d’une théorie au détriment d’une autre est une illusion, puisque toute théorie, conjonction finie de propositions, peut toujours être sauvée de la réfutation par des ajustements adéquats faits au niveau de la « connaissance d’arrière-plan » (background knowledge) dans laquelle elle est noyée, ce qui d’ailleurs est indéniable et se trouve au principe même des « stratagèmes conventionnalistes » : introduire des hypothèses ad hoc non indépendamment testables (à l’encontre de l’hypothèse ad hoc de Le Verrier sur l’existence de Neptune, parfaitement testable indépendamment des phénomènes de déviations constatés dans l’orbite d’Uranus dont elle devait rendre compte). Ces hypothèses peuvent être introduites dans le background knowledge, désigné en partie dans les protocoles de montage expérimental visant à tester la régularité d’une relation fonctionnelle comme l’ensemble des paramètres considérés comme non pertinents ou négligeables, donc non problématiques.
40La réponse de Popper aux objections « holistiques » est que « nous ne procédons pas globalement, mais pièce par pièce, dans la mise à l’épreuve de nos explications scientifiques, et qu’un grand nombre de connaissances traditionnelles sont tenues pour acquises à chaque fois, bien qu’aucune d’entre elles ne soit évidemment en elle-même à l’abri d’une critique et ne doive être considérée comme certaine ou même bien établie, au sens usuel du terme15 ».
41L’« éliminationnisme » de Popper (MH, p. 171) prétend pouvoir échapper aux paradoxes :
- de l’empirisme inductiviste ;
- du rationalisme à prioriste ;
- du déductivisme conventionnaliste, représenté par Poincaré : les principes théoriques sont analytiquement vrais, car ce sont des définitions ;
- du déductivisme instrumentaliste représenté par Duhem, après Bellarmin et Berkeley : les théories sont des moyens de mettre de l’ordre parmi les « lois expérimentales16 ».
42Selon cette conception poussée à la limite, « puisqu’elles ne sont que des instruments, les théories ne peuvent contenir aucune information, vraie ou fausse. Elles ne peuvent qu’être commodes ou non commodes ; économiques ou non économiques ; souples et ingénieuses ; ou grinçantes et grossières. Ainsi, dit Duhem, il ne peut y avoir de raisons logiques à ne pas accepter à la fois deux théories ou plus, qui sont contradictoires » (MH, p. 17217).
43Les systèmes théoriques sont testables de part en part, « c’est-à-dire en principe réfutables, et pour cette raison ils sont synthétiques (plutôt qu’analytiques), empiriques (plutôt qu’à priori), et informateurs (plutôt que purement instrumentaux) » (MH, p. 172).
44La thèse de Duhem est partiellement vraie, parce que Duhem ne voit pas d’autres possibilités que le choix entre l’inductivisme (ce qu’il appelle « la méthode newtonienne »18, qu’il rejette, et l’instrumentalisme. En fait il en fait demander « trop » par le supposé partisan de l’experimentum crucis :
Ceux qui assimilent la contradiction expérimentale à la réduction à l’absurde pensent que l’on peut, en Physique, user d’un argument semblable à celui dont Euclide a fait un si fréquent usage en Géométrie. Voulez-vous obtenir, d’un groupe de phénomènes, une explication théorique certaine, incontestable ? Énumérez toutes les hypothèses que l’on peut faire pour rendre compte de ce groupe de phénomènes ; puis, par la contradiction expérimentale, éliminez-les toutes sauf une, cette dernière cessera d’être une hypothèse pour devenir une certitude19.
45Ainsi, Popper peut reconnaître que « de l’aveu de tous, Duhem a raison en ce que l’on ne peut (tester) que des systèmes théoriques vastes et complexes, et non des hypothèses isolées ; mais si l’on (teste) deux systèmes de ce genre, qui ne diffèrent que par une hypothèse et si l’on peut combiner des expérimentations qui réfutent le premier système tout en laissant le second pleinement (corroboré), alors on sera raisonnablement fondé à attribuer l’échec du premier système à l’hypothèse unique par laquelle il se distingue du second » (MH, p. 172 ; nous retraduisons les termes « to rest » et « corroboration » par leurs équivalents français et non pas les termes « carnapiens » qui sont présents dans la traduction française : « vérifier » et « confirmation », pour éviter toute confusion).
Notes de bas de page
1 Voir W. Quine, From a Logical Point of View, p. 22 : « La notion aristotélicienne d’essence est à n’en pas douter l’ancêtre de la notion moderne d’intension ou de sens ».
2 Cf. « Science, problems, aims, responsibilities », p. 17.
3 S. Toulmin, L’Explication scientifique.
4 Sur l’histoire de l’essentialisme en physique depuis Descartes et Newton jusqu’à Maxwell, cf. CR, p. 106 et « Philosophy and physics », in Atti del xii congresso di filosofia.
5 J. Bouveresse, « Définition, essentialisme et explication ultime » et W. Quine, From a Logical Point of View, II, p. 20.
6 cf. J. Bouveresse, La Parole malheureuse, chap. 2.
7 J. Bouveresse, « Définition, essentialisme et explication ultime ».
8 H. Poincaré, La Valeur de la science, p. 162.
9 C. S. Peirce, Essays in the Philosophy of Science, p. 228.
10 Voir P. Duhem, La Théorie physique, p. 304.
11 Dans ses cours au Collège de France, 1974-1975.
12 Cf. W. Quine, From a Logical Point of View, p. 41.
13 P. Feyerabend, Against Method et in CGK, p. 197-230.
14 Voir T. S. Kuhn, La Structure des révolutions scientifiques et P. Feyerabend.
15 Voir J. Bouveresse, « La philosophie des sciences de Karl Popper ».
16 Voir P. Duhem, La Théorie physique, passim ; par ex. p. 273 : « La théorie physique n’a d’autre objet que de fournir une représentation et une classification des lois expérimentales. »
17 Ibid., p. 333-410.
18 Ibid., p. 298 sq.
19 Ibid., p. 286 ; c’est nous qui soulignons ce qui est à I’évidence contraire à toutes les exigences poppériennes.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Undoing Slavery
American Abolotionism in Transnational Perspective (1776-1865)
Michaël Roy, Marie-Jeanne Rossignol et Claire Parfait (dir.)
2018
Histoire, légende, imaginaire : nouvelles études sur le western
Jean-Loup Bourget, Anne-Marie Paquet-Deyris et Françoise Zamour (dir.)
2018
Approches de l’individuel
Épistémologie, logique, métaphysique
Philippe Lacour, Julien Rabachou et Anne Lefebvre (dir.)
2017
Sacré canon
Autorité et marginalité en littérature
Anne-Catherine Baudoin et Marion Lata (dir.)
2017
Jouer l’actrice
De Katherine Hepburn à Juliette Binoche
Jean-Loup Bourget et Françoise Zamour (dir.)
2017
Les Petites Cartes du web
Analyse critique des nouvelles fabriques cartographiques
Matthieu Noucher
2017