Chapitre 3. Politique du risque et intégrité de la science
p. 57-86
Texte intégral
Introduction
1Le risque est omniprésent dans nos vies individuelles et dans les sociétés humaines en général. Nous sommes tous les jours confrontés à un avenir incertain comportant des risques connus et inconnus, aussi bien individuellement qu’en tant que sociétés. Notre conscience du nombre de ces risques est en augmentation. Nous avons des discussions approfondies à propos de risques environnementaux, de risques de catastrophes naturelles, de risques technologiques, économiques et médicaux et d’une longue liste d’autres types de risques qui, ensemble, englobent pratiquement tout ce que nous faisons et rencontrons dans nos vies.
2Cette situation n’est bien sûr pas nouvelle. Au cours de périodes historiques antérieures, le panorama des risques était différent mais, en ces temps-là, les risques étaient encore plus gênants qu’aujourd’hui dans la vie de la plupart des gens. L’emprise sur la vie humaine de dangers incontrôlables tels que famines, insectes ravageurs et maladies, a, dans une certaine mesure, été tempérée par le progrès technologique et scientifique. C’est la raison pour laquelle il est trompeur de décrire notre époque actuelle comme celle d’une « société du risque » par opposition aux sociétés antérieures (Beck, 1986). Depuis qu’elles existent, les sociétés humaines ont été exposées à une diversité de ce que nous appelons aujourd’hui des risques et ont dû, pour survivre, déployer des efforts considérables pour faire face à ces risques. Lorsque les hommes et les femmes préhistoriques ont commencé à faire des réserves de nourriture, ils n’appelaient pas cela de la « gestion du risque », pourtant il s’agissait bien de cela (Soffer, 1989).
3Ce qui est toutefois fondamentalement nouveau, c’est le rôle de la science dans tout cela. Ou, devrais-je plutôt dire, les rôles de la science, car la science a au moins quatre rôles majeurs à jouer lorsque l’on traite de risques. Premièrement, et peut-être est-ce le plus manifeste, l’utilisation de la connaissance scientifique a créé ou contribué à la plupart des nouveaux risques auxquels nous sommes confrontés aujourd’hui : risques nucléaires, changement climatique, formes nouvelles de pollution atmosphérique, substances chimiques toxiques dans l’environnement et bien d’autres. Deuxièmement, la science nous a aussi fourni les moyens de mesurer et de détecter tant les anciens que les nouveaux risques. De nombreux risques nous seraient inconnus sans la science. C’est le cas de nouveaux risques tels que le changement climatique. C’est également vrai de certains risques anciens tels que les risques pour la santé provenant de la pollution de l’air intérieur liée à la cuisine qu’on estime responsable de la mort de 3,5 millions de personnes chaque année (Lim et al., 2012, p. 2238). Ce pourrait être un risque sanitaire pratiquement aussi vieux que la banale utilisation du feu pour cuisiner, c’est-à-dire environ 50000 à 100000 ans (Bowman et al, 2009). Ses principaux effets sur la santé sont le cancer, la cataracte et les maladies cardiovasculaires. Ces effets étant stochastiques et différés, ils ne peuvent être constatés que par l’épidémiologie moderne (Ezzati et Kammen, 2002). Troisièmement, la science nous a donné les moyens de comprendre les mécanismes et le fonctionnement d’un grand nombre des risques auxquels nous faisons face. En soi, cela nous aide souvent à affronter ces risques. Par exemple, une fois que nous avons compris comment les maladies infectieuses se propagent, nous pouvons faire beaucoup pour les prévenir. Quatrièmement enfin, la science et son proche allié, la technologie, nous ont fourni de nouveaux moyens d’affronter aussi bien les risques anciens que nouveaux – meilleures récoltes pour prévenir les famines, médicaments pour guérir de maladies, stations d’épuration des eaux usées pour éviter les infections, épurateurs et convertisseurs catalytiques pour réduire la pollution et beaucoup d’autres.
4Quel est l’effet net de la science sur les risques humains si l’on additionne tous ses mécanismes positifs et négatifs ? Vu les tendances positives à long terme en matière de bien-être et de longévité dans le monde (Riley, 2005 ; Lim et al., 2012), il paraît difficile de nier que l’effet net est positif au stade actuel. D’autre part, il serait tout aussi difficile de nier que cette amélioration a été obtenue au terme d’un processus qu’on pourrait décrire comme « deux pas en avant, un pas en arrière » dont de nombreux pas, manifestement évitables, dans la mauvaise direction. Etant donné la gravité des risques environnementaux et développementaux actuels, la réponse à la question de savoir quel sera le bilan dans les quelques prochaines décennies est plus importante encore.
5Je n’en dirai pas davantage à ce sujet pour me concentrer plutôt sur le thème du jour qui, bien que beaucoup plus modeste, est lié à la situation d’ensemble. Je vais maintenant faire un zoom avant sur la capacité de la science à remplir les fonctions positives en rapport avec les risques que je viens d’aborder. Afin d’y arriver, la science doit être à même de nous fournir des informations fiables sur la nature et la société, indépendamment du fait que ces informations soient bienvenues ou non. Cela veut dire que l’intégrité de la science doit être maintenue. Si nous écoutons différents experts selon ce que nous souhaitons être vrai, alors notre manque de consensus nous empêchera effectivement de joindre nos forces pour résoudre les vrais problèmes qui se présentent à nous. Malheureusement, c’est précisément ce qui est arrivé encore et encore dans le domaine de l’évaluation scientifique du risque. Une grande partie de ce qu’on appelle les controverses scientifiques concerne le risque. C’est surtout lorsque des risques pour la santé et l’environnement sont en jeu que l’on trouve des acteurs ayant des intérêts différents s’associer à des experts scientifiques différents (ou à de pseudo-experts) qui expriment des opinions à la limite (ou au-delà) du champ d’investigation de ce qui peut constituer un point de vue scientifique raisonnable. Comme l’a noté Wendy Wagner (1995), cela donne lieu à une énorme « mascarade scientifique » dans laquelle on fait passer les divergences d’intérêts et les positions politiques pour des différences d’opinion scientifique. De cette façon, le consensus scientifique réel sur des questions clés est souvent occulté. Dans de nombreux cas, cette mascarade a engendré des retards inutiles et donc également une augmentation des coûts de dépollution dans le cadre de la gestion du risque (European Environment Agency, 2001 ; Mooney, 2005). L’influence disproportionnée en matière de politique climatique de pseudo-experts s’autoproclamant « climato-sceptiques » en est l’un des exemples les plus préoccupants (Oreskes et Conway, 2010).
6Comme j’y reviendrai plus en détail dans un moment, cela ne porte toutefois pas uniquement sur une question d’intrusion dans la science d’acteurs ayant un agenda non scientifique. Le problème est bien pire. Cela touche au cœur de l’entreprise scientifique et affecte la justification même de la science en tant qu’institution sociale. Ce qui est en jeu, ce sont les critères déterminant à partir de quand nous devrions considérer un énoncé portant sur une question scientifique comme étant suffisamment fondé pour qu’il puisse être légitimement (bien que toujours provisoirement) tenu pour vrai. Selon l’éthos de la science tel qu’il est reconnu, ce type de jugement ne devrait pas être influencé par nos valeurs et nos désirs, particulièrement nos valeurs éthiques et politiques (Merton, [1942] 1973). Cependant, en matière de risque, ces principes semblent plus difficiles à observer que dans la plupart des autres domaines. Alors que des informations s’accumulent sur les effets négatifs pour la santé d’une importante substance chimique industrielle, à partir de quel moment les preuves sont-elles suffisantes pour conclure que cette substance est nocive et qu’en conséquence de coûteuses mesures de dépollution sont nécessaires ? Combien de preuves avons-nous besoin pour décider qu’une espèce de poissons est soumise à une surpêche, qu’un vaccin a de graves effets secondaires ou qu’un jeu vidéo rend les joueurs plus enclins à la violence dans la vie réelle ? Ce sont des questions auxquelles la science n’apporte pas de réponses précises mais seulement des procédures établies qui sont souvent difficiles à comprendre pour des non-initiés. Je soutiens que, en étudiant ces procédures et leurs fondements normatifs, la philosophie des sciences peut contribuer à l’intégrité de la science. Puisque les problèmes de risque ont mis à nu ces questions, ils constituent un point de départ approprié pour de tels débats mais, comme je l’ai déjà indiqué, le problème est essentiel à notre compréhension générale de la science et de ses fondements en plus de ses conséquences pratiques sur les politiques du risque.
7J’utiliserai le mot « risque » dans son sens général établi de longue date de « danger éventuel plus ou moins prévisible »1 ou « (exposure to) the possibility of loss, injury, or other adverse or unwelcome circumstance ; a chance or situation involving such a possibility »2. Une situation de risque est caractérisée par un événement indésirable et par le manque de connaissance ou de connaissabilité du fait que cet événement aura lieu ou non. L’effet négatif peut être bien défini ou n’être que vaguement décrit. Une estimation sérieuse de sa probabilité peut être ou ne pas être disponible. (Hansson, 2002 ; 2010b ; 1996a) Qu’elle se produise ou non peut dépendre de la capacité d’agir (ou « agentivité ») ou d’actions d’un ou de plusieurs êtres humains, (Hansson, 2009b ; 2013b, ch. 1). Des tentatives ont été faites pour réduire cette complexité et décrire les risques comme étant uniquement caractérisés par le produit de la probabilité de l’événement indésirable et d’un certain degré de son indésirabilité. Toutefois, une définition limitée telle que celle-là s’éloigne par trop d’un usage non technique et – ce qui est pire – son adoption tend à entretenir le manque d’intérêt pour de nombreuses composantes de situations complexes de risque qui requièrent notre attention (Hansson, 1993 ; 2009b). Elle ne convient dès lors pas pour des investigations philosophiques du risque. (Les valeurs attendues portant sur la taille des effets indésirables sont souvent utiles mais il ne faut pas leur donner une désignation impliquant qu’elles nous disent ce que nous devons savoir à propos d’un risque.)
8Comme toute autre discipline, la philosophie se doit d’aborder ces questions plus techniques avec prudence afin d’être utile d’un point de vue pratique (Hansson, 2010e). Dans ce qui suit, je préciserai d’abord ce que j’entends par science (section 1) et comment son rôle privilégié en tant que source sociale de connaissance peut être justifié (section 2). Par la suite, je présenterai le modèle du corpus du processus de la connaissance scientifique (section 3) et établirai le rapport qu’il a avec les critères de qualité de ce qui est généralement appelé science fondamentale et appliquée (section 4). J’identifierai ensuite deux défis majeurs pour l’intégrité de la science liés à l’étude du risque (section 5) et je proposerai des solutions pour l’un et l’autre (Sections 6 et 7) avant de récapituler les conclusions de cette investigation (Section 8).
1. Définir la science
9On est loin de pouvoir qualifier toute connaissance de scientifique. La distinction entre connaissance scientifique et non scientifique dépend non seulement de principes épistémologiques mais aussi de contingences historiques. Cela se voit clairement dans les différences de sens entre le mot « science » en anglais et en français et le mot correspondant « Wissenschaft » en allemand et ses proches équivalents dans certaines autres langues germaniques.
10Au départ, le mot anglais « science » avait une signification très large. Il pouvait s’appliquer à pratiquement tout ce qu’il fallait apprendre afin de maîtriser un sujet, qu’il s’agisse d’études savantes, de couture ou d’équitation. Toutefois, au cours des 17e et 18e siècles, le sens de « science » fut limité à une connaissance systématique. Le mot était par exemple utilisé à propos de la connaissance nécessaire pour vivre d’un métier concret spécifique. Au 19e siècle, la signification de « science » a été limitée davantage encore pour désigner essentiellement ce que nous appelons aujourd’hui les sciences naturelles (Layton, 1976). Aujourd’hui encore, le terme « science » est surtout utilisé pour les sciences naturelles et d’autres domaines de la recherche considérés comme leur étant similaires. D’où le fait que l’économie politique et la sociologie sont considérées comme des sciences alors que la littérature et l’histoire ne le sont généralement pas. Dans plusieurs domaines académiques, des efforts considérables ont été consacrés pour faire reconnaître comme science sa propre discipline. Cela est notamment vrai pour l’anthropologie sociale souvent considérée comme une science alors qu’à de nombreux égards elle est plus proche des humanités (Salmon, 2003).
11À l’origine, le synonyme le plus proche de « science » en allemand, « Wissenschaft », signifiait également connaissance. Toutefois, « Wissenschaft » (et les mots correspondants en néerlandais et dans les langues nordiques) a une signification bien plus large que « science ». Le mot recouvre toutes les disciplines académiques, y compris les humanités. Le mot français « science » semble avoir un sens intermédiaire entre l’anglais « science » et l’allemand « Wissenschaft ». Une indication en est l’usage fréquent de « sciences humaines » pour désigner les humanités (en allemand : « Geisteswissenschaften ») alors que le terme anglais « human sciences » est d’un usage plus limité et spécifique3.
12À mon avis, le terme allemand « Wissenschaft » a, du point de vue épistémologique, l’avantage de délimiter le sens de manière plus adéquate que le terme anglais. « Wissenschaft » n’exclut pas de disciplines académiques ou relevant d’une connaissance autrement systématisée telles que l’histoire et autres humanités exclues des « sciences » du fait de conventions linguistiques. Le sens limité du mot anglais « science » est malencontreux car les sciences et les humanités ont une base commune à au moins deux égards. Premièrement, leur véritable raison d’être est la même, à savoir nous fournir les avis les plus épistémiquement autorisés qui puissent être donnés aujourd’hui sur la matière concernée dans leurs domaines respectifs.
13Deuxièmement, elles sont étroitement liées et constituent ensemble une communauté de disciplines de la connaissance qui se caractérise et se distingue par un respect mutuel pour les résultats et les méthodes de chacune (Hansson, 2007d). Ce respect mutuel est quelque chose que nous tenons pour acquis, par exemple entre physique et chimie, mais c’est également vrai par-delà la frontière (artificielle) entre les sciences et les humanités. Un archéologue ou un historien devra accepter le résultat d’une analyse chimique de pointe d’un artéfact archéologique. Un zoologiste devra, pareillement, accepter l’avis des historiens sur la fiabilité d’un texte ancien décrivant des animaux disparus. Pour comprendre les descriptions anciennes de maladies, nous avons besoin d’une coopération entre experts en études classiques et spécialistes médicaux (et certainement pas entre experts en études classiques et homéopathes ou entre spécialistes médicaux et bibliomanciens).
14Ni « science » ni aucun autre terme établi de la langue française ou (plus particulièrement) de la langue anglaise ne couvre tous les membres de cette communauté de disciplines de la connaissance. Faute de meilleur terme, je les appellerai « science(s) au sens large ». Le nom n’est pas important mais il est important de reconnaître que nous sommes en présence d’une communauté de disciplines de la connaissance qui toutes s’efforcent d’acquérir des connaissances générales fiables et respectent les autres disciplines dans leurs domaines de spécialité respectifs. La fiabilité est un critère commun et unificateur fondamental dans toutes les disciplines de la connaissance. Si un pharmacologue nous dit qu’une certaine substance réduit les saignements, il faut qu’il en soit ainsi. Si un anthropologue nous dit que des chamans ont donné des feuilles contenant cette substance à des membres blessés de leur tribu, il faut qu’il en soit ainsi.
15La science au sens large recherche des connaissances sur la nature (sciences naturelles), sur nous-mêmes (psychologie et médecine), sur nos sociétés (sciences sociales et histoire), sur nos propres constructions physiques (sciences technologiques) et sur nos propres constructions mentales (linguistique, études littéraires, mathématiques et philosophie). La philosophie est bien entendu une science dans ce sens large du terme (Hansson, 2003b).
16Aujourd’hui, les liens interdisciplinaires entre les disciplines académiques sont plus forts que jamais et se renforcent rapidement. Au cours du demi-siècle écoulé, les disciplines intégratives comme l’astrophysique, la biologie évolutionniste, la biochimie, l’écologie, la chimie quantique, les neurosciences et la psychologie sociale se sont développées à une vitesse spectaculaire et ont contribué à lier les unes aux autres des disciplines précédemment sans rapport. Au travers de nombre de ces liens de connaissance partagée et interdépendante, de nombreuses disciplines sont en relation, directement ou indirectement. Nombre de ces nouveaux liens relient des disciplines académiques reprises sous le terme restrictif de « science » à celles qui ne le sont pas. Pour ne citer que quelques exemples, pensez à l’utilisation d’informations historiques dans les sciences de l’environnement, du séquençage génétique en archéologie et de la théorie des jeux en tant que dénominateur commun unissant les études biologiques, historiques et même philosophiques du comportement (Okasha, 2011). Il y a là un léger paradoxe. Dans la première moitié du 20e siècle, il y avait une conviction très répandue portant sur l’unité de la science, souvent sous forme de stratégies simplificatrices réduisant la chimie à de la physique, la biologie à de la chimie, etc. Depuis lors, les liens entre les disciplines ont fortement augmenté mais, en même temps, la foi dans l’unité de la science semble avoir diminué.
17La communauté des disciplines de la connaissance rentre dans une catégorie épistémologique et non sociologique. Elle est proche des disciplines académiques mais ne coïncide pas parfaitement avec celles-ci. Il existe des branches (mineures) du savoir qui satisfont aux critères d’inclusion mais n’ont pas de statut académique. C’est par exemple le cas de la philatélie et de l’histoire de la prestidigitation auxquelles s’adonnent de fervents amateurs plutôt que des chercheurs professionnels. La philatélie est un exemple particulièrement éclairant car le domaine très proche de la numismatique jouit d’une solide réputation académique. Une raison majeure de cette différence est l’utilité de la numismatique dans la datation de sites archéologiques où des pièces de monnaie ont été trouvées. Cependant, dans les quelques cas où les historiens ont besoin de l’aide de philatélistes pour dater une lettre non datée mais affranchie, ils devront compter sur l’expertise de philatélistes amateurs de la même manière qu’ils comptent sur des numismates dans d’autres contextes. C’est une bonne raison pour inclure la philatélie dans la communauté des disciplines de la connaissance. Ce n’est pas le statut académique mais la méthodologie et le type de discipline prévalant dans une discipline qui devraient déterminer si elle est ou non scientifique (au sens large).
18En pratique, tout le monde n’adhère pas à l’idéal de respect mutuel. Il existe des scientifiques et des chercheurs qui choisissent de ne pas participer à la communauté des disciplines de la connaissance et décident de ne pas respecter d’autres disciplines. Les chercheurs qui ne croient pas à la datation au carbone 14 ou décident d’ignorer les preuves archéologiques des fonctions d’artéfacts anciens en sont un exemple (Nickell, 2007 ; Krupp, 1984). À en juger par l’expérience, un tel mépris pour d’autres disciplines est un signe certain d’une médiocre qualité scientifique. Un des exemples les plus remarquables est ce qui a été sciemment annoncé comme le « strong program » en sociologie de la connaissance (Bloor, 1976). Les partisans de cette approche ne tiennent programmatiquement aucun compte de ce que l’on sait des succès ou des échecs épistémologiques de théories scientifiques dans des domaines autres que les leurs. C’est une méthodologie inefficace pour l’évidente raison que les succès ou les échecs épistémologiques des théories scientifiques sont des facteurs importants qui doivent être pris en compte pour comprendre la science et son rôle dans la société (Hansson, 2007a).
19Dès lors, comment devons-nous donc définir la science ? J’espère avoir montré que, d’un point de vue philosophique, une telle définition doit faire référence à la science au sens large plutôt qu’au sens conventionnellement limité de science en français et en anglais. Plus généralement, une définition utile dans une perspective philosophique devrait se concentrer sur la connaissance scientifique et non sur des structures organisationnelles contingentes. En d’autres mots, nous avons besoin d’une caractérisation épistémologique de la connaissance qui soit scientifique au sens large. Comme je l’ai déjà dit, les disciplines de la connaissance relevant de la science dans ce sens large sont caractérisées par un but commun, à savoir nous fournir les informations les plus épistémiquement fiables qui puissent être obtenues sur un sujet dans leurs domaines respectifs. Ceci nous conduit à la définition suivante :
La science (au sens large) est la pratique qui nous fournit les informations les plus fiables (c’est-à-dire épistémiquement les plus sûres) qui puissent être obtenues, à l’heure actuelle, sur le sujet couvert par la communauté des disciplines de la connaissance, c’est-à-dire sur la nature, sur nous-mêmes en tant qu’êtres humains, nos sociétés, nos constructions physiques et nos constructions mentales (Hansson, 2013a, notre trad.).
20Certes, cette définition diffère en ambition de celles plus communes de la littérature sur la délimitation de la science. La majorité de ces définitions sont plus spécifiques que celle présentée ici. Elles nous emmènent un pas plus loin en précisant, en termes méthodologiques, ce que signifie qu’un énoncé de connaissance est suffisamment fiable. La plus ambitieuse de ces définitions est censée nous donner une définition exhaustive sous forme de critères nécessaires et suffisants qui, prétendument, nous diraient, dans chaque cas particulier, si un énoncé est scientifique ou pseudo-scientifique. La plus connue de ces propositions est celle du critère de falsifiabilité ou réfutabilité de Karl Popper (1962, p. 39) selon laquelle les « énoncés ou systèmes d’énoncés, pour être catalogués comme scientifiques, doivent pouvoir être réfutés par des observations possibles ou imaginables »4. Si nous voulons par exemple déterminer si la psychanalyse freudienne est une science, nous pouvons alors directement appliquer le critère de falsifiabilité de Popper. Cela est également vrai d’autres critères similaires, tel que le critère de Kuhn (1974) portant sur la capacité à résoudre des problèmes ou le critère de Reisch (1998) d’intégration dans d’autres sciences. Toutefois, si nous voulons répondre à la même question à l’aide de la définition que je viens de proposer, nous réaliserons rapidement qu’elle n’est pas suffisamment précise pour cela. Elle reformule la question en termes de connaissance fiable ou de garantie épistémique mais, cela étant fait, elle laisse le gros du travail inachevé. Nous ne savons pas quels types de données rechercher ou quels types d’investigation mener ou quels points forts et points faibles étudier dans la littérature psychanalytique. Pour résoudre ce problème, nous devons compléter la définition en y ajoutant un critère de fiabilité pour le domaine en question.
21Mais alors pourquoi ai-je proposé une définition aussi limitée pour ce à quoi elle peut prétendre ? La réponse est assez simple. L’applicabilité directe des définitions communes (ou critères de démarcation) s’accompagne d’un coût très élevé : elle est incompatible avec l’exhaustivité souhaitée (et déclarée) de ces définitions. La raison de cette incompatibilité est que, malgré le fait que les différentes branches de la science aient beaucoup en commun, intrinsèquement et dans le temps, elles diffèrent en termes de leurs méthodologies. Ce qui unit les disciplines de la connaissance, entre disciplines et dans le temps, c’est leur engagement fondamental à produire la connaissance la plus fiable dans différents domaines disciplinaires. Les moyens précis pour y arriver diffèrent toutefois d’un domaine à l’autre. Ces moyens sont en outre en développement constant. Cela concerne non seulement les méthodes détaillées telles que le choix de réactifs chimiques, d’échelles d’évaluation psychométrique ou d’outils pour l’analyse musicale. Sur des périodes de temps un peu plus longues, nous observons également des changements dans les approches méthodologiques générales comme les méthodes de test d’hypothèse, de principes expérimentaux comme celui de la randomisation ou du principe aveugle et les hypothèses de base quant aux types d’explications auxquelles on peut recourir en science (telles que la référence à la chance et à l’action à distance).
22À mon avis, la capacité à changer radicalement est au cœur de ce qui fait le succès de la science. Contrairement à diverses disciplines dogmatiques, la science à son meilleur niveau est capable de remettre en question ses fondements mêmes, et en particulier ses fondements méthodologiques. (Remarquez que je dis « la science à son meilleur niveau » car, comme toutes les autres caractéristiques épistémiques de la science, la capacité d’auto-amélioration est un idéal qui n’est pas complètement atteint.) Pour illustrer l’étendue des changements méthodologiques, nous pouvons examiner le développement de la pharmacologie scientifique depuis les années 1790 à nos jours. La discipline a connu plusieurs changements radicaux de sa méthodologie, y compris l’introduction de l’analyse chimique quantitative, le concept de principe actif, l’importance de la dose administrée de ce principe et l’utilisation d’essais cliniques en aveugle et en double aveugle pour déterminer les effets de traitements pharmacologiques. Pourtant, au cours de la même période, l’homéopathie est pour l’essentiel restée la même, confirmant ainsi son caractère pseudo-scientifique. Une grande partie de la littérature traitant de la démarcation a été critiquée pour l’accent unilatéral mis sur les exigences méthodologiques des études expérimentales en sciences naturelles. Il s’agit d’une critique valable car les exigences en matière d’études expérimentales telles que la répétabilité, la randomisation, les essais en aveugle, etc. ne sont pas pertinentes dans la plupart des études historiques. Il serait également vain d’appliquer ces critères à des expérimentations effectuées au dix-septième siècle avant que la méthodologie expérimentale moderne ait été développée. Avec de tels critères, nous devrions écarter comme étant pseudo-scientifiques certaines parmi les meilleures études scientifiques actuelles, ce qui assurément serait une erreur.
23Le critère de falsifiabilité de Popper peut servir d’exemple de ces problèmes. Il s’agit d’un critère pour la science des tests d’hypothèses mais toute la science ne se réduit pas aux tests d’hypothèses, loin s’en faut. Une hypothèse est un énoncé que l’on cherche soit à réfuter soit à confirmer. Réaliser un test d’hypothèse revient donc à réaliser un test visant à répondre à une question par oui ou par non. Bien sûr, certaines bonnes questions de recherche demandent qu’on y réponde par oui ou par non mais d’autres pas. Les recherches en humanités reposent principalement sur des questions ouvertes plutôt que sur des hypothèses et il en est de même pour des parties importantes des sciences naturelles expérimentales. De nombreuses expérimentations sont bien entendu effectuées pour répondre par oui ou par non à une question telle que « La particule de Higgs existe-t-elle ? ». Mais de nombreuses autres expérimentations sont conduites pour répondre à des questions ouvertes telles que « Quelle est la structure de cette protéine ? » ou « Quels sont les effets secondaires de ce médicament ? ». Ce dernier type d’études peut être qualifié d’« exploratoire ». Elles pourraient très bien être plus nombreuses que les études basées sur les tests d’hypothèse dans les sciences naturelles d’aujourd’hui (Hansson, 2006b). La science progresse au travers de l’usage combiné d’investigations exploratoires et de tests d’hypothèse. Un critère qui ne couvre que des investigations basées sur des tests d’hypothèse ne peut servir de définition générale ou de critère de démarcation pour la science.
24Toutefois, l’échec de la falsifiabilité (mais également de tout autre critère reposant uniquement sur les tests d’hypothèse) en tant que critère général de la science n’est qu’un exemple d’un problème plus général : Toute tentative pour définir la science en termes de ses méthodes ou de ses méthodologies est vouée à l’échec parce qu’elle refuse d’admettre une caractéristique essentielle de la science qui gagne, à savoir sa capacité à se réformer radicalement. Je suggère dès lors d’utiliser une définition telle que celle proposée plus haut comme la définition générale de la science et de la compléter par un critère plus spécifique lié au temps ou à la discipline chaque fois que le besoin s’en fait sentir.
2. Justifier la science
25Pourquoi avons-nous besoin de la science ? En première approximation, nous avons besoin de la science afin d’être capables de penser et d’agir rationnellement. La rationalité peut bien sûr être divisée en deux parties ou aspects principaux, rationalité théorique et pratique. La rationalité théorique concerne nos choix de quoi croire. La rationalité pratique concerne nos choix de quoi faire pour atteindre des buts pratiques. Comme l’ont précisé David Papineau (2003) et Thomas Kelly (2003), la rationalité théorique inclut une sous-espèce importante qu’on peut appeler rationalité épistémique. La rationalité épistémique est la rationalité à laquelle nous recourons lorsque nous croyons ou ne croyons pas à diverses assertions compte tenu des éléments dont nous disposons. La rationalité théorique est un concept plus large qui inclut également la manière dont nous poursuivons des objectifs cognitifs, par exemple lorsque nous décidons d’entreprendre des actions qui nous procurerons des informations. Pour préciser les objectifs de la science et la manière d’y arriver, nous aurons besoin de ce concept plus large mais il est également utile pour distinguer les situations dans lesquelles le concept plus limité de rationalité épistémique est suffisant.
26Nous utilisons la science pour déterminer aussi bien quoi croire que quoi faire. La science est donc utile à la rationalité théorique aussi bien que pratique. Pourtant, plus que toute autre activité humaine, elle met l’accent sur la détermination de ce nous sommes épistémiquement fondés à croire. Donc, une discussion sur la justification de l’entreprise scientifique peut raisonnablement avoir comme point de départ l’usage de la science en tant que moyen d’atteindre les objectifs de la rationalité épistémique. Je reviendrai plus tard sur le côté pratique de la rationalité scientifique.
27Lorsqu’on discute de visions religieuses du monde ou de points de vue esthétiques, on peut sans doute avoir de bonnes raisons de dire : « Cela peut être vrai pour vous mais ceci est vrai pour moi. » En science, une telle relativité individuelle n’est pas acceptée. Les neutrinos n’ont pas de masse pour vous mais pas pour moi. Le tigre de Bali n’a pas disparu pour vous mais existe encore pour moi. Emmanuel Kant n’est pas né en 1724 pour moi et une autre année pour vous. (Bien entendu, dans les trois cas, c’est correct pour autant que nous utilisions les mots clés du discours de façon concordante, par exemple le même calendrier dans le troisième cas.) Cela signifie que la science nous offre une vision du monde commune ou, plus précisément peut-être, des parties communes de nos visions du monde. Pour y parvenir, la connaissance scientifique doit être intersubjective, c’est-à-dire commune à tous les humains.
28Le but de la science n’est cependant pas d’aboutir à une quelconque opinion commune. Par exemple, la science ne cherche pas à vérifier des préjugés communément acceptés. Au contraire, son but est d’acquérir la connaissance de ce que les choses sont vraiment. Cela signifie que son but est d’arriver à une connaissance objective (Douglas, 2004). À l’évidence, c’est là un but qui ne peut être entièrement atteint. Une connaissance tout à fait objective est à peu près aussi impossible à atteindre que l’omniscience. Toutefois, l’impossibilité de tout connaître n’empêche pas la science de chercher à en connaître le plus possible. De la même manière, l’impossibilité d’une connaissance tout à fait objective ne doit pas être un obstacle aux efforts visant à être le plus objectif possible. C’est bien sûr cela que les opérateurs scientifiques font tout le temps en dépit d’une longue période de dénigrement de l’objectivité. Les questions de risque donnent d’excellents exemples de ce qui arrivera à la science si elle est privée de ses efforts visant à l’objectivité : Le constructivisme social qui dévalorise les connaissances scientifiques disponibles en matière de risques environnementaux contribue à retarder les actions appropriées contre ces risques (Kidner, 2000 ; Crist 2004).
29Je supposerai donc que la fonction de la science est de nous fournir des connaissances communes et valables à propos du monde dans lequel nous vivons. Mais ce n’est pas la fin de notre quête. La question suivante à laquelle il faut répondre est donc : Pourquoi avons-nous besoin de ces connaissances ? La science est un répertoire social d’énoncés factuels. Un tel répertoire n’a de sens que pour des êtres qui, individuellement, séparent leurs croyances factuelles de leurs autres attitudes et réactions concernant ce qui se passe autour d’eux. La justification de la science est dès lors étroitement liée à la question plus fondamentale de savoir pourquoi nous, en tant qu’individus, pensons en termes de faits et fonctionnons sur base d’un ensemble séparé de croyances factuelles auxquelles nous appliquons des principes de rationalité théorique qui sont expressément appropriés pour aborder des faits. Que nous fassions cela est quelque chose que nous considérons comme allant tellement de soi que nous éprouvons des difficultés à y voir une quelconque alternative. Si nous ne séparions pas un ensemble indépendant de croyances factuelles, sans doute le contenu de ce que nous appelons nos croyances, sentiments et instincts serait-il alors un mélange composite et nous n’aurions aucun moyen ou inclination pour séparer les faits de nos réactions à leur égard. Cela peut être ce que certains animaux font et peut-être ce que nous aurions pu faire en l’absence de langage. Mais c’est difficile pour nous à imaginer puisque nous ne savons pas ce que signifierait penser sans séparer les faits et les traiter différemment du reste de nos contenus mentaux. L’idée de composantes isolables purement liées à la vérité de nos processus mentaux a été appelée « purisme épistémologique » (Fantl et McGrath, 2007). Je n’ai pas trouvé d’autre réponse crédible à la question de savoir pourquoi nous séparons les faits et leur appliquons des principes particuliers (rationalité théorique) que celle selon laquelle nous avons besoin d’un ensemble séparé de faits pour parvenir à la rationalité pratique. Séparer les faits (ou ce que nous tenons pour des faits) et raisonner à leur propos dans un isolement relatif par rapport à d’autres composantes de notre esprit semble revêtir une valeur de survie pour un organisme tel que le nôtre compte tenu du niveau et du caractère de nos capacités cognitives.
30Fonder ainsi la rationalité théorique sur la rationalité pratique est bien sûr une forme d’explication évolutionniste. Il n’est pas difficile de voir comment nos aptitudes à la rationalité pratique peuvent s’être développées par le truchement de la sélection naturelle. La capacité de résoudre des problèmes pratiques augmente nos chances de survie. En définissant la rationalité théorique comme étant un moyen pour parvenir à une rationalité pratique plus efficace, nous l’associons indirectement à un avantage évolutionniste. Il ne semble pas possible d’arriver plus directement à une telle association car la connaissance en tant que telle, si elle n’a pas de conséquences sur l’action, ne paraît pas être un avantage évolutionniste. Cela a été souligné par David Papineau (2003, p. 40) qui a suggéré que la rationalité théorique « se greffe sur l’évolution d’aptitudes cognitives pour ‘comprendre l’esprit’ et pour la pensée fins-moyens » (notre trad.).
31La séparation des faits est une caractéristique marquante de nos processus mentaux individuels et contribue vraisemblablement à nos capacités cognitives dans la vie quotidienne. Dans un processus organisé de prise de décision collective, tel que le processus législatif et l’élaboration de politiques, nous tendons à développer cette caractéristique à un niveau accru. On peut le constater dans les sociétés tant tribales que modernes. D’où les rapports des anthropologistes faisant état de ce que les chasseurs ! Kung, lorsqu’ils discutent du comportement animal, prennent grand soin de distinguer les faits (par exemple les traces qu’ils ont vues) des théories et des attitudes (Burton-Jones et Konner, 1976). C’est probablement dans ce contexte que nous devons comprendre le succès pratique de la science. Pour une coopération entre des êtres comme nous, qui isolent les composantes factuelles de nos pensées, il semble avantageux d’avoir accès à un répertoire commun de croyances factuelles fiables que nous partageons. Pour communiquer et réfléchir ensemble et coordonner nos actions, nous avons besoin d’autant de base commune que possible avec les autres et une série commune de croyances factuelles peut nous fournir une grande partie de cette base commune.
32Cette interprétation postule une relation assez délicate entre rationalité pratique et théorique. Elle attribue à la rationalité pratique le rôle d’entraînement primaire justificateur qui fournit un argumentaire tant pour l’existence d’une rationalité théorique séparée que pour sa non-influence ultérieure sur son fonctionnement. Il s’agit d’une forme de délégation irrévocable. De telles délégations soulèvent des questions assez évidentes sur ce qu’il arrivera si le résultat ne satisfait pas aux attentes du délégant ; dans ce cas, ce qu’il arrivera si les conséquences du fonctionnement lié à un ensemble indépendant de croyances factuelles ne satisfont pas aux exigences de la rationalité pratique. Comme nous le verrons plus tard, c’est précisément ce qu’il peut arriver lorsque la science est appliquée à des questions pratiques de risque5.
3. Le corpus scientifique
33Compte tenu de la fonction sociale de la science en tant que source commune de connaissance fiable, le corpus scientifique, ou la masse de connaissances scientifiques, devrait jouer un rôle central dans notre interprétation de la science. Le corpus scientifique peut être défini comme l’ensemble des énoncés considérés comme données de base pour leurs recherches par la collectivité des chercheurs et qui ne sont donc pas remis en question à moins que de nouvelles données ne donnent des raisons de le faire (Hansson, 2007c ; 2010a). Nous pouvons également, à titre d’approximation assez proche, définir le corpus comme se composant des énoncés qui pourraient, pour le moment, légitimement et sans réserve, faire l’objet d’un manuel (suffisamment détaillé) (Hansson, 1996b). Le corpus contient des énoncés d’observation et des données similaires mais également des énoncés plus généraux décrivant et expliquant des caractéristiques du monde dans lequel nous vivons en termes définis par nos méthodes d’investigation et les concepts que nous avons développés. Des hypothèses sont incluses dans le corpus lorsque les données fournissent des preuves suffisantes pour les soutenir, la même chose s’appliquant aux généralisations corroborées basées sur des recherches exploratoires.
34Le corpus est une construction extrêmement complexe. Du fait de sa taille même, il ne peut être maîtrisé par une seule personne. Des parties différentes sont sous la responsabilité de différents groupes d’experts scientifiques. Toutes ces parties sont en constant développement. Dans chacune des nombreuses sous-disciplines, de nouveaux énoncés sont ajoutés et des anciens sont supprimés tandis qu’un processus de consolidation basé sur des contacts et des coopérations entre disciplines interconnectées a lieu en permanence.
35Le processus conduisant à des modifications du corpus est basé sur des normes strictes en matière de preuve. Ces normes forment une partie essentielle de l’éthos de la science. La charge de la preuve incombe à ceux qui veulent modifier le corpus – par exemple, en reconnaissant un phénomène précédemment non prouvé ou en introduisant une nouvelle théorie scientifique. Une autre manière de dire cela est que le corpus a des conditions d’entrée strictes. Cela est nécessaire pour garantir une progression raisonnablement régulière de la science. Si nous acceptions de nouvelles idées trop hâtivement, le collectif de scientifiques prendrait trop souvent la mauvaise direction et le progrès scientifique serait bloqué par des hypothèses erronées. Il y a par contre des limites supérieures à ce que peuvent être les conditions d’entrée. Puisque nous ne pouvons pas tout laisser ouvert, il faudra parfois que nous prenions le risque de nous tromper. Les conditions d’entrée dans le corpus peuvent être liées à deux exigences du processus de production de connaissance scientifique. L’une d’entre elles est la fiabilité de ses résultats. L’autre est la productivité du processus lui-même, ce par quoi j’entends sa capacité à produire des résultats supplémentaires fiables à l’avenir. Si les conditions d’entrée dans le corpus sont trop peu exigeantes, la production scientifique, à savoir le corpus, sera alors insuffisamment fiable. De plus, des conditions d’entrée trop peu exigeantes menaceraient la productivité du processus en raison des effets néfastes liés à des recherches basées sur des hypothèses incorrectes. Par contre, si les conditions d’entrée sont trop strictes, elles ne menaceront pas la fiabilité qui devrait plutôt s’en trouver améliorée au cas où ces exigences augmentent. Mais des conditions trop exigeantes menaceront la productivité puisque moins de résultats seront produits si les exigences portant sur chacun d’entre eux sont plus élevées. Ainsi, et la fiabilité et la productivité sont menacées par des conditions d’entrée trop peu exigeantes mais seule la productivité l’est par des conditions trop strictes.
36Tant la fiabilité que la productivité appartiennent au domaine de la rationalité théorique. (La fiabilité entre dans le cadre de la rationalité épistémique tandis que la productivité appartient aux domaines de la rationalité théorique non couverts par sa partie épistémique.) Dans ce qui suit, je vais provisoirement supposer que des considérations de rationalité théorique (celles-ci et peut-être d’autres) sont suffisantes pour déterminer les conditions d’entrée dans le corpus, c’est-à-dire que je vais faire l’hypothèse provisoire suivante6 :
Les critères pour inclure un énoncé dans notre corpus (universel) de connaissances scientifiques coïncident avec les besoins du processus continu de la recherche de connaissance scientifique, c’est-à-dire aux besoins de rationalité théorique.
37Malgré des changements permanents, le corpus est, à tout moment, raisonnablement bien défini. Dans la plupart des disciplines, il est relativement facile de distinguer les énoncés qui sont, pour le moment, généralement admis par les experts concernés de ceux qui sont contestés, à l’étude ou rejetés. Par conséquent, les marges floues du corpus sont assez étroites.
38J’ai déjà exposé les raisons pour lesquelles la science opère sur base d’un corpus unique, commun à toutes les disciplines, plutôt que sur base de corpus multiples, un par discipline. Dans une époque antérieure, lorsque les disciplines étaient moins bien connectées, le dernier type de modèle aurait pu être plausible. Toutefois, avec les connections fortes et se renforçant au sein de la communauté actuelle des disciplines de la connaissance, un tel modèle aurait manifestement été source d’erreurs.
39Il existe une autre alternative au modèle de corpus que nous devons considérer plus sérieusement. Des philosophes d’obédience bayésienne ont contesté l’approche binaire sur base de laquelle est construit le corpus. Dans le modèle de corpus, un énoncé scientifique est soit entièrement accepté soit pas accepté du tout. Il n’existe pas de degré d’inclusion dans le corpus, pas plus qu’il n’y a de degrés d’exclusion du corpus. Au contraire, Richard Jeffrey (1956) et d’autres ont proposé que les chercheurs ne devraient jamais tenir pour vrai aucun énoncé relatif au monde réel. Cela signifierait que les scientifiques ne considèrent jamais un énoncé factuel comme vrai ou faux et doivent limiter leurs affirmations à l’attribution de probabilités à différentes théories et hypothèses. Ces probabilités peuvent être assez proches de 0 ou de 1 mais elles ne peuvent jamais être égales à 0 ou 1 puisque rien n’est jamais tout à fait certain. Le résultat de cela serait, en place du corpus, un vaste système de probabilités attribuées à des énoncés scientifiques. La science prendrait la forme d’une toile extrêmement complexe d’hypothèses incertaines qui toutes seraient connectées l’une l’autre au travers de diverses probabilités conditionnelles.
40Cela demanderait un changement radical de la pensée et de la communication scientifiques. Un chimiste travaillant selon ces principes ne considèrerait pas pour acquis que l’eau est faite d’hydrogène et d’oxygène pas plus qu’un biologiste ne tiendrait pour un fait que les baleines sont des mammifères ou un historien que le roi Louis XVI de France a été décapité en 1793. Au lieu de cela, ils les considèreraient comme des hypothèses hautement probables. Leurs collègues et eux ne diraient jamais « Nous savons que c’est comme ça » mais seulement « Nous tenons pour hautement probable que c’est comme ça ». Cela peut sembler être une image attachante de la science mais, malheureusement, en pratique, cela ne fonctionnera jamais. La raison en est que nous, humains, ne sommes pas capables de garder beaucoup de choses ouvertes en même temps. Une telle masse complexe et incertaine de connaissances probabilistes dépasse la compréhension humaine. Il est déjà suffisamment difficile d’acquérir une vue d’ensemble d’un domaine scientifique, de la manière dont la science est organisée aujourd’hui, avec des énoncés considérés comme vrais ou faux.
41En réponse à cela, on pourrait dire que ces limites cognitives n’ont rien à faire dans une proposition concernant la nature de la rationalité. La rationalité est en soi un concept idéalisant et les agents rationnels idéalisés n’ont prétendument pas de limites cognitives. Un tel argument ne fait toutefois pas la distinction entre les différents types d’idéalisation que nous pouvons utiliser. Au lieu de nous attacher à des agents idéalisés sans limites cognitives, nous pouvons considérer des agents idéalisés ayant des capacités cognitives limitées dont ils font un usage rationnel (Hansson, 2006c). Une telle idéalisation est bien plus proche du fonctionnement réel de la science. La science est une activité humaine et il n’est pas utile d’essayer de la modéliser selon ce qui conviendrait à des créatures sans les limites de la cognition et de l’intelligence humaines.
42À cause de nos limites cognitives en tant qu’êtres humains, nous devons recourir à des simplifications dont l’une est la suivante : La plupart des choses qui semblent presque certaines sont considérées par nous comme étant tout à fait certaines. Cela signifie que nous acceptons et rejetons des énoncés et hypothèses, ce qui est clairement distinct du fait de simplement leur attribuer des probabilités très élevées ou très faibles. Pourtant, lorsque nous acceptons des énoncés, nous ne les acceptons pas une fois pour toutes, quoi qu’il arrive. Nous ne les acceptons pas comme énoncés incorrigibles mais « provisoirement vrais ». Cela signifie que nous ne les mettons pas actuellement en doute mais que nous nous réservons le droit d’en douter plus tard si nous apprenons quelque chose de nouveau qui nous donne des raisons de le faire. Une telle transition entre considérer quelque chose de probable et la considérer comme étant vraie peut être appelée « fixation de la croyance » (Peirce, 1934) ou mieux encore « fixation provisoire de la croyance ».
43Quoiqu’intuitivement facile à comprendre, la fixation provisoire de croyances ne peut être simplement exprimée selon la théorie standard des probabilités. Dans cette théorie, la seule façon d’exprimer qu’une assertion n’est plus sujette au doute est de lui attribuer la probabilité 1. Toutefois, une fois qu’un énoncé se voit attribué une probabilité unitaire, il est immunisé contre le changement et ne peut plus jamais être mis en doute. Les modèles de révision de la croyance sont à cet égard plus souples puisqu’ils nous permettent de revenir sur des croyances absolues7. La fixation provisoire de croyances est une partie essentielle de notre gestion quotidienne de la croyance. Exemple banal : Je crois tout à fait dans les formes de conjugaison du verbe français « être » que j’ai apprises à l’école. Cette croyance a été confirmée lors de diverses rencontres avec des locuteurs et écrivains dont c’était la langue maternelle. Pourtant, bien que je ne doute pas de cette croyance personnelle, des scénarios saugrenus peuvent être facilement élaborés qui me convaincraient de la revoir. Si j’étais bayésien, je n’attribuerais donc qu’une probabilité élevée à la justesse de ces formes.
44Il n’est pas surprenant que les avantages de la fixation provisoire de la croyance aient un coût. Les attributions de vérité sont loin d’être parfaites en tant qu’approximations d’attributions de probabilité quasi-unitaire. Cela apparaît clairement dans le paradoxe de la préface de David Makinson (1965) : Même si une personne croit dans chacun d’un nombre important d’énoncés (tels que tous les énoncés d’un livre qu’elle a elle-même écrit), elle peut également croire qu’au moins un d’entre eux est faux. Il est difficile de modéliser un tel corpus dans une cadre binaire mais il peut être facilement modélisé dans un cadre probabiliste. (Considérer que chacun des énoncés à une probabilité proche de, mais pas égale à, 1.8)
45Ce que j’ai dit à propos de la fixation de croyances au niveau individuel peut être directement appliqué au niveau social et donc également au corpus scientifique. Puisqu’il existe un besoin correspondant de simplicité dans les systèmes de croyances partagées, une fixation provisoire a lieu dans ces systèmes également. Nous pouvons dès lors mieux définir le corpus scientifique comme étant un répertoire collectif de croyances provisoirement fixées. Il est composé de croyances provisoirement fixées parce que les fixations de croyance sont nécessaires pour arriver à une représentation gérable du monde.
46Au niveau individuel, les limites cognitives nécessitent une économie cognitive. On y arrive au moyen de systèmes individuels étendus de croyances provisoirement fixées. Au niveau social, la coopération demande un accord étendu sur des questions factuelles. On y arrive avec le corpus scientifique qui est un réceptacle de telles croyances provisoirement fixées généralement admises. Surtout, le corpus est universel, c’est-à-dire que nous utilisons le même ensemble de croyances scientifiques provisoirement fixées à toutes sortes de fins. Par exemple, nous acceptons les mêmes énoncés de la structure chimique de l’ADN que nous étudiions l’évolution humaine, examinions la spéciation permanente de la larve de la mouche de la pomme (Xie et al, 2007), établissions un diagnostic biologique de maladies héréditaires ou travaillions dans le domaine du profilage médicolégal de l’ADN. Le besoin d’universalité du corpus scientifique tire son origine de l’économie cognitive individuelle plutôt que de la pression de la coopération sociale. Une communauté d’êtres sans limites ou ayant des limites cognitives insignifiantes peut n’éprouver aucune difficulté à appliquer des normes différentes de croyance dans des domaines différents s’ils ont des raisons de le faire. Pour nous, humains, une telle pratique ne serait pas gérable. Le corpus scientifique doit être universel afin de remplir sa fonction. Mais, comme nous le verrons, ce n’est pas une caractéristique sans difficulté lorsque le corpus est appliqué à des questions de risque où il y a tant en jeu.
4. Utiliser le corpus
47La philosophie des sciences s’est d’habitude attachée à la science pure, c’est-à-dire la science qui cherche la connaissance pour la connaissance9. Une telle connaissance est recherchée pour améliorer notre compréhension du monde, non pour mieux nous équiper pour le changer. Mais, en fait, une grande partie des recherches en cours ont pour principal objectif de servir de guide à l’action pratique. Trois des principaux domaines de la recherche académique, soit la médecine, l’agronomie et les sciences technologiques, sont consacrés à la connaissance comme moyen d’action. La même chose s’applique à des parties importantes des sciences naturelles et sociales. Les recherches sur l’environnement, en particulier, sont généralement jugées et justifiées selon leur efficacité à identifier, évaluer et résoudre des problèmes environnementaux. De la même façon, les recherches en économie sont appréciées suivant leur capacité à orienter les décisions économiques.
48Dans la pratique, la distinction entre recherche fondamentale et appliquée est difficile à faire (Reagan, 1967 ; Sintonen, 1990). J’aimerais souligner deux aspects de cette difficulté. Tout d’abord, de nombreux travaux de recherche semblent avoir les qualités et de la recherche fondamentale et de celles de la recherche appliquée10. Ceci s’applique par exemple à une grande partie de la biologie humaine. Une même étude scientifique peut être importante aussi bien pour notre compréhension de la manière dont le corps humain fonctionne que pour le développement de traitements contre une maladie. Cela s’applique aussi à une grande partie des sciences de l’environnement. Des études sur les migrations des anguilles d’Europe vers la mer des Sargasses peuvent améliorer notre compréhension des mécanismes d’orientation animale mais elles fournissent également des informations qui peuvent être utilisées pour protéger cette espèce menacée d’extinction.
49Le deuxième aspect est la manière dont la frontière entre science fondamentale et appliquée fluctue dans le temps. En 1965, l’éminent mathématicien américain Saunders MacLane (1965, p. 9) écrivait qu’« Il y a 25 ans, la logique symbolique était la branche ‘la plus pure’ des mathématiques ; aujourd’hui, elle est abondamment appliquée, dans les ordinateurs par exemple » (notre trad.). Plus récemment, des recherches sur la photosynthèse ont trouvé une pertinence pratique grâce aux efforts déployés pour développer la photosynthèse artificielle (Herrero et al., 2011) et pour améliorer l’efficacité photosynthétique de plantes agricoles (Ku et al., 2001). De nombreux autres exemples peuvent être donnés qui montrent le caractère simpliste de la division des activités scientifiques en deux catégories, « appliquées » et « fondamentales ». Il n’y a rien de contraire dans la distinction entre motivations appliquées et fondamentales (tournées vers l’action et épistémiques) de la recherche scientifique. Le problème réside dans le fait que cette distinction ne peut pas être utilisée, d’une manière qui ait un sens, pour diviser les activités scientifiques entre deux catégories mutuellement exclusives.
50Pour garder la distinction de base tout en évitant la dichotomie simplifiée à l’extrême entre science pure et appliquée, je propose que nous appliquions plutôt un modèle conceptuel qui fasse la distinction entre les différents types de valeurs ou qualités qu’une étude scientifique peut avoir. Il est plus juste de traiter la fertilité exploratoire (intra-scientifique) et l’utilité pratique (extra-scientifique) comme étant deux qualités qu’une même étude scientifique peut avoir à des degrés divers plutôt que de diviser la science en deux catégories, pure et appliquée (Hansson, 2007c). Ces deux qualités complètent le principal critère de qualité de la science, à savoir la fiabilité à laquelle j’ai fait référence plus tôt dans cet exposé en tant que critère fondamental dans la définition de la science.
51Pour préciser ce qu’on entend par fertilité scientifique, considérons deux scientifiques étudiant le chant des oiseaux. Le premier scientifique enregistre et analyse le chant de 100 oiseaux mâles de la même espèce. Le résultat est une analyse identifiant les différentes composantes du chant et la manière dont elles sont combinées par différents individus. Le second scientifique enregistre et analyse également le chant de 100 oiseaux de la même espèce mais a sélectionné les individus de manière à pouvoir comparer le chant d’oiseaux de territoires voisins. Son analyse apporte des informations précieuses sur la capacité de membres adultes de cette espèce d’apprendre de nouvelles variations de chant (Doupe et Kuhl, 1999). Donc, bien que les deux études ne diffèrent pas en termes de fiabilité, la seconde représente une science de meilleure qualité car, comparée aux autres informations disponibles, les informations qu’elle apporte sont d’une plus grande valeur scientifique (Hansson, 2013a).
52Pour illustrer l’utilité pratique, considérons deux scientifiques étudiant tous deux la synthèse de la sérotonine dans le système nerveux. L’un contribue à la connaissance de ce processus mais sans prévisibilité d’une utilisation pratique des nouvelles informations. L’autre découvre un précurseur qui peut être utilisé dans un antidépresseur. En supposant que les deux études fournissent des informations également fiables, la seconde est de la science de meilleure qualité si on en juge par le critère d’utilité pratique.
53Les trois paramètres de valeur scientifique sont étroitement associés aux différents types de rationalité11. Bien évidemment, l’utilité pratique est liée à la rationalité pratique et la fiabilité à la rationalité épistémique. L’utilité scientifique va de pair avec les aspects de la rationalité théorique qui vont au-delà de la rationalité épistémique.
54Les trois types de qualité contribuent tous à la qualité générale d’une étude scientifique. Toutefois, leur relation n’est pas additive. Une raison majeure en est que la fiabilité est une condition préalable pour qu’une étude ait la moindre qualité générale. Si sa fiabilité est égale à zéro, il en sera ainsi de sa qualité générale quelle que soit sa fertilité scientifique et son utilité pratique. Une étude qui explique en détail la pathogenèse de la maladie de Parkinson aurait une grande valeur, tant en termes de fertilité scientifique que d’utilité pratique, pour autant qu’elle ait un degré élevé de fiabilité. Si elle est très peu fiable, elle serait sans aucune valeur quelles que soient ses deux autres qualités.
55En revanche, ni la fertilité scientifique ni l’utilité pratique n’est nécessaire pour assurer une valeur scientifique élevée. Une étude qui manque d’utilité pratique peut avoir une haute valeur scientifique si aussi bien sa fiabilité que sa fertilité scientifique sont élevées. Peut-être quelque peu plus polémique, j’aimerais proposer qu’une étude manquant de fertilité scientifique peut avoir une valeur scientifique considérable si et sa fiabilité et son utilité pratique sont élevées. Toutefois, une étude qui n’a ni fertilité scientifique ni utilité pratique peut difficilement prétendre à la moindre valeur ou qualité scientifique, même si sa fiabilité est élevée. Supposons que quelqu’un fasse des statistiques très précises des derniers chiffres des plaques d’immatriculation des voitures passant à un endroit donné à Paris entre 8 et 9 heures tous les jours pendant vingt ans. Si les tableaux qui en résultent ne présentent aucune faute, leur fiabilité sera élevée mais leur valeur sera vraisemblablement nulle tant en termes de fertilité scientifique que d’utilité pratique. Dès lors, la valeur scientifique générale d’une telle étude sera également nulle.
56Ces considérations peuvent être résumées par un simple modèle mathématique dans lequel les trois paramètres sont supposés être représentables par une variable prenant des valeurs non négatives12 :
r = fiabilité
s = fertilité scientifique
p = utilité pratique
57Nous pouvons sur cette base définir la valeur scientifique et pratique d’une étude scientifique.
r × s = valeur intra-scientifique
r × p = valeur pratique (valeur extra-scientifique)
58Donc, la valeur intra-scientifique d’une étude ne dépend pas de son utilité pratique. Elle est nulle si soit sa fiabilité soit sa fertilité scientifique est nulle mais, sinon, augmente en fonction de ces deux paramètres. La valeur pratique à des propriétés analogues.
59La valeur générale peut se définir comme étant la somme des valeurs intra-scientifique et pratique :
60– (r × s) + (r × p) = r × (s + p) = valeur scientifique générale
61Cette formule reflète les propriétés essentielles de valeur scientifique générale que je viens d’indiquer : Elle est égale à zéro soit si la fiabilité est égale à zéro soit si et la fertilité scientifique et l’utilité scientifique sont égales à zéro. Elle augmente en outre en fonction des trois paramètres. On doit s’attendre à ce que la valeur scientifique générale d’une étude ait un grand impact sur la façon dont elle est accueillie par la société. Sans doute aura-t-elle un poids considérable s’agissant de décisions pour le financement et le recrutement et la promotion de scientifiques. Dans certains cas, il peut toutefois être préférable de n’utiliser qu’un des trois paramètres. Nous avons déjà évoqué une situation importante où c’est le cas, à savoir les décisions d’entrée dans le corpus13. Nous avons décrit le corpus comme contenant des informations scientifiques qui sont suffisamment fiables pour être dorénavant considérées (provisoirement) comme données de base. Ceci semble impliquer que la fiabilité seule devrait être déterminante pour inclusion dans le corpus.
62En notant cela, nous abordons maintenant les conflits liés au risque concernant les entrées dans le corpus qui ont motivé cette investigation. Nous venons tout juste de réitérer l’hypothèse selon laquelle l’entrée dans le corpus dépend exclusivement de la fiabilité de l’énoncé candidat. Ceci implique que l’entrée dans le corpus est seulement une question de rationalité épistémique de sorte que l’utilité pratique ne joue aucun rôle dans le processus. Cependant, puisque nous utilisons le corpus comme base universelle pour nos décisions pratiques, les décisions portant sur le corpus ont des conséquences pratiques. Lorsqu’on évalue ces conséquences, la rationalité pratique et les valeurs pratiques seront invoquées. Nous sommes de cette façon amenés à juger les inclusions dans le corpus selon des considérations pratiques, contrairement à l’idée même d’un corpus indépendant de connaissance scientifique. Examinons maintenant de plus près ce que cela signifie en pratique.
5. Utiliser les risques pour tester la résistance du modèle de corpus
63À ce stade, nous avons vu que le corpus scientifique est un système universel de croyances préliminairement figées, communes à l’humanité toute entière. Pour être utile, il doit avoir des conditions d’entrée exigeantes, c’est-à-dire que la fixation préliminaire de la croyance ne peut avoir lieu que lorsque les preuves sont solides. De plus, ces conditions d’entrée sont entièrement basées sur les critères de rationalité théorique – ou, plutôt, c’est ce que j’ai supposé jusqu’à ce point mais que je vais maintenant remettre en question.
64Fondamentalement, notre besoin d’un tel référentiel universel de croyances suffisamment fiables découle des prescriptions de la rationalité pratique mais ces prescriptions aboutissent-elles dans leurs fonctions ultimes propres ? Les conséquences du fait de faire confiance au corpus s’accordent-elles avec ce qu’exige la rationalité pratique ? Comme je l’ai déjà indiqué, le problème est que nos choix quant à ce qu’il faut ou non inclure dans le corpus ont des conséquences pratiques. Les critères d’inclusion n’ayant pas été étalonnés en fonction de ces conséquences, il est bien possible que leur application débouche sur un résultat sub-optimal. Ceci est bien entendu particulièrement problématique quand les enjeux sont importants car ils concernent souvent des questions de risque. Nous pouvons dès lors utiliser les questions de risque comme cas d’essai pour tester la résistance du modèle du corpus et déterminer si et, dans ce cas, comment il doit être renforcé. Comme les conditions d’entrée (charges de la preuve) peuvent être trop peu exigeantes ou trop strictes par rapport à nos objectifs pratiques, nous avons deux types de cas d’essai pour cet exercice.
65Nous avons d’abord les cas dans lesquels il semble justifié d’exiger un niveau de preuve plus élevé pour une prise de décision que pour une entrée dans le corpus. Nous pouvons utiliser l’exemple suivant comme cas d’essai.
Inspections de remonte-pentes
Une nouvelle sorte d’acier inoxydable a été inventée dont les tests de laboratoire ont montré l’étonnante résistance au type d’usure qui est la principale raison pour laquelle les câbles d’engins élévateurs tels que les remonte-pentes sont soumis à de fréquentes inspections de sécurité. Des articles sur le nouvel alliage ont été publiés dans les journaux les plus réputés et sa grande résistance à l’usure est considérée par les meilleurs experts comme étant scientifiquement établie. Un remonte-pente utilisant des câbles faits du nouveau matériau va être construit. Son propriétaire demande à l’inspection de la sécurité la permission de réduire la fréquence des inspections de câbles d’une fois par mois à une fois par an. Son argument est qu’il a été scientifiquement établi que le câble sera moins abrasé en un an qu’un câble conventionnel en un mois.
66Notre question est : L’inspection de la sécurité doit-elle suivre cette proposition ou doit-elle maintenir la fréquence actuelle des inspections adhérant ainsi à une exigence de preuve plus élevée que les conditions d’entrée dans le corpus ?
67Le second type concerne un cas dans lequel il semble justifié d’exiger un niveau de preuve moindre pour une prise de décision que pour une entrée dans le corpus :
Additif alimentaire pour bébés
De nouvelles preuves scientifiques montrent qu’un agent conservateur commun dans les aliments pour bébés peut avoir un faible effet négatif sur le développement du cerveau de l’enfant. Selon les meilleurs avis scientifiques disponibles, la question est loin d’être tranchée mais il semble que la balance penche quelque peu dans le sens de l’existence d’un effet. Un comité d’éminents scientifiques a conclu à l’unanimité que, bien que la preuve ne soit pas concluante, il est plus probable que l’effet existe que le contraire. L’agence pour la sécurité alimentaire a reçu une pétition dont les signataires réclament l’interdiction immédiate du conservateur.
68Ici, notre question est bien entendu de savoir si l’agence pour la sécurité alimentaire doit interdire ou limiter l’utilisation de l’additif malgré le fait que les preuves de sa nocivité ne répondent pas aux conditions d’entrée dans le corpus.
69Les deux types de cas sont pertinents dans la pratique et présentent tous deux un défi compte tenu de la manière habituelle dont la science doit contribuer à la prise de décision pratique. Le second cas, dans lequel la charge de la preuve scientifique semble être trop élevée pour des applications pratiques, a fait l’objet d’abondantes discussions durant au moins les soixante années qui se sont écoulées depuis l’article majeur de Rudner (1953) sur les jugements de valeur en science. Je n’ai pu trouver de discussion correspondante concernant le premier type de cas. C’est regrettable car, comme je vais tenter de le montrer maintenant, il appelle un type de solution différente et, dans un certain sens, plus radicale que celle du second.
6. Lorsque la science exige trop peu de preuves
70Bien que la question de dépasser ou d’élargir les conditions d’entrée dans le corpus à des fins pratiques ne semble pas avoir attiré beaucoup d’attention, une discussion pratiquement parallèle sur les conditions portant sur la connaissance a eu lieu en épistémologie. Ici, la question essentielle est de savoir si le fait qu’une chose est connue d’une personne est une raison suffisante pour que cette personne s’y fie dans un raisonnement pratique (Hawthorne, 2004 ; Stanley, 2005 ; Fantl et McGrath, 2007 ; Brown, 2008 ; Buckwalter, 2010). Cette discussion a en grande partie été axée sur l’invariantisme sensible au sujet, point de vue selon lequel les conditions de vérité de « S sait que p » diffèrent entre sujets S puisqu’elles dépendent des intérêts pratiques du sujet. Le corpus scientifique est une construction collective et donc la sensibilité au sujet n’est pas directement pertinente pour nos problèmes. Il y a cependant un aspect de cette discussion qui peut aussi s’appliquer au corpus. On comprendra mieux avec l’exemple suivant :
L’usine d’armement
Lors d’une visite dans une usine d’armement, un des visiteurs montre une pile d’armes et demande au guide : Ces pistolets sont-ils chargés ? Le guide prend un des pistolets, l’ouvre, montre son chargeur vide et dit « Non, ils ne le sont bien sûr pas. »
Cela convainc les membres du groupe. Si on leur avait demandé s’ils savaient que le pistolet qu’on leur a montré n’était pas chargé, ils répondraient tous « oui ». (Il n’y aurait pour commencer aucune raison de croire que ces armes soient chargées.)
Ensuite, la même personne qui a posé la question prend le même pistolet que le guide, le porte à sa tête et montre son intention d’appuyer sur la détente, simplement pour rire. Des hoquets de surprise se font entendre et quelqu’un dit : « N’appuyez pas sur la détente ! On ne sait jamais, il pourrait être chargé. (Hansson, 1996b)14 »
71Quoiqu’il n’y ait aucune bonne raison de croire que le pistolet est chargé, il semble raisonnable de tenir compte de l’avertissement. L’exemple présente également une autre caractéristique importante pour notre investigation actuelle : Si nous demandons à la personne qui a mis en garde son compagnon de visite contre l’imprudence de son geste si elle croit maintenant que le pistolet n’est pas chargé, nous pouvons être quasiment certains qu’elle répondra par la négative. Ceci illustre un schéma général décrit par David Lewis (1996, p. 549) : « Si vous soutenez que S sait que p, mais que vous admettez que S ne peut exclure une certaine possibilité dans laquelle non-p, il semble évident que vous avez admis que S ne sait après tout pas que p ». Lorsque nous en arrivons à douter de quelque chose que nous-mêmes croyions précédemment savoir, nous cessons alors de nous considérer nous-mêmes comme sachant cette chose (et peut-être même de l’avoir sue). Il est difficile de trouver du sens à une affirmation selon laquelle quelqu’un sait quelque chose mais doit encore la vérifier (Cohen, 1999 ; Brogaard, 2008).
72Ce que je veux dire est que cette caractéristique quelque peu brouillonne d’affirmations individuelles de connaissance s’applique également à la construction collective d’un corpus scientifique. Si des scientifiques découvrent que ce qu’ils considèrent comme étant des énoncés de fait bien fondés sont considérés par d’autres comme étant trop peu fiables pour une action pratique, ils sont alors face à deux options. Ils peuvent tenir pour infondée la méfiance envers ces énoncés scientifiques ou ils peuvent augmenter les conditions d’entrée dans le corpus pour ces énoncés particuliers. La première réaction est assez fréquente mais la seconde, qui coïncide avec le schéma des affirmations de connaissance que nous venons de voir, est celle la plus philosophiquement importante. Il existe théoriquement une troisième option, à savoir continuer à soutenir que les énoncés contestés ont une base scientifique suffisante tout en admettant qu’ils ne sont toutefois pas suffisamment fiables dans certaines applications pratiques. Ce n’est cependant pas une véritable option car elle contredirait le concept fondamental du corpus scientifique en tant que référentiel universel de croyances suffisamment fiables. Choisir cette option semblerait bizarre car elle conduirait le visiteur de l’usine d’armement à plutôt dire : « N’appuyez pas sur la détente ! Vous et moi savons tous les deux que le pistolet n’est pas chargé mais il pourrait l’être bien que nous sachions qu’il ne l’est pas.15 »
73Considérez les deux énoncés scientifiques suivants concernant un nouveau médicament :
74(a) « Ce médicament ne présente aucun effet secondaire grave »16.
75(b) « Ce médicament peut provoquer la cécité chez certaines personnes. »
76Avant que le premier de ces énoncés soit accepté en pratique clinique, des preuves étendues pour chacune des phases de test du médicament doivent être fournies et ces preuves doivent inclure plusieurs essais cliniques approfondis. C’est seulement si de telles preuves sont disponibles que la communauté médicale considérera que (a) est établi. En revanche, beaucoup moins de preuves sont nécessaires avant que (b) soit considéré comme étant connu17. La différence dépend bien entendu de la non-valeur pratique associé à la croyance erronée en (a), respectivement (b). Toutefois, cette différence n’est pas présente dans les discussions pratiques à propos des effets des médicaments. Elle est incorporée aux pratiques scientifiques en pharmacologie clinique et fait rarement l’objet de commentaires.
77Ce que je postule est que ceci est un schéma général en science. Nos critères d’inclusion dans le corpus ne sont pas exclusivement à l’écoute des besoins de la rationalité théorique (comme je l’ai provisoirement supposé plus avant18). Si, pour un énoncé particulier, nous constatons que des critères plus stricts sont nécessaires pour des objectifs pratiques que pour des objectifs théoriques, les critères d’inclusion de l’énoncé dans le corpus seront alors ajustés à ce niveau supérieur19. Nous nous sommes jusqu’à présent appuyés sur le principe provisoire suivant en matière d’entrées dans le corpus :
Les critères pour inclure un énoncé dans notre corpus (universel) de connaissance scientifique coïncident avec les besoins du processus continu de recherche de connaissance scientifique, c’est-à-dire les besoins de rationalité théorique.
78Sur base de ce que nous avons vu maintenant, il devrait être remplacé par le critère disjonctif suivant :
Les critères pour inclure un énoncé dans notre corpus (universel) de connaissance scientifique coïncident avec les plus exigeants
(a) des besoins du processus continu de recherche de connaissance scientifique, c’est-à-dire les besoins de rationalité théorique, et
(b) des besoins de preuve les plus élevés qui sont généralement acceptés comme étant nécessaires pour cet énoncé dans tout type existant de prise de décision pratique.
79Cette influence sur les entrées dans le corpus de décisions pratiques assorties d’exigences de preuve très importantes semble être intégrée continuellement et sans heurt dans le processus scientifique plutôt que d’y être ajoutée comme un élément étranger. C’est la raison pour laquelle il est difficile de trouver des exemples dans lesquels il serait conseillé de remplacer les critères scientifiques d’entrée dans le corpus par des critères plus exigeants pour des objectifs pratiques. Dans de tels cas, le corpus scientifique a déjà été ajusté pour ces critères.
80Ceci dit, nous sommes prêts à analyser notre cas d’essai du remonte-pente20. L’exemple décrit une situation dans laquelle il y a divergence entre les exigences de preuve pour entrée dans le corpus et des exigences de preuve plus strictes pour un objectif pratique. Sauf que, selon ce que j’ai soutenu maintenant, de telles situations ne se présentent d’habitude pas puisqu’elles sont anticipées au sein du processus de connaissance scientifique. Le corpus est continuellement ajusté non seulement aux besoins de la recherche scientifique mais aussi aux besoins pratiques qui ont des exigences de preuve plus strictes que le processus scientifique même. Si une telle divergence devait se présenter, elle serait généralement traitée au travers d’un ajustement des exigences d’entrée dans le corpus plutôt qu’au travers de dispositions spéciales pour les décisions pratiques concernées.
81Par ce mécanisme, les valeurs non-épistémiques ont une influence au cœur même de la science en déterminant quels énoncés doivent ou ne doivent pas être considérés comme scientifiquement validés à un niveau suffisant et donc actuellement hors de doute. Devrions-nous nous en inquiéter ? L’intégrité de la science est-elle menacée par cette influence de valeurs et de considérations pratiques qui apparaît clairement dans l’application de la science à des questions pratiques de risque ?
82Ma réponse est non. L’intégrité de la science n’est pas menacée par ce type d’influence des valeurs pratiques. La raison en est que ces ajustements vont toujours dans le sens d’exigences de preuve accrues. Ce mécanisme ne nous incite pas à inclure quoi que ce soit dans le corpus qui n’aurait sinon pas été autorisé mais seulement d’exclure des énoncés qui sinon auraient été inclus.
83Manifestement, même si des ajustements à la hausse des conditions d’entrée ne menacent pas l’intégrité de la science, ils peuvent avoir d’autres inconvénients. Comme je l’ai noté peu avant, des conditions d’entrée trop peu exigeantes menacent et la fiabilité et la productivité du processus de connaissance scientifique tandis que des conditions d’entrée trop exigeantes menacent seulement la productivité, pas la fiabilité21. Des conditions d’entrée exigeantes pour les énoncés scientifiques qui inciteraient les médecins à administrer un nouveau médicament empêcheront l’acceptation de tels énoncés et, par conséquent, bloqueraient l’introduction de nouveaux médicaments. Toutefois, il s’agit là d’un prix que nous sommes prêts à payer pour garantir autant que possible la sécurité de nouveaux médicaments (Hansson, 2006d).
84Ces écarts à la hausse par rapport aux normes de preuve de la rationalité théorique sont tous locaux. Une alternative serait d’augmenter la charge de la preuve dans tout le corpus de telle sorte que tous les énoncés soient traités selon la charge de la preuve la plus exigeante que la rationalité pratique demande pour n’importe lequel d’entre eux. Une telle approche aurait l’avantage de la simplicité puisqu’elle traiterait plus uniformément les candidats à l’entrée dans le corpus. Ce n’est pourtant pas une option réaliste car son prix serait trop élevé. Tout ajustement à la hausse de la charge de la preuve a un prix. La rationalité théorique exige que nous évitions de supposer vrais des énoncés à moins qu’il y ait de solides preuves en leur faveur. Mais les exigences de preuve peuvent aussi devenir trop élevées pour la rationalité théorique. Nous pouvons bien sûr éviter les fausses croyances en ne croyant presque rien mais nous n’aurions alors pas une plateforme suffisante pour nos investigations futures (Godfrey-Smith, 1991, p. 712). Pour minimiser de telles pertes, les ajustements à la hausse des exigences de preuve restent au niveau local, c’est-à-dire qu’ils sont faits uniquement lorsqu’il existe un besoin spécifique d’en faire.
85Comme ces ajustements à la hausse ne sont apportés que lorsque les besoins pratiques d’exigences de preuve plus élevées sont reconnus de manière générale, ils sont principalement basés sur des valeurs qui ne prêtent pas à controverse. Beaucoup, voire la plupart, de ces valeurs non controversables sont liées au risque, comme l’évaluation positive d’une sécurité personnelle accrue et de risques moindres pour la santé (illustrée ici par les exemples du remonte-pente et des effets secondaires des médicaments). L’essentiel de l’impact des valeurs non-épistémiques en science ne découle pas des types controversés de valeurs qui ont été au cœur de la plupart des discussions sur la neutralité de la valeur scientifique. Au contraire, l’influence la plus grande provient des valeurs qui ne prêtent pas à controverse telles que les hypothèses selon lesquelles la santé est souhaitable (en science médicale), l’apprentissage est bénéfique (en science pédagogique) et une diminution de la consommation d’énergie est avantageuse (science technologique).
7. Lorsque la science exige trop de preuves
86Ce sont les conditions d’entrée exigeantes qui rendent le corpus utile en tant que source universelle d’informations fiables. Du fait du critère disjonctif d’entrée dans le corpus que je viens d’expliquer, les informations qu’il contient sont pratiquement toujours suffisamment fiables. (Ceci aurait sans doute été vrai dans la plupart des cas même si le critère d’entrée dans le corpus était exclusivement basé sur la rationalité théorique comme nous l’avons provisoirement supposé comme point de départ de notre analyse.) Toutefois, outre leur effet bénéfique, des conditions d’entrée exigeantes ont aussi un autre effet, défavorable celui-là : Les informations n’ayant pas fait l’objet d’un soutien probant suffisamment solide pour entrer dans le corpus peuvent néanmoins avoir suffisamment de force probante pour avoir une influence légitime sur certaines décisions pratiques. Mais si nous basons exclusivement nos décisions sur ce qui est contenu dans le corpus, de telles informations seront alors bloquées par ses exigeantes conditions d’entrée.
87Notre autre cas d’essai, l’additif alimentaire pour bébés, est un clair exemple de ce paradoxe22. Si, dans ce cas, l’agence gouvernementale fonde sa décision exclusivement sur les informations du corpus, elle ne verra aucune raison de limiter l’utilisation de l’additif. Ceci est contraire aux intuitions morales et de prudence de la plupart des gens23. Vu ce qui est en jeu, des restrictions d’utilisation de l’agent, particulièrement dans les aliments pour bébés, sembleraient justifiables. Bien sûr, ceci est juste un exemple de schéma général de la manière dont nous réagissons aux risques. Supposez que nous ayons de bonnes raisons de croire qu’une nouvelle maladie gallinacée puisse se transmettre aux humains. Nous voudrons probablement prévenir cette contagion sans d’abord attendre des preuves concluantes. S’il existe des indications scientifiques sérieuses de l’éruption imminente d’un volcan, sans doute voudrons-nous en évacuer les abords dès que possible plutôt que d’attendre une évaluation scientifique complète confirmant que l’éruption aura lieu. Des exemples tels que ceux-là montrent qu’il n’est pas rationnel (d’un point de vue pratique) – et encore moins moralement défendable – d’ignorer les signes avant-coureurs d’un danger possible simplement parce qu’ils ne constituent pas une preuve scientifique complète. Nous souhaitons nous protéger nous-mêmes contre des risques potentiels même si la preuve en est moindre que ce qui est exigé d’une preuve scientifique. Le modèle du corpus semble toutefois exiger que nous agissions seulement lorsqu’il existe une information dans le corpus qui confirme le risque. Ceci est une difficulté que nous devons surmonter.
88Peut-être, la solution la plus évidente serait d’abaisser le niveau de preuve exigé dans ces cas, exactement comme nous le relevons dans les cas où nous estimons qu’il est trop bas pour des objectifs pratiques. Nous pourrions, par exemple, ajuster les exigences de preuve en toxicologie de telle sorte qu’elles soient conformes à l’approche « mieux vaut prévenir que guérir » que nous souhaitons adopter quand il y a doute quant aux effets toxiques possibles. Après qu’un tel ajustement ait été fait, les choses seront, vraisemblablement, plus simples puisque nous n’aurons plus à faire la distinction entre les critères de décisions pratiques et intra-scientifiques dans ce domaine. Un effet toxique serait considéré comme étant scientifiquement établi si et seulement si les preuves de cet effet sont suffisantes pour justifier une action protectrice.
89Des propositions dans ce sens ont souvent été faites (quoique, d’habitude, implicitement) dans des cas individuels. Je n’ai pas connaissance de proposition complète pour en faire un principe général24. On peut admettre qu’un ajustement à la baisse de la preuve exigée pour une entrée dans le corpus est une façon simple et, à certains égards, séduisante d’aborder le problème lié au fait que les conditions d’entrée exigeantes excluent des informations qui pourraient légitimement avoir une influence sur des décisions pratiques. C’est certainement une solution qui mérite qu’on l’étudie sérieusement.
90En l’évaluant, nous devons garder à l’esprit la raison pour laquelle notre corpus scientifique a des conditions d’entrée exigeantes. Le corpus détermine ce que nous considérons comme fait établi pour de futures investigations. Si nous abaissons les conditions d’entrée, de nombreux autres énoncés seront alors considérés comme données de base et une grande partie d’entre elles seront incorrectes. Il existe de nombreux exemples des effets délétères d’hypothèses incorrectes dans les investigations scientifiques. Nous avons dès lors de fortes raisons de nous opposer à l’importation d’une masse d’hypothèses incorrectes dans la science. L’existence de telles hypothèses, en toxicologie par exemple, réduirait et retarderait nos chances d’améliorer la détection, la compréhension et la prévision d’effets toxiques des substances dans notre environnement. L’intégrité de la science, et donc de ses capacités à résoudre les problèmes, serait perdante dans une telle évolution.
91Ce que nous devons faire, c’est donc autre chose. Nous devons combiner les deux objectifs suivants :
921. Nous assurer que des preuves scientifiques crédibles soient incluses dans les débats pratiques liés aux questions où elles sont pertinentes même si elles ne sont pas suffisantes pour justifier qu’elles soient considérées comme données de base dans des investigations scientifiques futures, et
932. Nous assurer que la capacité du corpus scientifique à orienter de futures investigations scientifiques ne soit pas compromise par l’inclusion d’une proportion accrue d’énoncés erronés.
94Il s’ensuit que, du fait du premier de ces objectifs, certaines informations qui ne peuvent être incluses dans un corpus assorti de conditions d’entrée exigeantes devraient néanmoins être considérées dans les délibérations pratiques. Du fait du second objectif, il s’ensuit que cela ne peut se faire en abaissant les conditions d’entrée du corpus scientifique. Nous pouvons conclure de ces deux principes que nous avons besoin d’un moyen d’inclure dans nos délibérations pratiques des énoncés qui ne se qualifient pas pour le corpus. Ceci peut être décrit comme étant un contournement permettant à des données scientifiques de trouver le chemin de délibérations pratiques scientifiquement fondées sans passer par le corpus (Voir Figure 1).
95Cette voie n’est pas facile à emprunter, en particulier parce qu’il y a un troisième objectif assez évident que nous devons satisfaire, à savoir
963. Utiliser la science de manière efficace dans les délibérations pratiques dans lesquelles sont admises des preuves qui ne font pas partie du corpus.
97Lorsque des preuves de force très différente sont juxtaposées dans une même délibération, on sera à l’évidence tenter de choisir parmi les éléments de preuve contradictoires non selon leur force mais selon ses présomptions et préjugés propres. C’est ce que le troisième critère nous recommande vivement d’éviter. Pour y répondre, nous avons besoin de principes explicites sur la manière dont les différents types de preuve doivent être traités. Les trois principes suivants constituent une première approche pour établir une ligne directrice dans ce but (Hansson, 2008a).
98Premièrement, il ne peut y avoir de différence dans les types de preuve qui sont pris en compte. Voyons l’exemple de l’aliment pour bébés. Il existe une série de données expérimentales et épidémiologiques pertinentes pour déterminer quels énoncés concernant la toxicité de cet agent conservateur devraient être inclus dans le corpus. Il s’agit de la même série de données dont nous devrions nous servir comme base scientifique pour la décision pratique de limiter l’utilisation de la substance. Plus précisément, nous ne devrions pas exclure des données scientifiques pertinentes que nous n’aimons pas pour des raisons non scientifiques. Pas plus que des informations de qualité trop médiocre pour trouver place dans la discussion scientifique ne devraient avoir d’influence sur la discussion pratique. Les décisions en matière de politique ne sont bien inspirées ni en négligeant des données pertinentes ni en se fiant à des données dépourvues de pertinence.
99Deuxièmement, l’évaluation de la force des différents éléments de preuve devrait être identique dans les deux processus délibératifs. Si, par exemple, une étude épidémiologique est considérée plus fiable qu’une autre du fait d’un meilleur contrôle des facteurs de confusion, il faudrait lui donner davantage de poids non seulement par rapport à l’entrée dans le corpus mais aussi dans les discussions menant à des choix de politique.
100Troisièmement, le niveau de preuve exigé peut, et généralement devrait, être différent pour les deux décisions. Les décisions portant sur le niveau de preuve dont nous avons besoin pour justifier différents types de décisions pratiques appartiennent au domaine de la rationalité pratique, pas de la rationalité théorique. Pour de telles décisions, des considérations non scientifiques ont un rôle légitime.
101Bien sûr, cette proposition est assez conventionnelle puisqu’elle représente une tentative pour spécifier ce qu’il faut faire pour tirer la ligne entre science et politique dans le monde conventionnel. Il faut faire confiance à la science pour déterminer les questions factuelles mais la science ne peut nous dire quoi préférer ou quoi choisir. En matière de risque, cette ligne est constamment franchie. Quoique la distinction entre évaluation du risque (scientifiquement fondée) et gestion du risque (basée sur une politique) soit acceptée en règle générale au moins depuis les années 70 (National Research Council, 1983), elle est souvent ignorée et, dans certains domaines, pas du tout appliquée (Clausen Mork et Hansson, 2007)25. Afin de maintenir l’intégrité de la science dans les évaluations du risque, il est essentiel d’en définir le domaine de compétence aussi précisément que possible.
102Le contournement que je viens de décrire est compatible avec le principe de précaution. Ce principe a été interprété de nombreuses façons différentes mais une caractéristique centrale des définitions faisant le plus autorité est que l’action pour éviter d’éventuels dangers se justifie même en l’absence d’une preuve scientifique complète de ces dangers (Sandin, 1999 ; Hansson, 1999). Le contournement peut être considéré comme une façon d’appliquer le principe de précaution tout en maintenant l’intégrité de la science dans l’évaluation du risque26.
103À ce stade, un commentaire sur un autre principe se justifie qui peut être vu comme une solution alternative au problème lié au fait que les conditions d’entrée exigeantes du corpus excluent des informations qui semblent suffisamment pertinentes et justifiées pour avoir une influence sur des décisions pratiques. L’idée de la soi-disant « rigueur scientifique » consiste simplement à ne tenir aucun compte de telles informations et d’uniquement baser nos décisions pratiques sur des informations qui ont été reconnues comme scientifiquement valables (c’est-à-dire, dans la terminologie actuelle, sur des énoncés qui répondent aux conditions d’entrée dans le corpus). Cependant, malgré le soutien d’organisations influentes, cette opinion sur la relation entre les deux processus de décision est manifestement indéfendable27. La rationalité pratique exige que nous tenions compte de toutes les preuves pertinentes. Écarter des preuves de danger bien fondées chaque fois qu’elles ne sont pas assez solides pour dissiper tous les doutes équivaudrait à agir comme si toutes les probabilités de danger étaient égales à zéro chaque fois qu’elles ne sont pas proches de l’unité28. Une telle attitude serait manifestement irrationnelle. Il n’est donc pas surprenant que personne ne semble plaider pour l’application de la « rigueur scientifique » dans tous les domaines de la politique. Elle est seulement encouragée dans des questions environnementales et de santé spécifiques. La raison en est bien sûr que son application constante, par exemple en matière de prévention du crime et de politique de sécurité, aurait des effets désastreux. La proposition de « rigueur scientifique » n’a de respectabilité ni scientifique ni philosophique et ne doit pas être prise au sérieux29.
Conclusion
104Finalement, récapitulons. J’ai tenté de définir et de préciser les difficultés que les questions de risque entraînent pour l’intégrité de la science. J’ai également esquissé les contours d’une manière dont la philosophie de la science peut contribuer à résoudre ces difficultés. Ce faisant, je me suis fortement appuyé sur le modèle du corpus du processus de connaissance scientifique. Comme tous les modèles, il exclut certaines caractéristiques de son sujet et en simplifie d’autres à l’extrême. J’y ai recours parce que je crois que les caractéristiques qu’il souligne doivent jouer un rôle central dans notre investigation.
105La science, selon l’approche que j’ai utilisée, est la pratique qui nous fournit les énoncés les plus fiables (c’est-à-dire les plus épistémiquement justifiés) qui peuvent être des faits, pour le moment, à propos d’une grande variété de sujets. La science nous fournit un répertoire universel séparé de croyances factuelles, répertoire dont nous pouvons espérer qu’il soit à l’abri de l’influence indésirable de valeurs pratiques et d’autres considérations pratiques. Il n’est cependant pas aisé de protéger le corpus de l’influence de valeurs pratiques. Ceci s’avère critique lorsque la science est appliquée à des questions de risque comme cela a de plus en plus été le cas au cours des dernières décennies. Deux types principaux de problèmes se posent dans l’interface science-risque.
106Le premier type de problème survient lorsque des décisions en matière de risque exigent un niveau de preuve plus élevé pour un énoncé que le niveau requis pour que ce même énoncé soit accepté comme étant scientifiquement valable. La solution courante à ce problème est d’ajuster les exigences d’approbation scientifique de telle sorte qu’elles coïncident au niveau le plus élevé demandé dans l’application pratique. J’ai montré que de tels ajustements sont très courants dans certains domaines de la science ; ceci explique pourquoi des preuves plus solides sont exigées en science médicale concernant l’absence d’effets secondaires graves d’un médicament que concernant la présence de tels effets. Comme ces ajustements vont tous dans le sens d’exigences plus fortes de preuve scientifique, ils ne menacent pas l’intégrité de la science quoiqu’ils représentent une influence considérable des valeurs sur le cœur même du processus de connaissance scientifique.
107Le second type de problème se présente lorsque des décisions en matière de risque demandent un moindre niveau de preuve pour un énoncé que le niveau requis pour que ce même énoncé soit accepté comme étant scientifiquement valable. La solution correspondante, à savoir un ajustement à la baisse des critères d’approbation scientifique, déboucherait sur un afflux accru dans la science d’hypothèses erronées qui seraient alors considérées comme données de base dans des investigations futures. Cela menacerait l’intégrité de la science. Une autre solution est donc nécessaire dans ce cas. Nous avons besoin d’un contournement de telle sorte qu’on puisse faire appel, dans des délibérations pratiques, à des informations scientifiquement crédibles mais insuffisamment certaines pour être considérées comme scientifiquement valables. Quoique ceci soit le mieux que l’on puisse faire dans ce cas, c’est une méthode précaire et nous devons veiller à ce qu’elle ne légitime pas des pratiques qui menaceraient l’intégrité de la science. J’ai, dans ce but, proposé une ligne directrice simple selon laquelle la pertinence et la force de la preuve doivent être évaluées de la même manière que dans les mécanismes internes de la science alors que le niveau de preuve exigé pour des décisions différentes doit être basé sur des considérations pratiques plutôt que scientifiques.
108Ces deux menaces liées au risque pour l’intégrité de la science peuvent être évitées quoique par des méthodes différentes. Il ne s’agit toutefois pas d’une solution « une fois pour toutes ». En fin de compte, l’intégrité de la science se doit d’être maintenue par des scientifiques compétents et vigilants dans leurs activités quotidiennes et, espérons-le, avec le soutien actif de philosophes de la science.
Notes de bas de page
1 Le Grand Robert, 2e éd. 1985, 8, p. 426.
2 Oxford English Dictionary en ligne.
3 Selon l’Oxford English Dictionary, c’était à l’origine un synonyme pour « humanités » mais, « utilisé ultérieurement », il faisait spécialement référence aux sciences sociales. Une recherche sur Google faite le 9 janvier 2013 a produit huit résultats pour « faculty ofthe human sciences », qui tous étaient des traductions en anglais du nom de facultés dans des pays non-anglophones. Une recherche sur « faculté des sciences humaines » a produit 222.000 résultats, y compris des liens vers des facultés ainsi nommées dans de grandes universités françaises et canadiennes.
4 Pour d’autres critères similaires, voir Hansson, 2008b.
5 Voir sections 5-7.
6 Cette hypothèse sera modifiée dans la section 6.
7 Pour l’utilisation de modèles de révision de la croyance dans l’étude du corpus scientifique, voir Hansson, 2010a.
8 Ceci illustre l’utilité d’approcher un même problème philosophique par le truchement de plusieurs modèles formels (Hansson, 2010c).
9 On peut trouver plusieurs belles exceptions dans un numéro spécial de International Studies in the Philosophy of Science, 2006, 20 (1).
10 Le fait qu’une étude scientifique puisse combiner utilité pratique et fertilité scientifique a été souligné avec vigueur par Stokes (1997).
11 Voir section 2.
12 Le modèle est destiné à illustrer les relations générales entre les concepts. Je ne prétends pas qu’il puisse être opérationnalisé pour n’importe quel type de mesure. Ce modèle peut être considéré comme étant une utilisation allégorique des mathématiques.
13 Une autre situation similaire est la démarcation entre science et pseudo-science. Le manque de fertilité ou d’utilité ne suffit pas à classer comme pseudo-science une pratique prétendument scientifique. Des données scientifiques fiables mais inutiles et sans intérêt ne sont pas pseudo-scientifiques. Il est important de faire la distinction entre, d’une part, la démarcation entre science et pseudo-science et, d’autre part, entre bonne et mauvaise science. Dans le second cas, les trois paramètres jouent un rôle évident (Hansson, 2009a, 2013a).
14 Pour des exemples similaires, voir DeRose, 1992.
15 Comme ceci le montre, la phrase « Je sais que p » est pragmatiquement incompatible non seulement avec « p est faux » mais aussi avec « p peut être faux ».
16 En réalité, un tel énoncé ne peut être prouvé. Pour des raisons purement statistiques, à défaut d’autres, l’absence complète d’effets secondaires à une exposition ne peut jamais être montrée dans des études expérimentales ou d’observation. Une formulation plus précise bien qu’également plus complexe décrirait la fréquence d’effets secondaires graves comme étant inférieur à un nombre réduit mais non nul (Hansson, 1995 et 1997).
17 En règle générale, le niveau de preuve requis pour agir en pratique clinique comme si (b) était vrai évoluera plutôt en sens opposé, c’est-à-dire qu’il sera inférieur au niveau de preuve exigé pour accepter des énoncés sans application pratique directe. Voir section 7.
18 Voir section 3.
19 Il y a un schéma analogue dans notre utilisation de la notion de sécurité. Il est habituel de qualifier de sûr par rapport à un risque donné une pratique ou un objet si la probabilité d’actualisation de ce risque est très faible, même si elle n’est pas nulle. Toutefois, si le risque est actualisé malgré sa faible probabilité, nous cesserons alors, en règle générale, de considérer cette pratique ou cet objet comme sûr. On peut illustrer cela par l’exemple d’une veste considérée sûre contre le feu (ininflammable) puisque la probabilité qu’elle y soit exposée est extrêmement faible bien que non nulle. Si en fait elle prend feu dans des circonstances inhabituelles, nous serions enclins à revenir sur notre approbation antérieure de l’énoncé selon lequel elle était sûre contre le feu (Hansson, 2012b).
20 Voir section 5.
21 Voir section 3.
22 Voir section 5.
23 Sur les approches morales du risque, voir Hansson, 2003a et 2013a. Sur les approches prudentielles du risque, voir Hansson, 2007b.
24 Plusieurs auteurs ont toutefois proposé que les pratiques statistiques soient ajustées au travers d’un seuil de signification plus élevé (α*) que le traditionnel 0,05. En conséquence, Dobbins (1987, p. 43) ont avancé qu’il serait utile « d’augmenter la possibilité d’une erreur alpha dans une étude individuelle de l’habituel niveau de 5 % à 10 % ou plus » (Cranor, 1990, notre trad.). Ceci a certainement pour effet d’abaisser le niveau de preuve exigé. Plus précisément, cela augmentera la probabilité d’erreurs de type II (faux négatifs) et, en même temps, augmentera la probabilité d’erreurs de type I (faux positifs), ce qui en soi n’est bien sûr pas un avantage dans des cas types (Hansson, 1995).
25 Une raison majeure à cela peut être que la ligne n’est souvent pas tirée au bon endroit. Le concept de risque a été considéré par différents acteurs comme étant soit un concept tout à fait objectif soit tout à fait subjectif. Il s’agit de deux visions simplifiées à l’extrême qui toutes deux masquent la vraie nature de ce concept, à savoir qu’il a et une composante objective et une composante subjective et qu’on ne peut se passer ni de l’une ni de l’autre. Considérons un énoncé disant qu’il y a un risque de 0,05 que la population de loups en Suède disparaisse dans les 20 prochaines années. Cet énoncé a deux composantes. Premièrement, il annonce qu’il y a une probabilité de 0,05 que l’espèce disparaisse au cours de cette période. Deuxièmement, il dit qu’il s’agit d’un risque, ce qui implique que ce serait un événement indésirable (et non pas souhaitable comme l’affirme une véhémente minorité de Suédois). Les évaluations conventionnelles du risque reprennent les deux types de jugement. Dans la plupart des cas (mais pas dans celui que je viens de citer), la classification d’événements liés au risque est basée sur des valeurs qui ne prêtent pas à controverse mais les énoncés basés sur des valeurs qui ne prêtent pas à controverse ne doivent pas être confondus avec des énoncés sans valeur. En outre, de nombreuses évaluations du risque contiennent des agrégats basés sur des indices relatifs de différents risques et de tels indices sont rarement non controversés (Hansson, 2010d).
26 Sur le principe de précaution, voir également : Sandin et Hansson, 2002, Sandin et al., 2002, Sandin et al., 2004, Hansson et Rudén, 2008 et Hansson, 2008a.
27 Cette utilisation du terme « rigueur scientifique » semble avoir commencé avec la formation de The Advancement of Sound Science Coalition (TASSC). Cette organisation a été créée aux États-Unis en 1993 par la société Philip Morris. Sa principale mission était de promouvoir l’opinion selon laquelle les preuves de risques pour la santé liés au tabagisme passif étaient insuffisantes pour motiver une action réglementaire. Malgré son nom, l’organisation promouvait la pseudo-science plutôt que la science (Ong et Glantz, 2001). Sur certains de ses partisans, voir Mooney, 2005, Oreskes et Conway, 2010 et Rudén et Hansson, 2008.
28 Une forme similaire de raisonnement fallacieux semble être courante lorsque des décisions de politique doivent être prises dans une situation où des énoncés scientifiques crédibles sont en concurrence. Si l’un de ces énoncés est considérablement plus plausible que les autres, la tendance sera alors de l’utiliser comme base exclusive de la décision de telle sorte que les autres énoncés, moins plausibles, sont totalement écartés. Cela peut bien entendu conduire à une décision sub-optimale (Hansson et Johannesson, 1997 ; Hansson, 2006a).
29 Une discussion relativement similaire a eu lieu en épistémologie, faisant référence à la connaissance individuelle plutôt qu’à l’inclusion dans le corpus. John Hawthorne et Jason Stanley ont proposé que, en raisonnement pratique, il ne peut être rationnel pour un individu de se fier à un énoncé p que si cette personne sait que p (Hawthorne, 2004 ; Stanley, 2005 ; Hawthorne et Stanley, 2008). Toutefois, leur point de vue ne partage pas le caractère rudimentaire de la proposition de « rigueur scientifique » puisqu’ils incluent le manque de connaissance propre comme base possible pour agir. Selon Hawthorne et Stanley, si vous ne savez pas si un chien mord, vous pouvez alors raisonnablement empêcher votre enfant de jouer avec le chien. Cependant, à leurs yeux, c’est justifiable non pas parce que vous ne savez pas si le chien va mordre ou parce que vous n’en êtes pas certain mais parce que vous savez que vous ne savez pas si le chien va mordre (Hawthorne et Stanley, 2008, pp. 572-573). Pour une discussion à ce sujet, voir aussi Schiffer, 2007 et Stanley, 2007.
Auteur
Professeur de philosophie à l’Institut royal de technologie à Stockholm. Il est le rédacteur en chef de Theoria et l’éditeur de deux livres dans les collections Philosophy, Technology and Society (Rowman & Littlefield International) et Outstanding Contributions to Logic (Springer). Ses domaines de recherche incluent la philosophie des sciences et de la technologie, la théorie de la connaissance, la logique, la philosophie morale fondamentale et appliquée, la théorie de la valeur et la philosophie politique. Il a notamment publié The Ethics of Risk (Palgrave Macmillan 2013), The Role of Technology in Science : Philosophical Perspectives (Springer 2015, direction de l’ouvrage), et Descriptor Revision. Belief Change Through Direct Choice. (Springer, sous presses).
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Géométrie pratique
Géomètres, ingénieurs et architectes. XVIe–XVIIIe siècle
Dominique Raynaud (dir.)
2015
Science, philosophie, société
4e congrès de la Société de Philosophie des Sciences
Alexandre Guay et Stéphanie Ruphy (dir.)
2017
Le langage est-il inné ?
Une approche philosophique de la théorie de Chomsky sur le langage
Delphine Blitman
2015
Les mathématiques comme habitude de pensée
Les idées scientifiques de Pavel Florenski
Renato Betti Laurent Mazliak (trad.)
2022
Analogies végétales dans la connaissance de la vie de l’Antiquité à l’Âge classique
Sarah Carvallo et Arnaud Macé
2023
Le schème et le diagramme
Les ancrages matériels de la pensée et le partage visuel des connaissances
Fabien Ferri, Arnaud Macé et Stefan Neuwirth (dir.)
2024