Développements instrumentaux en contexte de sous-détermination théorique. Cas du diagnostic moléculaire
p. 117-129
Résumés
Les mécanismes de déclenchement du cancer restent trop peu connus pour permettre des stratégies opératoires pour le diagnostic et la détection précoces. L’utilisation expérimentale des instruments à haut débit dans un cadre revendiqué a-théorique (recherche de corrélations sans hypothèses) continue de susciter des espoirs, bien qu’elle permette rarement d’identifier des biomarqueurs moléculaires cliniquement pertinents. À l’heure du Big Data, elle génère la revendication que le développement technologique guiderait désormais la recherche biomédicale, rendant inutile toute tentative de théorisation ou modélisation a priori. Cet article conteste que ces stratégies instrumentales soient dépourvues d’arrière-plans théoriques. Il s’appuie sur l’existence de controverses et de surenchères technologiques pour mettre en évidence l’existence de représentations et de parti-pris sous-jacents. En l’absence de cadrage théorique contraignant, ces présupposés entretiennent une relation bilatérale avec les stratégies instrumentales : d’une part, la technologie peut modifier l’adhésion des chercheurs aux présupposés inhérents à certaines stratégies de recherche, tandis que, réciproquement, cette adhésion contribue à introduire des critères non épistémologiques dans l’évaluation des technologies.
The factual claim that “big data science” could and would get rid of theory has been much less addressed than the normative claim of the legitimacy of a theory-free science. This paper outlines a case-study argument to contribute to this factual debate. The first section gives an overview of the key role of technology in molecular diagnostics, with an emphasis on microarrays and fast DNA sequencing. The second section introduces the case study, that deals with reactions to the first drawbacks of clinical proteomics with cancer, and how it is at odds with dominant expectations in genomics. My argument is that the antagonistic discourses involved feature fundamental theoretical postulates, which do not just reflect cognitive or financial competition.
Note de l’éditeur
Cette recherche est issue du projet Nano2E (« Nanotechnologies : épistémologie & éthique »), financé par l’Agence Nationale de la Recherche (Programme P3N 2010-2013).
Texte intégral
Introduction
1Entre une approche rationaliste, ne voyant dans l’instrumentation que des théorèmes incarnés (telle la « phénoménotechnique » de Bachelard), et une approche empiriste, attachée à l’indépendance d’énoncés d’observation, une troisième voie se dessine aujourd’hui pour penser les rapports des instruments aux théories scientifiques, celle d’une autonomie relative1.
2Il importe d’autant plus d’en préciser les formes et les modalités que se développent, depuis plusieurs années, des stratégies de recherche dites « sans hypothèses », revendiquant un rôle directeur de la technique (technology-driven). L’avènement du Big Data, consistant en l’analyse de gigantesques quantités de données, a même amené à proclamer jusqu’à la « fin des théories2 ». On peut supposer que cette revendication s’exacerbe lorsque ces approches sont employées précisément dans un contexte où il n’existe pas de cadre théorique suffisamment contraignant pour prescrire ou définir précisément ce que l’on cherche (contexte de sous-détermination théorique des stratégies d’observation).
3L’émergence de ces stratégies et des revendications qui les accompagnent ont engendré des débats parfois âpres au sujet de leur nature, de leur valeur et de leur légitimité, pour savoir si l’on fait de la meilleure science avec ou sans modèles ou a priori théoriques (ou même pour savoir si l’on fait toujours de la science le cas échéant)3. Au lieu de s’immiscer dans ce débat normatif, cet article préfère interroger le présupposé partagé par les protagonistes : celui de l’existence de démarches qui seraient réellement dépourvues d’arrière-plan théorique. Le cas étudié est celui du diagnostic moléculaire, c’est-à-dire l’utilisation d’instruments à haut débit pour détecter des maladies et pronostiquer leur évolution.
4Des controverses récurrentes au sein même des approches par les données – les tentatives d’application clinique des « -omiques » : génomique, protéomique, etc. –, ainsi qu’une fuite en avant dans des stratégies à l’efficacité discutable, révèlent des partis pris théoriques souvent implicites dans les programmes de recherche. Comment ces convictions et ces représentations sont-elles alors liées à l’instrumentation ? La technique garde-t-elle une indépendance et une prédominance quelconques ?
5Les philosophes se sont surtout intéressés au diagnostic moléculaire d’un point de vue éthique4, mais commencent à l’aborder sous un angle épistémologique5. Dans cette optique, l’article ne se situe pas seulement à l’interface de la philosophie des sciences et de la philosophie des techniques ; d’une part, il peut également concerner la philosophie de la médecine de par la question des limites des possibilités d’objectiver la frontière entre le normal et le pathologique ; et d’autre part, il articule la réflexion philosophique à une démarche d’inspiration sociologique, en s’interrogeant sur les pratiques (notamment, par l’intermédiaire d’entretiens avec des acteurs).
6La première partie donne un aperçu de la technologie et de son importance cruciale dans les pratiques actuelles de diagnostic. L’article abordera ensuite quelques problèmes résultant de la limitation des connaissances biologiques et de leur intrication avec la façon dont la communauté évalue les nouvelles technologies. Il soutient que la technologie ne se développe pas dans un vide représentationnel, elle se rapporte à des représentations et des convictions.
1. La technologie, moteur de la clinique post-génomique ?
7Le diagnostic moléculaire repose sur l’identification et la détection de marqueurs biologiques à l’échelle infra-cellulaire (protéines, acides nucléiques…). Il vise à objectiver la distinction entre santé et maladie par les procédés et connaissances issus de la biologie moléculaire, en se basant sur des techniques génériques de biodétection et qui concernent d’autres domaines, comme la pollution et la biométrie.
8L’enrichissement du parc technologique pour le diagnostic moléculaire est tributaire du modèle de la recherche translationnelle, qui essaye d’identifier des biomarqueurs potentiellement pertinents pour la clinique (des molécules ou séries de molécules spécifiquement associées à une pathologie donnée), que l’on tente de valider à une échelle plus large au moyen d’essais cliniques, débouchant, en cas de succès, sur la possibilité de concevoir un test spécifique commercialisable.
9Les qualités idéales des instruments de diagnostic à prendre en compte dans ce contexte de développement sont essentiellement le ratio sensibilité-spécificité6, la non-invasivité (pas de lésion des tissus au-delà d’une prise de sang), la diffusabilité (qui dépend en particulier de la taille de l’instrument), et naturellement un coût abordable. Chacune de ces qualités implique une problématique propre, et la conception d’un instrument doit donc les concilier dans la mesure du possible.
10L’un des défis majeurs posés au progrès du diagnostic moléculaire réside dans des maladies à l’étiologie complexe, appelées maladies « multifactorielles ». On définit généralement celles-ci comme associant un « terrain » de prédisposition génétique à divers facteurs « environnementaux », l’environnement pouvant désigner différentes échelles (milieu intercellulaire, conditions de vie, ...). Regroupant cancers, maladies cardiovasculaires, neurodégénératives, diabètes, etc., ce sont des maladies souvent graves, aux paramètres nombreux et mal connus. Cet obstacle au regard médical se traduit par le problème classique de la détection précoce et du pronostic : ainsi, dans le cas du cancer (sur lequel on se concentrera dans la suite de l’article), lorsqu’on repère une tumeur à un stade peu avancé, on ne sait prédire son évolution ; si elle s’avère dangereuse, on ne le sait que trop tard. Étant donné que le repérage à un stade précoce est un enjeu déterminant pour l’issue de la maladie, le cas de figure est celui dans lequel la tumeur naissante est d’une taille qui échappe au regard macroscopique, mais est associée à des biomarqueurs en faible concentration permettant de la détecter, de l’identifier ou de la caractériser avec précision. D’autre part, la multiplicité des paramètres possibles suppose de regarder plusieurs choses en même temps.
11Des instruments ont été créés sur des principes correspondant à ces problématiques : ce sont les instruments d’analyse biologique à haut débit (biopuces, notamment puces « à ADN » ou microarrays, séquenceurs à ADN dits « de nouvelle génération », et divers procédés reposant sur la spectrométrie de masse). Les deux principes concernés sont donc, d’une part, la capacité de discriminer finement des molécules et des états moléculaires, et d’autre part, la parallélisation (ou multiplexage), qui consiste à décliner massivement un test sur des milliers ou des dizaines de milliers d’analyses de façon simultanée.
12Des stratégies instrumentales ont été progressivement affinées dans le contexte post-génomique. On va notamment chercher l’information diagnostique dans la structure ou le comportement d’un génome, ou dans la composition du protéome. La parallélisation sert ainsi à fournir une image exhaustive (dans le cas du génome, où la réaction simultanée des quelques 25 000 gènes à un stimulus donné peut être sondée) ou pseudo-exhaustive (dans le cas du protéome et des stades successifs d’intégration des protéines dans des circuits métaboliques, qui dépassent de loin en quantité et en complexité les capacités techniques) du comportement d’une cellule dans une situation définie. Cela permet, en particulier, de comparer des cellules saines et des cellules malades, et de chercher ce qui les différencie à l’échelle moléculaire. L’avantage de l’exhaustivité serait alors de permettre une observation a-théorique, sans hypothèses privilégiant tel ou tel site par rapport à d’autres : en regardant tout en même temps, on aurait une réponse strictement empirique quant à la multiplicité des paramètres impliqués. On parle de recherche sans hypothèses, ou recherche sans a priori (en anglais, data-driven par opposition à hypothesis-driven). En vertu de ces stratégies rendues possibles par la capacité à traiter simultanément des milliers d’observations, on cherche à identifier des corrélations sans proposer de mécanisme explicatif. Alors que certains y saluent une avancée délivrant l’observation empirique des préjugés de la théorie, d’autres y voient un recul de l’esprit scientifique, une paresse intellectuelle se contentant du « clique-bouton » – ou, pour le dire de façon moins péjorative, une croyance trop optimiste en la possibilité d’user de raisonnements scientifiques sophistiqués dans des procédures automatisées.
13Quoi qu’il en soit, la technologie soulève des espoirs considérables, sensibles dans la littérature, fréquents et récurrents pour les puces à ADN et le séquençage de nouvelle génération, selon une rhétorique tout à fait caractéristique7. La parallélisation n’est pas seule concernée, puisque l’introduction des nanotechnologies rend possible des avancées significatives pour ce qui concerne la précision (structuration fine de l’interface pour un meilleur contrôle des interactions avec les biomolécules) et la miniaturisation (plus grand nombre d’analyses traitables par unité de surface de l’instrument, vitesse, réduction de la taille des échantillons, diffusion…). Un aspect remarquable des nanotechnologies est de permettre une conciliation maximale entre ces valeurs de précision et de diffusabilité, qui ont pu s’avérer antagonistes dans des configurations antérieures (comme ce fut le cas, par exemple, vers l’an 2000 pour la quantification des récepteurs hormonaux au début des thérapies ciblées pour le cancer du sein8). Ces avancées contribuent également à alimenter les espoirs placés dans la technologie, toujours sur le même mode discursif9.
14Ainsi donc, alors même que la technologie semble occuper une place de plus en plus centrale, la conviction très courante est qu’elle sera le facteur décisif dans le progrès de la clinique : une condition pas seulement nécessaire, mais également suffisante. Cette présomption repose sur une confiance, peut-être excessive, dans l’adaptabilité des technologies de recherche à la clinique.
2. Problèmes et controverses
15Les promesses engendrées par ces progrès technologiques ont rarement été tenues jusqu’à présent. Plus généralement, c’est toute la recherche translationnelle qui présente un mauvais rendement global10. Dans le cas des puces à ADN, utilisées en recherche depuis 1995, le nombre de tests cliniques validés se compte encore sur les doigts d’une main. Encore, cette validation se fait-elle au prix d’une sous-utilisation du potentiel technologique des puces11 – une « dénaturation » de la technique, pour ainsi dire. La parallélisation rencontre de sérieux obstacles à son implantation en clinique. À cela, existent des raisons qui tiennent aux différences entre le contexte médical et le contexte scientifique12, mais également des raisons qui tiennent aux résultats inattendus des instruments à haut débit dans la recherche elle-même. En effet, si les approches sans hypothèse ont permis des progrès substantiels dans l’étude des maladies génétiques mendéliennes, leurs résultats pour l’étude des maladies multifactorielles sont restés décevants. En particulier, l’identification de biomarqueurs tumoraux se solde la plupart du temps par un échec : on ne parvient pas à trouver de corrélations significatives robustes entre molécules candidates et maladies13. De nombreux tests prometteurs ne passent pas le stade des essais cliniques, c’est-à-dire la confrontation à une population plus étendue. Le retour d’expérience d’usage des instruments sur une quinzaine d’années a permis de comprendre comment de nombreux biais influençaient les résultats, menant à l’instauration de contrôles-qualités sur les procédures de laboratoire. Dès lors que les conditions expérimentales deviennent suffisamment stabilisées et standardisées, l’obtention de résultats toujours insatisfaisants signifie que l’hétérogénéité mesurée n’est pas un artefact instrumental, mais une propriété de ce que l’on observe. L’étude comparative de tumeurs séquencées à haut débit14 est porteuse d’une véritable crise de classification : il était déjà devenu incorrect de parler « du » cancer en général, on s’aperçoit désormais que chaque tumeur, que chaque cellule cancéreuse est unique. L’exploration systématique de l’échelle moléculaire semble indiquer les limites du paradigme des oncogènes, consolidé dans les années 1980 autour de l’idée de l’existence d’un petit nombre de « gènes du cancer » spécifiques, suite à plusieurs découvertes encourageantes dans ce sens. L’on en a, en fait, découvert tellement que l’idée même de leur spécificité risque de devenir un obstacle épistémologique plus qu’un éclaircissement.
16On se retrouve ainsi dans une situation où les connaissances limitées ne permettent pas, à l’exception de quelques cas remarquables mais trop rares, de prescrire un usage probant des instruments. La théorie ne fournit pas de mode d’emploi : soit parce que les observations sans hypothèse ne trouvent pas de corrélations généralisables, soit parce que les modèles généraux existants ne donnent pas d’indication opératoire pour résoudre le problème de la détection précoce. En d’autres termes, la plupart du temps, on ne sait pas où regarder pour prédire la carcinogenèse ou pronostiquer la malignité. Les stratégies diagnostiques sont sous-déterminées par les connaissances biologiques. La médiation technique du regard clinique peut donc prendre la forme de stratégies complémentaires ou concurrentielles : faut-il regarder l’ADN ? L’ARN ? Autre chose ? Cette situation est génératrice de controverses, notamment vis-à-vis du niveau d’expression génétique qui contiendrait l’information d’intérêt clinique.
17Ainsi, en 2003, un essai d’application de la protéomique à la détection du cancer des ovaires a malencontreusement annoncé un sans-faute qui n’a jamais pu être reproduit. L’hétérogénéité des différents résultats était du en bonne part à des biais inhérents à l’adaptation de la spectrométrie de masse à ce contexte expérimental délicat. L’arrivée du séquençage de nouvelle génération, deux ans plus tard, a enfoncé le clou et favorisé un « refocus » de la communauté sur une approche génomique des cancers15 (qui restait un paradigme dominant, autour notamment du modèle des mutations). Cet épisode représente un cas significatif de controverse quant au niveau d’expression génétique le plus pertinent auquel trouver des biomarqueurs, mettant en concurrence une approche protéomique et une approche génomique. Le principal artisan de la première explique ainsi que :
La génomique a mené à la notion de « médecine personnalisée », mais je crois que la route menant à la médecine personnalisée sera pavée de protéines […] On ne peut continuer à espérer qu’un test génétique, séparé jusqu’à six degrés des aspects fonctionnels de la maladie, mènera aux thérapies plus précises dont on a besoin16.
18… tandis qu’un cancérologue réputé, hostile à la démarche du premier, estime que :
Et surtout, comme les séquençages next generation ont fait de tels progrès et amènent, à des coûts tout à fait abordables, la possibilité d’aller directement au gène ou à l’expression du gène, au mRNA ou au CNV… à tout ce qu’on veut, je dirais, c’est un peu… C’est vers là que se situent l’avenir et les possibilités. Beaucoup plus que du côté de la protéomique17.
19Comme souvent, les controverses scientifiques révèlent les « philosophies » sous-jacentes des chercheurs. On relève une symétrie entre les discours antagonistes, tous deux partageant l’idée d’un « regard direct », d’un accès au « vrai » niveau biologique qui contiendrait l’information diagnostique : le cancérologue parle d’un « accès direct au gène ou à l’expression du gène » avec le SNG, tandis que pour le héraut de la protéomique « les gènes (…) ont plusieurs degrés de séparation d’avec le véritable niveau où se situent les choses (a couple of degrees of separation removed from the real thing). Oubliez l’analyse génomique. Regardez directement là où ça se passe (look directly at the business). La cible du médicament est-elle activée ?18 ».
20Une analyse plus poussée de ces discours manifeste également une partialité dans l’évaluation des technologies : alors qu’aucune instrumentation n’est sans défaut, surtout à ses débuts, du point de vue des acteurs la technique est soit transparente, soit digne d’indulgence, soit le sésame futur lorsqu’elle sert la « bonne » approche ; elle mérite d’être mise aux oubliettes dans le cas contraire.
3. Instruments et paradigmes
21Sur un plan épistémologique, les instruments concernés manifestent une certaine indépendance par rapport aux connaissances biologiques. Si l’on représente simplement par un petit schéma (figure 1) les liens entre, d’un côté, les technologies et les classes de biomolécules par niveau d’expression (à droite), et de l’autre, ces classes de molécules et l’ensemble des pathologies (à gauche), cela signifie qu’une modification des associations d’un côté n’est pas forcément solidaire d’une modification des associations de l’autre côté19.
22Sur le plan de l’imaginaire des chercheurs, d’autre part, on a relevé une relation d’influence réciproque entre technologie et paradigmes : la hype peut modifier la popularité relative d’une approche (comme l’illustre le « refocus » sur la génomique), tandis que les convictions des chercheurs pèsent sur l’évaluation du potentiel porté respectivement par différentes technologies.
23Si l’on admet qu’une connaissance plus aboutie de la biologie des cancers ne donnerait pas lieu à de tels flottements, on peut soutenir que ces degrés de liberté croissent avec la sous-détermination théorique ; en d’autres termes, une moindre phénoménotechnicité favorise la plasticité des relations entre le prestige des instrumentations et les affinités théoriques des chercheurs.
24Ce modèle suggère donc que la technique n’est jamais complètement découplée des systèmes de représentations à côté desquels elle se déploie : en contexte de sous-détermination théorique, elle ne se développe pas dans un vide représentationnel (comme pourrait le laisser croire un discours un peu radical sur les approches sans hypothèse). Des représentations et des croyances sont présentes, comme l’indique le présupposé, présent dans le discours des acteurs, d’un niveau biologique (génome, protéome…) plus « réel » que les autres, plus digne ou légitime d’être pris pour référence ou centre de gravité.
25En effet, le choix de considérer un seul niveau, au point de carrément négliger les autres, n’est pas seulement une décision méthodologique. Elle peut certes l’être en partie, par commodité, devant l’incapacité à prédire intégralement le phénotype à partir du génotype ; après tout, comme dans toute science, il est nécessaire de faire des hypothèses simplificatrices pour pouvoir travailler. Dans le cas présent, lorsque les chercheurs décident de considérer que les différents niveaux biologiques sont redondants20, ou qu’il suffit de considérer un seul niveau, ce peut être en vertu d’une telle décision. On peut qualifier une telle simplification pragmatique de réductionnisme méthodologique, auquel s’opposera alors un réductionnisme ontologique, c’est-à-dire selon lequel la simplification se justifierait de droit, en raison de propriétés biologiques supposées objectives. On choisit un niveau que l’on essaye de corréler avec le phénotype cancéreux, en considérant négligeables les autres niveaux. La corrélation imparfaite généralement obtenue est implicitement interprétée en décidant que les « variables cachées » restant à découvrir sont à localiser à tel niveau et/ou pas à tel autre : soit des gènes ou interactions génétiques, soit des protéines ou interactions « environnementales ». L’hypothèse simplificatrice résulte alors d’une conviction quant à la nature des phénomènes biologiques, et non d’un simple souci de commodité technique. Il n’est pas toujours facile de distinguer les deux en pratique, à plus forte raison qu’ils demeurent souvent implicites. Plus exactement, si la réduction simplificatrice est la même in fine dans la pratique, il est généralement malaisé de discerner si la décision qui la motive est d’ordre méthodologique ou ontologique.
26L’argument est donc que la communauté manifeste un réductionnisme qui n’est pas seulement méthodologique, mais également ontologique, lorsqu’est défendue la prévalence d’un niveau d’expression génétique. Cela implique que les approches dites « sans hypothèse » usurpent en partie leur nom, ou du moins qu’on ne peut attribuer à leur nom une signification absolue, ce qui déboute partiellement toute revendication d’empirisme pur ; la technique n’a donc pas un rôle directeur exclusif de toute représentation ou parti-pris.
27Si la concurrence entre les -omiques n’était qu’un aménagement provisoire en vue d’une grande intégration ultérieure, nécessité par l’impossibilité technique actuelle de procéder à cette intégration – si, autrement dit, cette concurrence était une division du travail organisée en vertu d’une stratégie cognitive délibérée de la communauté –, il n’y aurait jamais de controverses, ni aucune raison de rendre une telle stratégie invisible dans la littérature et les discours. Si, en outre, cette concurrence n’était que le reflet artificiel d’une concurrence pour les sources de financement, cela ne ferait que déplacer la question à la nature des motivations de ces sources de financement (surtout lorsqu’elles tendent à être de plus en plus « extérieures » au champ scientifique).
28Bien sûr, le consensus relatif actuel pour une approche génomique du cancer n’est pas apparu arbitrairement. Le paradigme des oncogènes a émergé sur des bases sensées au regard des avancées importantes réalisées dans les années 1980. En revanche, l’inertie de ce paradigme (et de ses déclinaisons ultérieures), sa persistance en dépit de l’accumulation d’anomalies, n’est sans doute pas due à sa seule robustesse épistémologique (qui n’a sans doute pas encore dit son dernier mot) ; elle fait écho à un engouement culturel bien ancré pour la croyance en une détermination génétique de la plupart des aspects de la vie humaine. Alors que le séquençage de tumeurs rapporte toujours plus d’hétérogénéité et fragilise les classifications, la réaction consiste à fuir en avant dans toujours plus de séquençage21. On peut se demander dans quelle mesure on est uniquement dans un cadre de « science normale », au sens de Kuhn. En d’autres termes, cette attitude de fuite en avant est-elle le fait du « dogmatisme » normal du chercheur22, ou bien est-elle amplifiée par un besoin de croire en le pouvoir des gènes (ou, mais cela revient au même, de minimiser l’influence de l’environnement) ? La communauté est aujourd’hui très ambiguë vis-à-vis d’une telle conviction : elle condamne globalement l’engouement populaire pour les tests génétiques et la « génomancie », elle tient volontiers un discours œcuménique sur la complémentarité des -omiques, mais, en pratique du moins, la prégnance d’une approche génomique des maladies multifactorielles reste forte.
29Les études « génome entier » (genome-wide association studies) ont manifesté une tendance caractéristique à l’annonce de résultats prématurés (la découverte de « gènes de »), presque systématiquement déboutés au fur et à mesure de l’élargissement des échantillons par des études ultérieures. Cet épisode semble dire quelque chose de la hâte à identifier un certain type de corrélations, dont on avait surtout postulé l’existence. Alors même que l’annonce prématurée de la protéomique clinique naissante vis-à-vis de la détection des cancers avait (à raison) choqué la communauté en 2003, les proclamations abusives des GWAS, souvent déplorées, ont pourtant eu pignon sur rue à grande échelle pendant des années.
30Ce type de biais de sur-interprétation se nourrit du caractère statistique de la recherche. La normalisation des résultats passe par le filtrage d’une partie des données « moins significative » en comparaison de la tendance que l’on souhaite. Ces données proviennent du bruit instrumental, inhérent à toute mesure et fonction de la qualité de l’appareil et de son calibrage, mais également d’une hétérogénéité propre à l’objet observé. Il est tentant, au moment du filtrage légitime du premier, de réduire un peu le second en l’ignorant. La décision quant au seuil reste à la discrétion du chercheur. Cette pratique courante permet de lustrer artificiellement le résultat, d’en augmenter la significativité dans des limites tolérées par la communauté (au-delà desquelles on tomberait dans la falsification pure et simple). Parmi différents mécanismes, l’attachement excessif du chercheur à un paradigme favorise cette tendance à la sur-interprétation des résultats. Le statisticien John Ioannidis, grande figure de la traque des biais statistiques dans la littérature biomédicale, imagine un tableau de ce que donnerait une sur-interprétation des études génomiques à grande échelle :
L’abondance d’information produite par les puces à ADN est inédite. C’est là leur grand avantage – et potentiellement leur banqueroute. Supposons un instant qu’aucun gène n’importe pour l’issue de quelque maladie que ce soit, et que tout ce que l’on récolte ne soit que du bruit. C’est un scénario inquiétant : ce bruit est si riche en données que des manipulations minimes, subtiles et inconscientes peuvent générer des résultats biologiques faussement « significatifs » passant l’épreuve de la validation par les meilleurs chercheurs dans les meilleures revues. Les sciences biomédicales s’enfermeraient alors dans une sorte de Moyen Âge ultra moderne, où des quantités de bruit passent pour de la « connaissance »23.
31Par cette espèce de parabole qui compare la lecture de biopuces à l’équivalent d’un test de Rorschach, Ioannidis pointe le danger que la sur-interprétation soit indépendante des technologies de mesure. La question de l’indépendance relative de l’instrumentation et de la théorie prend donc un tour critique : la technique peut-elle contrebalancer des interprétations fallacieuses ?
32D’un côté, le constat existe que l’accumulation de profils moléculaires de tumeurs (séquences d’ADN ou bien spectrogrammes protéiques) non significatifs n’a absolument pas modifié les stratégies de recherche des chercheurs concernés (comportement de fuite en avant). Le chercheur qui tient à son niveau biologique de prédilection bénéficie de l’avantage qu’il ne pourra jamais l’explorer exhaustivement à l’échelle moléculaire : les biomarqueurs ne manqueront jamais de cachettes – ou plutôt, on ne fera jamais le tour entier de tous les sites potentiellement susceptibles d’abriter des biomarqueurs dont on suppose l’existence, avec pour conséquence que, si jamais il n’existait pas de biomarqueur spécifique à telle maladie multifactorielle, on ne pourrait jamais le prouver. On n’est pas dans le contexte de démonstrations décisives, mais dans celui de successions d’espoirs et de découragements au gré de petites et patientes découvertes. La technologie peut peser sur ces affects, pas sur le travail de la preuve.
33D’un autre côté, néanmoins, l’instrumentation pourrait avoir un impact potentiel, quoique partiel et limité, sur l’enracinement des paradigmes. En effet, un progrès significatif dans la qualité des mesures, tel que l’annoncent les nanotechnologies, réduirait considérablement le bruit instrumental au point de laisser apparaître en pleine lumière les mesures dues à l’imperfection du protocole expérimental. Un renouvellement du parc technologique du diagnostic moléculaire sur cette base exposerait alors l’ensemble des protocoles imparfaits à l’échelle de la communauté entière. Cette mise à nu généralisée des mesures mal pensées contribuerait à jeter le soupçon sur le paradigme correspondant, et surtout, contrarierait considérablement les comportements sur-interprétatifs des agents. Cet impact d’instruments presque parfaits sur la construction des données ne tiendrait cependant pas lieu d’experimentum crucis permettant de trancher une controverse comme celle illustrée par l’épisode de 2003 des balbutiements de la protéomique clinique appliquée à la détection des cancers.
34Une autonomie minimale étant requise pour que la technologie puisse accumuler des anomalies, mais l’accumulation d’anomalies en elle-même ne suffisant pas pour changer de paradigme, on peut débouter la prétention que les instruments à haut débit puissent être le seul facteur décisif dans le progrès de la clinique ; ils en sont une condition nécessaire, mais non suffisante. La question persiste, cependant, de savoir dans quelle mesure la complexité atteinte autorise encore l’émergence de nouvelles théories ou de nouveaux paradigmes. La modélisation biologique change peut-être de façon et de raison d’être avec l’avènement du déluge de données24. Autrement dit, ce dernier ne s’inscrirait plus dans un simple processus de succession de paradigmes, mais dans la transition entre la biologie moléculaire (où les modèles jouaient souvent le rôle d’hypothèses plus ou moins spéculatives) et la biologie des systèmes, pour laquelle la complexité débordante et inédite impose sans doute de nouvelles stratégies de compréhension. La réponse au problème d’une utilisation fructueuse des instruments à haut débit en clinique, plutôt que de se résoudre d’elle-même par l’accumulation de données, réside probablement dans de nouvelles manières de faire et d’utiliser les théories, qui seront par la même occasion une solution d’intégration des niveaux biologiques.
Bibliographie
Des DOI sont automatiquement ajoutés aux références bibliographiques par Bilbo, l’outil d’annotation bibliographique d’OpenEdition. Ces références bibliographiques peuvent être téléchargées dans les formats APA, Chicago et MLA.
Format
- APA
- Chicago
- MLA
Bibliographie
Anderson Chris. (23 juin 2008). The End of Theory : The Data Deluge Makes the Scientific Method Obsolete. Wired Magazine, en ligne.
10.1007/s11019-009-9223-x :Boenink M. (2010). Molecular Medicine and Concepts of Disease : the Ethical Value of a Conceptual Analysis of Emerging biomedical technologies, Medicine, Health Care, and Philosophy, 13 (1), 11-23.
10.1377/hlthaff.27.4.w310 :Culliton B. (2008). Nanomedicine – The Power of Proteins : A Conversation with Lance Liotta and Emanuel Petricoin. Health Affairs, 27 (4), 310-314.
10.1007/978-90-481-3261-4 :Debnath M. et al. (2010). Molecular Diagnostics : Promises and Possibilities. New York : Springer.
10.1093/jnci/djq306 :Diamandis E. (2010). Cancer Biomarkers : Can we Turn Recent Failures into Success ? Journal of the National Cancer Institute, 102 (19), 1462-1467.
10.1063/1.882027 :Galison P. (1997). Image and Logic. A Material Culture of Microphysics. Chicago : The University of Chicago Press.
10.1016/B978-0-444-51667-1.50049-5 :Hansson S.O. (2009). Philosophy of Medical Technology. In A. Meijers, Philosophy of Technology and Engineering Science. Amsterdam : Elsevier, 1275-1300.
10.1016/S0140-6736(05)17878-7 :Ioannidis J. (2005). Microarrays and Molecular Research : Noise Discovery ? The Lancet, 365 (9458), 454-455.
10.1371/journal.pctr.0010036 :Ioannidis J. (2006). Evolution and Translation of Research Findings : From Bench to Where ? PloS Clinical Trials, en ligne.
Jordan B. (2011). L’insoutenable complexité des cancers. Médecines/Sciences, 27, 781-784.
Kuhn T. (1963). The Function of Dogma in Scientific Research. In A.C. Crombie, Scientific Change (Symposium on the History of Science, University of Oxford, 9-15 July 1961), New York/London : Basic Books & Heineman, 347-369.
10.1186/1741-7007-8-40 :Lander A. (2010). The Edges of Understanding. BMC Biology, 8 (40), en ligne.
Leonelli S. (dir.) (2012). Data-Driven Research in the Biological and Biomedical Sciences, Studies in History and Philosophy of Science Part C : Studies in History and Philosophy of Biological and Biomedical Sciences, 43 (1).
10.4314/ijmu.v6i1.63971 :Menezes G., et al. (2011). Nanoscience in Diagnostics : A Short Review. Internet Journal of Medical Update, 6 (1), 16-23.
10.1007/978-1-59745-531-2 :Oliveira A.P., et al. (2007). From Gene Expression to Metabolic Fluxes. In S. Choi, Introduction to Systems Biology. Totowa New Jersey : Humana Press, 37-66.
10.1038/embor.2009.111 :Pigliucci M. (2009). The End of Theory in Science ? EMBO Reports, 10 (6), 534.
Proffit A. (16 mars 2010). Profiles in Personalized Cancer Therapy. BioIT World, en ligne http://www.bio-itworld.com/BioIT_Article.aspx?id=97660.
Reis-Filho J. (2009). Next-Generation Sequencing. Breast Cancer Research, 11 (3), en ligne.
Russo, F. (2016). On the Poietic Character of Technology. Humana. Mente Journal of Philosophical Studies, 30, 147-174.
10.1038/nmeth1156 :Schuster S. (2008). Next-Generation Sequencing Transforms Today’s Biology. Nature Methods, 5 (1), 16-18.
Shinn T. (2007). Research-Technology and Cultural Change : Instrumentation, Genericity, Transversality. Oxford : The Bardwell Press.
Notes de bas de page
1 Voir par exemple Galison, 1997 et Shinn, 2007.
2 Anderson, 2008.
3 Voir par exemple Pigliucci, 2009.
4 Voir par exemple Hansson, 2009. Boenink, 2010
5 Leonelli (dir.), 2012 ; Russo, 2016.
6 Il faut détecter les bonnes molécules et pas d’autres (spécificité), fussent-elles en concentration restreinte dans le milieu examiné (sensibilité), sachant que les deux paramètres sont liés. Plus l’on baisse le seuil de détection, plus l’on prélève des bruits ou molécules non spécifiques ; inversement, plus l’on cherche à filtrer, plus l’on court le risque de laisser échapper des molécules pertinentes en petite quantité. Toute stratégie de détection se confronte à ce dilemme technique fondamental lorsqu’il s’agit de trouver une aiguille dans une botte de foin. D’un point de vue médical, il s’agit essentiellement d’éviter les faux positifs et les faux négatifs.
7 « Les conséquences prévisibles [des puces à ADN] sur la prévention et le traitement des maladies pourraient révolutionner la médecine. Les puces à ADN sont en passe de révolutionner et de nous permettre de comprendre le véritable fonctionnement de la vie. » (Debnath et al., 2010, p. 206) ; « Le séquençage de nouvelle génération révolutionne notre capacité à caractériser les cancers aux niveaux génomique, transcriptomique et épigénétique. (…) Il est indéniable que cette technologie représentera un saut quantique pour la recherche fondamentale et translationnelle sur le cancer du sein. » (Reis-Filho, 2009, en ligne).
8 Les techniques immunohistochimiques sur lame ont supplanté temporairement la cytométrie de flux, beaucoup plus précise, mais plus lourde et plus longue. Les cliniciens ont ainsi préféré avoir des résultats rapides, au prix d’une perte des mesures quantitatives, car ces techniques étaient plus simples à mettre en œuvre dans les petites structures (entretien avec Frédérique Spyratos, Institut Curie, Saint-Cloud, 12 mars 2012). La diffusabilité a ainsi été privilégiée au détriment de la précision, jusqu’à ce que les deux techniques concurrentes cèdent la place aux puces à ADN, que les nanotechnologies peuvent aujourd’hui optimiser considérablement.
9 « Les nanotechnologies sont dans une position unique pour transformer le diagnostic du cancer et produire une nouvelle génération de biocapteurs et de techniques d’imagerie médicale à sensibilité et reconnaissance supérieures. Il s’agit d’un champ émergent qui contient en germe des changements de paradigmes dans la détection, le traitement et la prévention du cancer. » (Menezes et al., 2011, p. 16, 19).
10 Ioannidis, 2006.
11 Par exemple, la première puce approuvée par la FDA ne mesure qu’un seul paramètre, celui de la vitesse de métabolisation d’une enzyme impliquée dans la métabolisation de certains médicaments, à travers l’expression du gène qui code pour cette enzyme.
12 Notamment, le problème de la fiabilité individuelle limitée d’une sonde parmi plusieurs milliers ou dizaines de milliers, qui tient à des raisons techniques propres à l’industrie de la micro-électronique dont est issu le concept des biopuces. En recherche, ce manque de fiabilité peut être compensé par redondance, mais pour un diagnostic, on ne peut faire l’économie de l’information spécifique à chaque sonde.
13 Diamandis, 2010, p. 1462 : « Aucun nouveau biomarqueur majeur n’a été approuvé pour usage clinique ces
25 dernières années. »
14 Jordan, 2011.
15 Schuster, 2008.
16 E. Petricoin, cité dans Culliton, 2008, p. 310-311.
17 Entretien avec un ancien président de la Société française du Cancer, 19 avril 2011.
18 E. Petricoin, cité dans Proffit, 2010.
19 À droite, on a donc la division du travail entre les technologies, ni statique ni planifiée, qui est sujette à empiètements : on a utilisé temporairement les puces à ADN pour faire du séquençage (flèche en pointillé), tandis qu’aujourd’hui, elles ne servent plus qu’aux profils d’expression (transcriptomes, ARN), et se trouvent concurrencées par les séquenceurs de nouvelle génération qui peuvent « lire » les deux simultanément. À gauche, le lien entre biomolécules et pathologies représente donc les biomarqueurs potentiels, les points d’interrogation indiquant le caractère lacunaire des connaissances en la matière. Un progrès significatif de ces connaissances finirait sans doute par élire une technologie de prédilection, mais ce ne serait pas une répercussion immédiate. Bien sûr, si l’information déterminante pour le diagnostic précoce du cancer devait se trouver uniquement dans l’ADN ou dans les protéines, cela éliminerait aussitôt le SNG ou les biopuces, respectivement, en tant que technologie de diagnostic candidate. En revanche, si cette information devait se trouver dans l’ARN, cela ne départagerait pas automatiquement le SNG et les biopuces, dont les performances respectives restent à établir avec précision sur ce point. Il est crédible, cependant, que ce scénario amènerait à un renouvellement générationnel de ces instrumentations pour les rendre spécifiquement adaptées au dépistage précoce du cancer (cette adaptation serait alors une « phénoménotechnicisation »).
20 Redondants dans le sens où l’hypothèse simplificatrice revient à considérer que, par rapport au niveau biologique d’élection, les autres niveaux n’apportent pas d’information pertinente. On peut assimiler à ce cas de figure, notamment, les pratiques courantes de linéarisation (les relations génotype-phénotype, ou entre niveaux d’expression, étant généralement non linéaires) telles qu’énoncées comme suit : « … mesurer l’abondance d’ARN messager (ARNm) est la seule véritable méthode génome entier dont on dispose actuellement, et, bien que ce soit inexact, en l’absence d’information supplémentaire, on postule souvent que les niveaux d’ARNm sont proportionnels aux flux enzymatiques correspondants. » (Oliveira et al., 2007, p. 44-45).
21 Interrogeons encore notre cancérologue : « – Question : Si les informations propres au génome ne suffisent pas [pour un diagnostic], comment va-t-on aller chercher [les autres informations] ? » – Réponse : « On ne sait pas actuellement en quoi elles ne suffisent pas. Donc, on ne sait pas comment aller chercher ce qu’on ne connaît pas “rires”. Donc je ne peux pas vous répondre. » (19 avril 2011).
22 Kuhn, 1963.
23 Ioannidis, 2005, p. 454-455.
24 Lander, 2010.
Auteur
Maître de conférences en sciences de l’information et de la communication à l’Université Paris-Est Créteil (EA 4395 « Lettres, Idées, Savoirs »/ UMR 7219 Sphere). Ses travaux ont concerné certaines interfaces entre philosophie des techniques et histoire, philosophie et sociologie des sciences ; ainsi, dans un cadre post-doctoral, ses recherches ont porté sur certains enjeux des « big data » dans les plates-formes instrumentales post-génomiques. Quelques publications : « A Matter of Accuracy. Nanobiochips in Diagnostics and in Research : Ethical Issues as Value Trade-Offs », Science and Engineering Ethics, Springer, vol. 21, n° 2, 2015, p. 343-358. « Rise of the Machines. Challenging Comte’s Legacy with Mechanology, Cybernetics, and the Heuristic Values of Machines », in B. Bensaude-Vincent, X. Guchet, S. Loève (dir.), French Philosophy of Technology. Historical Insights and Current Issues, Springer (à paraître). Le Roux R., Lamy J., « Situer l’innovation ? Le concept de cluster, un outil performatif pour transformer la recherche publique », in I. Sainsaulieu, A. Saint-Martin (dir.), L’ innovation en eaux troubles. Sciences, techniques, idéologies, Vulaines-sur-Seine : Editions du Croquant, 2017, 89-110. « À propos des buzzwords scientifiques et techniques », Carnet Zilsel, 28 juin 2014, http://zilsel.hypotheses.org/973.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Géométrie pratique
Géomètres, ingénieurs et architectes. XVIe–XVIIIe siècle
Dominique Raynaud (dir.)
2015
Science, philosophie, société
4e congrès de la Société de Philosophie des Sciences
Alexandre Guay et Stéphanie Ruphy (dir.)
2017
Le langage est-il inné ?
Une approche philosophique de la théorie de Chomsky sur le langage
Delphine Blitman
2015
Les mathématiques comme habitude de pensée
Les idées scientifiques de Pavel Florenski
Renato Betti Laurent Mazliak (trad.)
2022
Analogies végétales dans la connaissance de la vie de l’Antiquité à l’Âge classique
Sarah Carvallo et Arnaud Macé
2023
Le schème et le diagramme
Les ancrages matériels de la pensée et le partage visuel des connaissances
Fabien Ferri, Arnaud Macé et Stefan Neuwirth (dir.)
2024