Causalités et symétries dans les sciences de la nature. Le continu et le discret mathématiques
p. 51-97
Texte intégral
1Comment donnons- nous du sens aux phénomènes physiques ? La réponse est loin d’être univoque, en particulier du fait que toute l’histoire de la physique a posé au centre de l’intelligibilité des phénomènes des notions changeant es de cause, depuis le riche classement d’Aristote, dont nous reparlerons, jusqu’à la simplification (trop forte ?) de Galilée et à leur compréhension moderne en termes de « relations structurales », voire leur remplacement par ces relations. Il s’agit alors de la stabilité de structures en question, à leurs invariants et symétries, ([Weyl, 1927 et 1952], [van Fraassen, 1994] ; voir [Bailly, 2003], [Bailly, Longo, 2004]). Jusqu’à tenter d’effacer totalement la notion de cause, suite à un grand débat encore ouvert, en faveur, par exemple, des corrélations de probabilité (en physique Quantique, voir, par exemple, [Anandan, 2002]).
2La situation est encore plus complexe en biologie, où la « réduction »à l’une ou l’autre des théories physico-mathématiques courant es est loin d’être accomplie (pour autant qu’elle soit possible ou souhaitable !). Une des difficultés pour ce faire réside, à notre avis, tout autant dans les spécificités des régimes causaux des théories physiques − qui, de plus, diffèrent entre eux – que dans la richesse propre des dynamiques du vivant. On pense ici à l’enchevêtrement et au couplage des niveaux d’organisation, aux phénomènes d’auto poïèse, aux effets ago-antagonistes, aux causalités croisées si souvent mentionnés dans les réflexions théoriques en biologie (voir [Varela F., 1989 ; Rosen R., 1991 ; Stewart J., 2002 ; Bernard-Weil E., 2002 ; Bailly, Longo, 2003]).
3Nous examinerons ici certains aspects de la construction d’objectivité, en science de la nature, en tant qu’explicitation d’un tissu théorique de relations, qui usuellement est exprimé dans un langage tendanciellement uniforme et cohérent, un langage mathématique pour ce qui est de la physique. Et l’on parlera sur tout de relations causales, car les liens causaux sont des structures fondamentales de l’intelligibilité ; mais notre approche principale se centrera essentiellement sur les symétries et invariances ; ce sont elles, en effet, qui, notamment de par les contraint es qu’elles imposent, permettent aux causes de se manifester et qui, en cela, se présentent comme des conditions de possibilité pour la construction de l’objectivité mathématique ou physique.
4Or, si les mathématiques sont constitutives de l’objectivité physique et si elles rendent intelligibles les phénomènes, leur propre « structure interne », celle du continu, par exemple, par rapport au discret, contribue à la détermination physique et biologique et en structure les liens causaux. Pour le dire autrement, les structures mathématiques sont, d’une part, le résultat d’une formation historique de sens, où par histoire il faut entendre tout le parcours constitutif, de notre histoire phylogénétique à l’histoire de l’intersubjectivité et de la construction de connaissance dans nos communautés humaines. Mais, d’autre part, les mathématiques sont aussi constitutives du sens du monde physique, car nous rendons intelligible le réel par les mathématiques. En particulier, elles organisent des régularités et corrèlent des phénomènes qui, autrement, n’auraient pas de sens pour nous. La thèse esquissée dans [Longo, 2002 et « réponse »], et que l’on développe ici, est que les mathématiques du continu et celles du discret, propre à la modélisation informatique, nous proposent des intelligibilités différent es des phénomènes physiques et du vivant, en particulier pour ce qu’il en est des déterminations et des relations causales ainsi que des symétries/ asymétries qui leur sont associées.
5Dans une partie finale, nous tenterons d’aborder le domaine de la biologie en nous interrogeant sur la pertinence opératoire et le statut des concepts ainsi considérés. Mais dans ce texte, nous nous proposons tout d’abord d’illustrer, dans le cas de la physique, la situation que nous venons de décrire sommairement, tout en reprenant la réflexion faite dans [Bailly, Boi] : c’est ce qui nous permettra de « cadrer »la causalité en physique et de la comparer avec les modèles computationnels et la biologie.
1. Structures causales et symétries, en physique
6La représentation usuellement associée à la causalité physique est orientée (asymétrique) : une cause, originelle, engendre un effet consécutif. La théorie physique est censée pouvoir exprimer et mesurer cette relation. Ainsi, dans l’expression classique F=m a, on considère que la force F » cause » l’accélération a du corps de masse m et il paraîtrait tout à fait incongru, malgré le signe « égal », de considérer que l’accélération, à l’inverse, puisse être à l’origine d’une force rapportée à lamasse. Pourtant, dès la théorie de la relativité générale, cette représentation s’est trouvée de fait remise en question au profit d’une représentation interactive de type beaucoup plus équilibré (une représentation « réticulée », pour rait-on dire) : ainsi, le tenseur énergie-impulsion, « cause »sans doute la déformation de l’espace, mais réciproquement, la courbure d’un espace peut être considérée comme source de champ. Finalement c’est l’ensemble du réseau des interactions qui se manifeste qu’il s’agisse de l’analyser sous l’angle de la géométrie ou sous celui, plus physique, de la distribution d’énergie-impulsion. C’est qu’un pas conceptuel essentiel a été franchi : à l’expression d’une « loi » physique isolée (exprimant la causalité en question) s’est trouvé substitué un principe général de relativité (un principe de symétrie) et ce dernier rétablit une é qui valence effective (déterminations interactives) là où semblait se succéder un ordre (de la cause à l’effet).
7Voici un rôle organisateur de la détermination mathématique, un » jeu de règles »et une lecture abstraite, mais riches de sens physique : « les causes deviennent des interactions et ces interactions elles- mêmes constituent le tissu de l’univers... : qu’on déforme ce tissu et les interactions semblent se modifier, qu’on interviennent sur les interactions et c’est le tissu qui se déforme » [Bailly, 2003].
8Nous allons tout d’abord distinguer entre déterminations et causes proprement dites. Par exemple, nous verrons les symétries, proposées dans un cadre théorique, comme reliées aux déterminations qui permettent à des causes de se manifester et d’agir ; en cela elles sont plus générales que ces causes et logique ment elles se situent « en amont » même si historique ment elles sont établies « après » (l’analyse de la force de gravitation, en tant que cause d’une accélération, a précédé l’équation de Newton).
9Précisons alors ce que nous entendons par « détermination »en physique, cela nous permettra de revenir sur les relations causales dont nous reparlerons longuement. Pour nous, toutes ces notions sont le résultat d’une construction de connaissance : en proposant une théorie, nous organisons le réel mathématique ment (formellement) et constituons (déterminons) par cela un niveau phénoménal ainsi que l’objectivité et l’ » objet » même de la physique. Nous parlerons donc et premièrement de « déterminations objectives et formelles », propres à une théorie. Plus précisément, une fois donné un cadre théorique, on peut considérer que :
D.1 Les déterminations objectives sont données par les invariants relatifs aux symétries de la théorie considérée.
D.2 Les déterminations formelles correspondent à l’ensemble des lois et équations relatives au système considéré.
10Pour revenir à notre exemple, lorsque l’on représente la dynamique au moyen de l’équation de Newton, on a une détermination formelle fondée sur une représentation des rapports causaux, que nous appellerons « efficient e » (la force « cause » une accélération). Par contre, lorsque l’on fait appel aux équations de Hamilton on a toujours une détermination formelle, mais renvoyant à une organisation différent e des principes (fondés sur la conservation de l’énergie, typique ment). Il en va encore différemment avec l’optimalité de l’action lagrangienne, qui fait référence à la minimalité d’une action associée à une trajectoire. Dans ce cas, on a, pour la dynamique classique, trois caractérisations mathématiques différent es des événements ; et il faut attendre la notion d’ » invariant de jauge » (c’est-à-dire de « principes de relativité ») pour unifier ces déterminations formelles distinctes sous une détermination objective qui les dépasse, liée aux symétries et invariants correspondants (se manifestant par les groupes de transformation, comme les groupes de Galilée, de Lorent z-Poincaré ou de Lie).
11Une seule et même détermination objective donc, le mouvement d’un mobile avec une certaine masse par exemple, peut rendre compte (résulter !) de déterminations formelles distinctes, fondées sur les concepts de force, de conservation de l’énergie et de géodésique, respectivement. Dans le premier cas, l’invariant est une propriété (la masse), dans le deuxième c’est un état (l’énergie), dans le troisième il s’agit de la criticité d’une géodésique (l’action, une énergie multipliée par un temps).
12Si les résultats finaux de la dynamique du mobile peuvent donc être les même s, en revanche les équations qui y conduisent peuvent prendre des formes fort différent es qui ne s’unifient que sous la contraint e plus large encore des déterminations objectives (portant dans notre exemple, sur une masse en mouvement). Ce sont, de fait, les objets (physique s) eux- mêmes qui sont la conséquence de − donnés par − ces déterminations. Plus précisément, les objets physiques sont caractérisés théorique ment par ce que l’on désigne, assez communément, comme des propriétés et des états accessibles :
O.1 Propriétés (masse, charge, spin, autres sources de champ,...),
O.2 États accessibles, potentiels ou actuels (position, moments, nombres quantiques, intensité de champ,...)
13étant entendu que leurs valeurs spécifiques dépendent essentiellement de la mesure empirique. Pour éclairer le plus simplement possible la différence que nous faisons entre propriétés et états, par le biais de leurs caractéristiques d’invariance, nous pour rions dire que les propriétés (qui caractérisent un objet) ne changent pas quand les états de cet objet changent ; en revanche, si les propriétés changent, c’est l’objet lui- même qui est modifié.
14Ces déterminations objectives constituent donc en quelque sorte le cadre référentiel, à un moment donné, auquel se trouvent rapportées expérience, observation et théorie, ce qui permet d’interpréter et de corréler les unes et les autres. En elles- même s, et comme nous venons de l’indiquer, elles ne caractérisent donc pas complètement les objets qu’elles construisent, mais elles en contraignent − notamment en dégageant des invariants − des propriétés et comportements. Ainsi, par exemple, elles imposent le fait qu’il y ait une masse (sensibilité au champ gravitationnel), mais sans pour autant fixer la grandeur de cette masse ou encore, verrons- nous, la manifestation de champs, comme le champ électromagnétique.
15Il s’agit donc de propriétés que l’on pour rait qualifier de « catégoriales » et qualitatives, mais sans nécessairement spécifier les quantités associées qui, elles, caractérisent quantitativement l’objet en rapport direct avec la mesure. Il en va d’ailleurs de même pour ce que nous appelons les états accessibles : leur structure est caractérisée qualitativement, mais le fait que le système atteigne quantitativement tel ou tel de ces états possibles, théorique ment déterminés, dépend de facteurs empiriques.
16Pourquoi distinguer ici entre propriétés et états accessibles ? Cela nous permettra de comprendre comme cause, dans un sens traditionnel (qu’après Aristote on appellera « cause efficiente »), tout ce qui affecte (peut modifier) les états ; alors que l’on peut considérer que dans l’approche traditionnelle, les invariants de la réduction causale efficiente sont constitués par l’ensemble des propriétés. Toutefois, ces propriétés elles-mêmes participent d’une causalité, que l’on rapprochera de la causalité « matérielle ».
17Tentons donc d’affiner l’analyse, non seulement en distinguant entre différents types de « causes », mais aussi en essayant d’y affecter des éléments distincts d’objectivité. Convenons que, relativement à l’effet d’un objet sur un autre :
C.1 La cause matérielle est associée à l’ensemble des propriétés ;
C.2 La cause efficiente est corrélée à la variation d’un ou plusieurs états.
18On aura reconnu ici une revitalisation de la classification d’Aristote, si chère à René Thom. En fait, si nous voulons maintenir un parallèle avec la catégorisation aristotélicienne, observons que nous avons appelé détermination formelle ce que l’interprétation moderne du Philosophe désignerait comme « cause formelle » (c’est-à-dire ce qui correspond à l’ensemble des contraint es théoriques qui définissent et mesurent les effets des autres causes − lois, règles, théories,...)1. Dans notre approche, ce sont les déterminations, formelles et objectives, qui nous donnent la spécification des objets, par les notions de propriétés et états (dont les structures et variations participent des causes matérielles et efficient es, respectivement). Quant aux causes, nous gardons la terminologie aristotélicienne, quoique les causes matérielles pour raient être classées comme « structures matérielles ». En effet, un changement des propriétés change un objet, comme nous le notions plus haut, mais, en même temps, il induit − il cause ! – un changement des états. Par exemple, un changement de masse ou de charge, dans une équation, modifie les valeurs de l’accélération ou du champ électrique.
1.1 Les symétries comme point de départ de l’intelligibilité
19A partir du point de vue que nous venons de développer, peut-on considérer que des contraint es de symétrie relèvent de contraintes causales ? Selon notre distinction et comme nous venons de le spécifier, les symétries ressortissent aux déterminations (sous la forme de systèmes d’équations, typiquement) dans le cadre desquelles se manifestent les causes. Leur plus grande généralité s’impose donc aussi par rapport aux lois correspondant aux déterminations formelles (qui, par exemple, prennent telle ou telle expression selon les jauges choisies). Pour le dire lapidairement sur l’exemple que nous allons discuter plus bas (Intermezzo) : l’invariance globale de jauge de la phase détermine la charge (une propriété) comme quantité conservée de la théorie et son invariance locale détermine l’existence du champ électromagnétique (un état) sous la forme des équations de Maxwell. Les interactions, décrites par ces équations, peuvent, mais ensuite seulement, être considérés comme nous donnant les causes (matérielles ou efficient es) des effets observés.
20En fait, en physique et depuis Galilée, ce que l’on caractérise usuellement comme « causes »semble correspondre principalement aux causes efficient es, tandis que, comme nous venons de le voir, les « déterminations »semblent plutôt se présent er comme une source commune à des causes qui en dériveraient (y compris matérielles et formelles). Il en résulte que l’on pour rait considérer que, « transcendantalement parlant », les déterminations, les symétries notamment, se présentent comme des conditions de possibilité pour les causes de se manifester.
21Or, il nous semble que toutes les sciences de la nature, à l’exception des sciences du vivant, peuvent se situer dans le cadre conceptuel que nous venons d’esquisser, y compris pour ce qui correspond à des règles d’extrémalisation (les géodésiques du lagrangien), qui semblent, mais à tort selon nous, conférer une teint e de finalité aux processus qu’elles modélisent. Ce n’est qu’avec le vivant que la prise en compte d’une sorte de » causalité finale » (pour le dire encore avec Aristote, voir [Rosen R., 1991 ; Stewart J., 2002]), que nous avons caractérisé ailleurs comme « finalité contingente » et comme lieu du « sens » pour tout vivant, [Longo, 2003], acquiert vraiment une pertinence. C’est ce que nous tenterons examiner plus bas, au paragraphe 3.
1.2 Temps et causalité en physique
22Nous avons donc essayé de spécifier, d’une façon tout à fait générale, les notions de détermination objective, d’objet et de cause physique, en partant de la notion de symétrie et plus précisément, à partir de la notion d’invariance par rapport aux symétries données. Observons aussi que, depuis près d’un siècle, en physique, les lois de conservation, en tant que déterminations formelles, sont comprises en termes de symétries spatio-temporelles ; par exemple, la conservation du moment angulaire est corrélative de la symétrie de rotation (c’est le théorème de Noether qui est à l’origine de ce grand tournant théorique et conceptuel, voir [Bailly, 2003] et intermezzo ci-dessous).
23Mais à ce stade et avant de pour suivre il convient à nos yeux d’introduire une distinction en vue de lever une confusion possible relativement à la représentation de la causalité et au raisonnement que l’on peut tenir à son propos. Nous proposons, en effet de distinguer2, notamment dans le cas de la causalité efficiente, entre causalité objective et causalité épistémique.
24La causalité objective est associée, à notre avis, à une contraint e tout à fait essentielle, constitutive des phénomènes physiques, et qui est le caractère irréversible de l’écoulement du temps (ce que l’on appelle la « flèche du temps »). Même dans le cas où la temporalité n’apparaît pas explicitement, elle demeure sous-jacent e à tout changement, à tout processus en tant que tel − y compris celui de la mesure − et constitue à ce titre un fondement à toute conceptualisation, observation ou expérience, dès lors qu’un tel processus est envisagé. C’est dire, sous l’angle cette fois de l’analyse causale, que le temps est constitutif de l’objectivité physique.
25Par contraste, la causalité épistémique reste souvent indépendant e d’une flèche du temps. Par exemple, l’analyse d’une transition de phase en fonction de la valeur d’un paramètre (telle la température) ne se réfère à aucune temporalité particulière. C’est en quelque sorte la variation atemporelle et abstraite du paramètre qui » cause »la transition, que ce soit dans un sens (par exemple d’un liquide vers un solide) ou dans le sens opposé (d’un solide vers un liquide).
26À ce niveau, la structure de la causalité invoquée (effet du changement de température sur l’état du système) demeure indépendant e du temps, même si, à un autre niveau, c’est bien dans le temps que s’effectue − dans un sens ou dans l’autre − la variation effective de ce paramètre. Il en va de même dans l’exemple très simple que l’on peut prendre avec la loi des gaz parfaits (pV = RT, où p est la pression, V le volume, T la température et R la constant e de Joule). Cette loi est indépendant e du temps et l’on peut concevoir diverses « causes » qui soient à l’origine d’une variation de volume, par exemple, entraînant à température constant e une variation de la pression associée au déroulement d’une réaction chimique. Ces variations concomitant es (et symétrique s, compte tenu de la relation équationnelle) de volume et de pression peuvent être considérées comme des causes − de type épistémique − l’une de l’autre (en fait ces variations peuvent être dites « corrélées ») par contraste avec une causalité objective − temporalisée, cette fois − qui trouverait sa source dans le déroulement temporel de cette réaction chimique à l’origine de la variation de volume considérée (notre distinction peut aider peut-être à comprendre la discussion dans [Viennot, 2003 ; annexe]).
27Une telle distinction entre objectif et épistémique, qui semble clairement correspondre à une réalité dans le cas d’une causalité efficient e (associée, rappelons-le, à des modifications des états du système, comme nous venons de l’illustrer) peut-elle encore s’applique r pour la causalité matérielle ?Il semble bien que dans le cas de la causalité matérielle on puisse trouver des exemples qui montrent qu’il en va bien ainsi, dans la mesure où les propriétés en question ont des expressions différent es selon qu’on les rapporte à leur système propre ou à une référence qui leur est extérieure.
28C’est le cas en relativité, par exemple, où la masse (ou la durée de vie) des particules dépend de leur vitesse relativement au repère du laboratoire : dans le système propre, lamasse au repos demeure une propriété caractéristique de l’identité même de la particule (m0), tandis que dans un référentiel animé de la vitesse v par rapport au système propre, la masse prend un caractère épistémique, dont la mesure est m = m0/ (1-v2/c2) 1/2, avec c vitesse de la lumière (pour la lumière elle- même, c’est d’ailleurs ce qui permet de considérer que la masse propre du photon est nulle, alors même que son énergie est non nulle et que la relation d’Einstein établit un rapport direct entre masse et énergie). De même, la « masse efficace »que l’on calcule suite à la procédure de renormalisation (qui, pour éliminer les infinis des calculs de perturbation, intègre dans la masse propre certaines classes d’interactions) prend un caractère épistémique par rapport à lamasse propre qui conserve son caractère objectif. En ce sens, on peut considérer que les propriétés, qui se situent à la source de la causalité matérielle, gardent un caractère objectif dans leur système propre tout en acquérant un caractère épistémique si on les rapporte à des référentiels différents.
29Du fait que nous prenons en compte la flèche du temps dans la caractérisation de la causalité efficiente objective, nous nous différencions de certains courants de la physique relativiste et quantique qui excluent cette flèche, pour assurer la préservation de toute relation par symétries. Dans ces approches, les relations causales sont remplacées par d’autres concepts, par exemple par des corrélations de probabilité (voir [Anandan, 2002], entre autres). La raison de cette différenciation, outre les éléments d’analyse que nous venons d’exposer, nous paraît épistémologique ment cruciale : nous ferons, en effet, souvent référence aux systèmes dynamiques (thermodynamiques et de type critique s) et nous nous intéresserons aussi à certains aspects de la biologie.
30Or, aucune analyse de ces systèmes, et encore moins du vivant, n’est possible sans prendre en compte l’existence d’une flèche du temps. En particulier, il n’y aurait pas de phylogenèse, d’ontogenèse, de mort.... bref, de vie, sans le temps, bien orient é, irréversible. Les processus du vivant imposent une flèche du temps, ne serait-ce que pour les effets thermodynamiques dont ils participent ; mais il apparaît même inévitable d’aller plus loin, car ces processus demandent un regard nouveau sur des formes complexes de la temporalité, des horloges du vivant aux rétroactions causales dues aux visées intentionnelles, aux attentes et prévisions, propres à la perception et à l’action (voir [Bailly, Longo, 2004]).
31En conclusion, notre point de vue mathématique est que les déterminations objectives sont données par des symétries et une cause efficiente brise certaines de ces symétries ne serait-ce, d’un point de vue objectif, que celle qui est associée à la flèche du temps. Réciproquement, des phénomènes irréversibles (bifurcations, changements de phases...), donc orientés dans le temps, peuvent être lus comme des brisures de symétrie corrélées à des (nouvelles) relations causales. Les symétries et leurs brisures restent donc le point de départ de toute intelligibilité théorique.
32Plus spécifique ment, nous essayerons de comprendre certains liens causaux comme des brisures de symétries, dans un sens très général et abstrait. Cela permettra entre autres de poser les bases d’un cadre fondationnel cohérent pour l’analyse des différents régimes causaux proposés par les mathématiques du continu par rapport à celles du discret arithmétique. Il s’agira donc d’un regard mathématique sur le rôle constitutif des mathématiques dans la construction de l’objectivité scientifique ; par ce biais nous visons à saisir l’importance qu’ont nos machines digitales dans cette construction, car ces machines sont la réalisation pratique de l’arithmétisation de la connaissance. La réflexion finale sur la biologie nous ramènera aux phénomènes naturels, dans toute leur spécificité causale. Bien évidemment la modélisation informatique, en biologie tout comme en physique, reste un enjeu fondamental. C’est justement pour cette raison, qu’elle doit se fonder sur une analyse fine des différent es structures des relations, causales en particulier, proposées dans les différents cadre théorique (physique, biologie, mathématiques du discret).
1.3 Brisures de symétries et tissus d’interactions
33C’est donc par les mathématiques que nous organisons les liens causaux ; elles rendent intelligibles et unifient, en particulier par le biais des symétries, certaines régularités phénoménales, du moins celles de la physique classique et des systèmes dynamiques et relativiste. Mais les mathématiques explicitent aussi les symétries par rapport auxquelles les corrélations de probabilité sont des invariants quantiques.
34Dans les cas dynamiques et relativistes, les principes géodésiques qui gouvernent l’évolution des systèmes s’applique nt à des espaces abstraits, des « variétés » dotées d’une métrique, où « des transformations de symétrie3 laissent invariant es les équations du mouvement4 » (typique ment, les trajectoires définies par les équations d’Euler-Lagrange, voir [Bailly, 2003]). C’est dans ce sens que ces théories se basent sur des invariants par rapport à des symétries spatio-temporelles : si l’on comprend les « lois » d’une théorie comme « l’expression d’un principe géodésique dans un espace convenable » [Bailly, 2003], ce sont ces géodésiques abstraites qui ne sont pas modifiées par des transformations des symétries.
35Revenons à la plus classique des lois physiques : l’équation F=ma est symétrique, en tant qu’équation. Comme l’on observait plus haut, c’est sa lecture asymétrique que l’on associe à un lien causal : la force F cause une accélération a (on lit, pour ainsi dire, l’équation de gauche à droite). On brise alors, conceptuellement, une symétrie formelle, l’égalité, pour mieux comprendre, avec Newton, une trajectoire (et sa cause). Plus précisément, l’équation détermine formellement une trajectoire dont F apparaît comme la cause efficiente (elle modifie un état, tout en laissant invariante la masse newtonienne, une propriété). En ce sens il devient légitime de considérer que l’équation contribue à constituer une objectivité (la trajectoire du mobile), tandis que sa lecture orientée (et la causalité efficiente qu’on lui fait ainsi exprimer) en constitue une interprétation et renvoie à un régime épistémique de causalité.
36Nous proposons alors de considérer que chaque fois qu’un phénomène physique est présent épar une (un système de) équation(s), une brisure de la symétrie formelle (celle de l’égalité, par une lecture orientée) explicite un régime épistémique de causalité. En particulier, la brisure de symétrie en question peut être corrélée à une cause efficiente, qui intervient dans le cadre formel déterminé par l’équation. Bien évidemment, cette brisure n’est pas nécessairement unique (ce en quoi, notamment, elle manifeste son caractère épistémique).
37Par exemple, on peut lire causalement et du point de vue épistémique, pV = RT de gauche à droite et vice versa. Par référence aux systèmes relativistes, nous avons déjà lu l’équation F = ma (ou plus exactement son é qui valent relativiste) à l’inverse, en soulignant le fait que, réciproquement, la courbure d’un espace peut être considérée comme source de champ.
38Ce renversement interprétatif, qui réorganise les phénomènes de façon radicale, est légitime ; en effet, dans nos variétés spatiales les transformations (de jauge), qui permettent de passer d’un référentiel à l’autre sont censées laisser invariant es les équations du mouvement, et ce faisant elles en préservent les symétries, mais sans nécessairement préserver les lectures asymétriques des déterminations formelles (dont la lecture causale épistémique que nous venons de discuter).
39Nous proposons donc de considérer des interactions formelles, organisées par les structures symétriques des équations, mais aussi des causes (efficient es), que l’on peut associer à des asymétries possibles dans la lecture de ces mêmes équations. Observons, encore une fois, que certains coefficients, comme la masse m dans F = ma, sont corrélés à ce que nous avons catégorisé comme causes matérielles (tandis que l’accélération est corrélée aux états). Et, quand une cause « externe » (efficiente ou matérielle) s’ajoute à une détermination donnée (des équations d’évolution), les géodésiques de l’espace pertinent en sont déformées et des symétries associées à cet espace peuvent en être brisées, suite à la variation des états ou des propriétés.
40Or, cette intelligibilité mathématique, tissu conceptuel de symétries et asymétries qui corrèle les régularités du monde, est constitutive des phénomènes physiques ainsi que de l’objectivité scientifique. Comme on le verra, elle change profondément si la grille de lecture du monde proposée est ancrée sur les mathématiques du continu ou sur celles du discret. Et elle doit être ultérieurement enrichie, si l’on veut essayer de mieux conceptualiser certains phénomènes du vivant.
Intermezzo Remarques, comme nt aires techniques et références pour la physique
Intermezzo 1 : symétries, brisures de symétrie dans la physique contemporaine
41Considérons les trois grands types de théories physiques que sont les théories de type relativiste, de type quantique et de type critique (systèmes dynamiques et thermodynamiques).
42Les théories de type relativiste sont essentiellement tributaires de symétries externes (groupes opérant sur l’espace-temps). Déjà, la mécanique classique présente ces traits relativistes, avec ses contraint es d’invariance sous le groupe de Galilée (dans l’espace euclidien), mais c’est sur tout avec l’électromagnétisme classique et la relativité restreinte que les symétries commencent à jouer un rôle déterminant sous l’égide du groupe de Lorent z-Poincaré (groupe des rotations et translations dans l’espace de Minkowski). Quant à la relativité générale et à la cosmologie, c’est le groupe de l’ensemble des difféomorphismes de l’espace-temps qui y joue le rôle déterminant. Les brisures de symétrie correspondantes se manifestent principalement par des phénomènes de dissipation, voire de flèche du temps.
43Les théories de type quantique mobilisent pour leur part essentiellement des symétries internes opérant sur les fibres des fibrés correspondants : il s’agit des groupes de jauge qui engendrent les invariances de jauge et se présentent comme des groupes de Lie (groupes continus). En théorie quantique des champs, les brisures de symétrie les plus important es (champs de Goldstone, de Higgs) sont considérées comme sources des masses des quantons.
44Les théories de type critique constituent par excellence des théories de changements de symétrie (notamment par brisures) : il s’agit des transitions de phase, des brisures spontanées de symétrie (ou, à l’inverse, d’apparition de symétries nouvelles), dont les effets sont traités cette fois par la procédure du semi-groupe de renormalisation en vue de caractériser les exposants critiques et d’établir des lois d’universalité qui constituent d’une certaine manière, à travers les classes d’é qui valence qu’elles dégagent, la base de nouvelles relativités et symétries (des systèmes très différents peuvent présent er des exposant s, et donc des comportements, critiques identique s, ne dépendant que de paramètres aussi généraux que la dimension des espaces de plongement ou celle des paramètres d’ordre).
45Au passage, on soulignera le fait que tant dans les théories de type relativiste que dans les théories de type quantique, voire entre elles, les processus d’unification s’accompagnent de l’agrandissement des groupes de symétrie concernés (souvent en même temps que des espaces dans lesquels ils opèrent).
Intermezzo 2 : à partir du théorème de Nœther et des lois de conservation physiques
46Un des fondements principaux du rôle des symétries en physique se trouve dans le théorème de Noether (voir [Bailly, 2003]), qui à toute transformation de symétrie opérant sur un lagrangien et conservant les équations du mouvement associe des quantités conservées. À une analyse plus précise, on constate que ce théorème couple de façon étroite de telles lois de conservation − des invariants physique s, c’est-à-dire des déterminations objectives − à des indéterminations des systèmes de repérage (espace-temps, fibres) du fait des principes de relativité et des symétries censées y opérer (par exemple, impossibilité de définir une origine du temps ou des positions, une origine des phases, etc.).
47Un des cas les plus simples et les plus spectaculaires que nous puissions évoquer à cet égard est celui de l’électro-dynamique quantique, pour laquelle le groupe de jauge est le groupe de phase U (1). Dans ce cas, on demande que la forme de la densité du lagrangien reste invariante sous la multiplication du vecteur d’état par un terme de phase (expiL). L’invariance globale de jauge (avec L indépendant de la position) conduit, en appliquant le théorème de Noether, à la conservation d’une quantité que l’on identifie à la charge et qui correspond, d’après la classification que nous proposons, à une « propriété », c’est-à-dire une caractéristique matérielle. Par ailleurs l’invariance de jauge locale (L dépendant de la position) exige, pour rétablir la covariance lagrangienne brisée, d’introduire un potentiel de jauge, d’où résulte un champ de jauge qui n’est autre que le champ électro-magnétique lui- même, exprimé par les équations de Maxwell (le potentiel de jauge correspondant à son potentiel vecteur), qui correspond pour sa part à la source d’une causalité efficient e. Ainsi, c’est bien l’indétermination sur une quelconque origine des phases (un aspect de l’univers de repérage) qui détermine de façon très forte la conservation de la charge (un aspect de la détermination de l’objet physique) et sur tout, pour l’invariance locale, le champ électromagnétique lui-même, interprété pourtant généralement comme « cause » des phénomènes électromagnétiques. Au passage, on peut remarquer (mais nous n’irons pas plus loin dans l’analyse, à ce stade) que c’est l’invariance globale de jauge qui se trouve couplée avec une propriété (la charge), tandis que l’invariance locale est couplée avec un phénomène intervenant sur les états (à effet de causalité efficiente) : le champ. Voilà donc deux formes d’invariance, par rapport à des symétries spatio-temporelles, que nous comprenons comme déterminations objectives d’une propriété et d’un état, respectivement.
48De fait, dans le travail théorique comme dans les recherches d’unifications, ce sont bien ces propriétés de symétrie − ces formes d’indétermination des univers de repérage − qui jouent un rôle heuristique essentiel dans la détermination de la phénoménalité physique. Comme si on passait de la prévalence de la représentation par une causalité efficiente à celle d’une représentation par une détermination formelle avec ses symétries et invariants équationnels. C’est ainsi que nous comprenons la remarque de C. Chevalley dans sa préface au livre de B. van Fraassen, où il est question de « substituer au concept de loi, celui de symétrie ». Ce que souligne van Fraassen lui- même, en écrivant : « [...] je considère ce concept comme la principale voie d’accès au monde que nous construisons dans les théories ».
49On notera aussi, à côté des symétries continues que nous avons principalement évoquées, le rôle important que jouent les symétries discrètes, comme dans le théorème TCP, suivant lequel le produit des trois transformations T (renversement du temps), C (conjugaison de charge : passage de la matière à l’antimatière), P (parité, symétrie miroir dans l’espace) est conservé dans toutes les interactions, alors que l’on sait que P est brisée par chiralité dans l’interaction faible, et que CP est brisée dans certains cas de désintégrations (ce qui a conduit Sakharov à y voir une raison de la prévalence faible de la matière sur l’antimatière et donc de l’existence de notre univers). On peut ici comprendre la singularité des approches, en physique quantique, qui se passent de la flèche du temps ([Anandan, 2002], par exemple). On ne considère pas les brisures de la symétrie CP, ce qui permet de ne pas avoir d’asymétrie dans les transformations T, donc de ne pas avoir un temps orienté.
50Du côté des brisures spontanées de symétrie, nous avons aussi évoqué les transitions de phase et, du point de vue quantique, les champs de Goldstone (pour le global) et de Higgs (pour le local), censés conférer leur masse aux particules. Mais il faut souligner le fait que sous un angle cosmologique, le découplage entre elles des interactions fondamentales (gravitationnelle, faible, forte et électromagnétique) constituent aussi de telles brisures : celles-ci correspondent alors à des différenciations qui ont permis à notre univers matériel de se former sous sa forme actuelle. Sans compter le fait que le big-bang lui- même peut être considéré comme une toute première brisure de symétrie (due aux fluctuations quantiques) d’un vide hautement énergétique.
51Mais c’est sans doute du côté du vivant que ces brisures de symétrie jouent un rôle éminemment sensible. Ainsi, Pasteur qui avait longuement travaillé sur la chiralité des tartrates n’hésitait pas à affirmer : « La vie telle qu’elle se présente à nous est une fonction de l’asymétrie de l’univers et une conséquence de ce fait ». Plus récemment des modèles dynamiques faisant intervenir des suites de bifurcation ont par ailleurs été proposés pour représenter des processus d’organisation dont le vivant pour rait être le siège ([Nicolis, 1986 ; Nicolis, Prigogine, 1989]).
2. Du continu au discret
52Équations différentielles, dérivées et intégrales donc, comme limites, mais aussi variations et déformations continues, sont présent es partout, dans les analyses physico-mathématiques que nous avons évoquées. De Leibniz et Newton à Riemann, le continu phénoménal, avec son infini et ses limites en acte, est au cœur de la construction mathématique, du calcul infinitésimal à la géométrie différentielle : il constitue l’espace de la signification pour les équations (déterminations formelles) dont on a parlé, la structure sous-jacent e à toute variété spatiale (riemanienne). Toutefois, une discrétisation, voire une représentation finie, approximée, mais « effective » devrait être possible. C’est le rêve, implicite dans la conjecture de Laplace, qui trouvera son prolongement dans la philosophie fondationnelle des formalismes arithmétisants.
53Si, comme le pensait Laplace, « à une petite perturbation suit toujours une petite conséquence » (sauf dans les situations critique s, des cas « isolés » − topologiquement − comme le sommet d’une montagne), alors on pour rait aujourd’hui organiser le monde au moyen de petits cubes bien délimités (correspondant à l’approximation de l’arrondi digital ; aux pixels sur l’écran de nos machines) et procéder aux calculs arithmétiques sur ces valeurs discrètes (l’encodage des pixels par des nombres entiers, des suites de 0 et de 1), qui en donnerait alors une théorie « complète » (tout énoncé sur le futur et le passé serait décidable, modulo l’approximation concernée). En effet, l’arrondi arithmétique, qui associe un seul nombre à tous les valeurs dans un « petit cube », ne perturbe pas la simulation d’un système linéaire ou laplacien, car l’approximation qui lui est inhérente est préservée au cours des calculs, tout comme au cours de l’évolution physique. Expliquons-nous, car toute une philosophie des fondements des mathématiques et, en fait, de la nature, se profile derrière cette approche, avec son propre regard sur la causalité et le détermination.
2.1 L’informatique et la philosophie de l’arithmétique
54Les ordinateurs digitaux sont en train de changer notre monde, par les outils de connaissance qu’ils nous donnent et par l’image du monde qu’ils nous renvoient. Ils participent de la construction de toute connaissance scientifique, par le biais de la modélisation et de l’élaboration des données. Mais ils ne sont pas neutres : leur théorie, en tant que machines formelles, date des années 1930, quand la calculabilité effective, une théorie des fonctions sur les nombres entiers à valeurs entières, s’impose comme paradigme de la déduction logico-formelle. L’induction et la récursion, des principes arithmétiques, y sont au cœur. Nos machines arithmétiques et leurs techniques de codage numérique du langage (gödelisation) dérivent donc d’une vision forte des mathématiques, en fait de la connaissance, ancrée sur l’Arithmétique ; cette dernière avait été proposée comme lieu de la certitude, et de l’absolu (le nombre entier, « un concept absolu », pour Frege), comme lieu du codage possible de toute forme de connaissance (de « tout ce qui est pensable », Frege), de la géométrie en particulier (Hilbert, 1899), en tant que théorie organisatrice de l’espace et du temps. Et la certitude devait être atteinte sans se préoccuper de la révolution due à la géométrisation de la physique dans des continus non euclidiens, avec leurs courbures variables, ceux de la géométrie de Riemann (un » délire », quant à signification intuitive − Frege dixit, 1884) ; sans l’incertitude du déterminisme privé de prédictibilité, propre à la géométrie des systèmes dynamiques depuis Poincaré. Voilà donc qu’une Philosophie de l’Arithmétique s’est imposée à la réflexion fondationnelle, tout en s’écartant de la nouvelle physique, qui marquera le xxe siècle. Et elle nous propose de lire le monde modulo un codage arithmétique, le même qui permet de construire, à partir du monde, les bases de données digitales modernes.
55Pour cette raison, l’analyse de la constitution de l’intelligibilité et du sens, comme intrication des mathématiques avec le monde, ne fait traditionnellement pas partie de l’analyse fondationnelle en mathématique s. La logique mathématique de Frege et de Hilbert, avec la profondeur de ses acquis et la force de sa philosophie, nous a fait croire que toute analyse fondationnelle pouvait être reconduite à l’analyse d’un système logico-formel adéquat, système logique ou collection finie de suites finies de signes sans signification (l’école hilbertienne), dont l’investigation méta-mathématique devenait alors un jeu arithmétique (suite au codage numérique de tout système formel finitaire), parfaitement détaché du monde. Et, depuis Hilbert, la cohérence formelle de ces calculs de signes prétend donner la seule justification de ces systèmes, même ceux de la géométrie de l’espace physique et sensible et des théories du continu.
56Cela a séparé définitivement les fondements des mathématiques des fondements des autres sciences, y compris la physique, en dépit du rôle de construction et spécification réciproque entre ces deux disciplines, d’une commune constitution du sens. Quant à la biologie, l’interaction fondationnelle a été moindre, pour le moment, suite à la moindre mathématisation de cette discipline. Toutefois, l’idéologie de la construction du modèle computationnel comme principal but explicatif a déjà marqué l’interface entre mathématiques et biologie, tout en oubliant l’engagement fort sur la structuration du monde implicite à son arithmétisation computationnelle ; et peu de discussions ont essayé de corréler les fondements des théories arithmétisant es à ceux des théories du vivant. Or, cette séparation épistémologique rend difficile l’interdisciplinarité et les applications d’une discipline à l’autre, car le dialogue fondationnel est une condition de possibilité pour une interdisciplinarité pensée, un point de départ pour une constitution parallèle des concepts et des pratiques et pour une formation commune du sens.
2.2 La place, l’arrondi digital et l’itération
57Revenons donc à la « bifurcation » qui s’est produite dans l’histoire : d’un côté l’arithmétisation des fondements des mathématiques (à partir de Frege et Hilbert, quoique dans des cadres différents), de l’autre la géométrisation de la physique (Riemann et Poincaré, en particulier). Les deux branches ont été fort productives : d’un côté la théorie de la calculabilité effective et, donc, nos machines arithmétiques et, de l’autre, deux aspects fondamentaux de la physique moderne. La première branche de la bifurcation, toutefois, dans son autonomie fondationnelle, a continué à se baser sur les absolus newtoniens (Frege) et sur la détermination la placienne (Hilbert), celle qui implique la prédictibilité (et qui a son pendant, en méta-mathématique, dans le « non ignorabimus », la décidabilité de Hilbert, voir [Longo, 2002]).
58Il est en fait bien clair que l’hypothèse de Laplace vise explicitement et tout d’abord la prédictibilité (« tout système déterministe est prédictible » ; c’est-à-dire, dans un système formellement déterminé, tout énoncé − sur le futur/passé − est décidable). Toutefois, elle se fonde précisément sur cette interprétation « conservative » de la perturbation évoquée plus haut : La place est tout à fait conscient que la mesure physique est toujours un intervalle (elle est nécessairement approximée), mais il pense que les solutions des systèmes d’équations du monde, approximées si nécessaire par des séries (de Fourier), seront « stables » par rapport aux petites perturbations, en particulier celles dont l’amplitude demeure en dessous de la mesure possible. C’est cela qui garantit la prédictibilité : dans un système déterministe (donc, en principe, déterminé formellement par des équations), la prédictibilité est assurée par la résolubilité du système et/ou la préservation des approximations (étant donné les valeurs des conditions initiales, avec une certaine approximation, on pour ra décrire l’évolution du système par une approximation du même ordre de grandeur). Voilà la continuité conceptuelle (et historique), dont on a déjà parlé, entre la conjecture de Laplace et le mythe de l’arithmétisation du monde : l’approximation et l’arrondi (la discrétisation) ne modifient pas les évolutions, physiques et simulées.
59Or, il n’en est rien. Même dans un système explicitement déterminé par des équations (la structure symétrique des déterminations formelles), l’imprédictibilité fait sur face, nous a expliqué Poincaré. Que se passe-t-il ? De petites perturbations peuvent engendrer d’énormes conséquences ; en fait, des « petits diviseurs » (qui tendent vers 0) dans les coefficients des séries approximant es (de Lindstedt-Fourier), amplifient la moindre variation dans les valeurs initiales. Quatre-vingt-dix ans plus tard on définira ce phénomène comme « sensibilité aux conditions initiales (ou au contour, ou aux limites) ». En particulier, même des perturbations dont l’amplitude se situe en dessous de la mesure physique possible peuvent, après un certain temps, engendrer des changements mesurables.
60Ainsi, dans notre interprétation, une perturbation, une « petite force » qui perturbe une trajectoire même en dessous du mesurable, brise un aspect de la symétrie décrite par l’équation d’évolution du système ; elle est la cause (efficiente ou matérielle) d’une variation des conditions initiales, qui peut engendrer des conséquences observables, voire très important es. Parfois, il peut être même question d’une fluctuation, c’est-à-dire d’une brisure locale ou momentanée de symétrie interne au système, sans influence de causes « externes » : dans l’Intermezzo, nous avons évoqué le big-bang en cosmologie, en tant que toute première brisure de symétrie (due aux fluctuations quantique s) d’un vide hautement énergétique.
61Encore une fois, c’est une symétrie brisée qui est la cause tout à la fois matérielle, efficiente et formelle d’une évolution observable particulière, le devenir de notre univers5. Or, l’intelligibilité de ces phénomènes, présents au cœur de la physique moderne, est conceptuellement perdue si on organise le monde au moyen des valeurs exactes qu’impose la discrétisation arithmétique. Ou, plutôt, et c’est là notre thèse, on obtient une intelligibilité différente. En particulier, la perturbation ou la fluctuation, qui ont leur origine dans des causes efficient es ou matérielles, et se manifestent en dessous de l’approximation discrète proposée, échappent à l’intelligibilité arithmétique, voire sont négligées en faveur d’une stabilité forcée des phénomènes. Et le calcul arithmétique nous montre le passage d’un état à l’autre par des petits sauts itérés de trajectoires imperturbables, car parfaitement itérables. Mieux, il nous montre des trajectoires affectées de leur propre perturbation intrinsèque, à chaque pas de calcul, et toujours itérée et itérable à l’identique : l’arrondi. Une nouvelle cause, notre invention calculatoire, qui, projetée dans le monde, devient une cause (efficiente ou matérielle) pertinent e relativement aux propriétés et états d’un système. Car l’arrondi modifie les géodésiques simulées et peut même changer, dans certains cas et à sa façon, les phénomènes de conservation (de l’énergie, du moment...), en brisant des symétries qui leur sont associées. Nous y reviendrons.
62En quel sens, alors, obtient-on, lorsque l’on superpose au monde une grille arithmétique, une « stabilité forcée », ainsi que des évolutions et des perturbations bien particulières et « itérables » à loisir ?On le comprendra grâce à l’ordinateur digital, car, quand cette machine arithmétique est prise comme modèle du monde, elle organise le monde selon son propre régime causal, ses propres symétries et brisures de symétries. En fait, la simulation digitale d’un processus physique est constitutive d’une nouvelle objectivité, à analyser de près, due aux outils mathématiques qui sont au cœur de celle-ci : les calculs arithmétiques et la topologie discrète de ses bases de données digitales et de son espace-mémoire de travail, exacts et absolus.
63Il est clair que notre analyse ne vise pas à opposer ce que serait une « ontologie »du continu à ce que serait une ontologie des mathématiques discrètes (nous ne défendons pas l’idée selon laquelle le monde serait continu en soi !). Nous essayons plutôt de mettre en évidence la différence des regards proposés par les mathématiques du discret par rapport à ceux proposés par celles du continu, dans nos efforts pour rendre intelligible le monde. C’est l’objectivité construite des mathématiques qui change, [Longo, 2002a] et non, répétons-le, une quelconque ontologie.
64De plus, l’incomplétude relative de la simulation computationnelle, que l’on souligne ici, va de pair avec l’incomplétude mathématique des formalismes arithmétique s, qui, elle aussi, est relative (à la pratique de la preuve mathématique, dans ce cas, voir [Bailly, Longo, 2004a]). Mais incomplétude ne veut en aucun cas dire « inutilité » : au contraire nous soulignons le besoin d’une analyse conceptuelle fine des méthodes algorithmique s, justement pour le rôle essentiel et fort qu’elles jouent aujourd’hui dans toute construction scientifique.
2.3 L’itération et la prédiction
65Les ordinateurs itèrent, c’est là leur force. De la récursion primitive, au cœur des mathématiques de la calculabilité, à l’application logicielle, le programme, le sous-programme, relancé mille fois, un milliard de fois, une fois chaque nanoseconde, réitère avec une exactitude absolue. Pour cette raison, il n’y a pas d’aléatoire propre dans un monde digital : les générateurs (pseudo) aléatoires sont des petits programmes, parfaitement itérables, qui engendrent des suites périodiques à la période très longue (ils sont des fonctions itérées sur des domaines finis). En théorie algorithmique de l’information, on appelle aléatoire toute suite de nombres entiers dont on ne connaît pas un programme qui l’engendre qui soit plus court que la suite elle- même. C’est-à-dire que l’on ne voit pas de régularités suffisant es dans cette suite pour pouvoir en déduire la règle qui l’engendre. Cette définition identifie à l’aléatoire les caractéristiques informationnelles d’une suite de lancements des dés ou de la roulette, en fait leur incompressibilité. Cette identification, appliquée aux algorithmes, aux générateurs (pseudo-) aléatoires par exemple, mène à confondre une notion d’aléatoire épistémique, propre à la physique (voir [Longo, 2002]), avec un « aléatoire par incompétence » (le programmeur ne nous a pas dit comme nt est conçu le programme, un programme d’une seule ligne normalement). Et l’itération dévoile la ruse : si l’on relance un générateur (pseudo-) aléatoire programmé, sur la même valeur initiale, on obtient la même suite, exactement.
66En revanche, les systèmes dynamiques nous donnent la bonne notion (épistémique) d’aléatoire : un processus est aléatoire si, quand on l’itère avec « les mêmes »conditions initiales, il ne suit pas, en général, la même évolution (les dés, la roulette... les systèmes planétaires avec au moins trois corps, si on attend assez longtemps). Toute la différence est dans la signification topologique de cette notion de « même » (mêmes valeurs discrètes et mêmes conditions initiales) : une base de données digitales est discrète et exacte ; tandis que la mesure physique est nécessairement un intervalle.
67Bref, dans l’univers mathématique de la calculabilité effective, il n’y a pas d’aléatoire propre, tout au plus de l’information incompressible (qui peut donner une bonne « imitation », voir plus bas, de l’aléatoire). Et on peut le dire d’une façon synthétique dans notre approche : le temps des processus de calcul est sujet à une symétrie par translation (la répétabilité) qui n’a pas de sens dans le monde physique et du vivant.
68Bien évidemment les ordinateurs sont dans le monde. Si l’on sort du discret arithmétique interne à la machine, on peut les brancher sur l’aléatoire physique (épistémique − systèmes dynamiques − ou intrinsèque − physique quantique). On peut par exemple utiliser des décalages temporels dans un réseau (un système distribué et concurrent, voir [Aceto et al., 2003]) sur lequel agissent aussi des hommes, au hasard ; voire des petits boîtiers, en vent eau CERN, qui produisent des 0-1 suivant des « spin-up-spin-down » quantiques. Mais, normalement, si vous faites sur votre écran la simulation du plus complexe des systèmes chaotique s, un attracteur de Lorent z, un pendule quadruple... et vous itérez avec les mêmes données initiales digitales, vous aurez le même portrait des phases. Les même données initiales, c’est cela le problème.
69Comme nous l’avons souligné plus haut, cette notion en physique est conçue modulo la mesure possible, qui est toujours approximée, et la dynamique peut être telle qu’une variation, y compris en dessous de la mesure − cause matérielle ou efficiente −, engendre (presque) toujours une évolution différent e. En revanche, dans une machine à états discrets, « la même donnée initiale » cela signifie « exactement les mêmes nombres entiers ». Voilà ce qui fait dire à Turing que sa machine logico-arithmétique est une machine la placienne (voir [Turing, 1950], [Longo, 2002]). Comme le Dieu de Laplace, l’ordinateur digital, son système d’exploitation, a une maîtrise complète des lois (implémentées dans des programmes) et une parfaite connaissance de (accès à) son univers discret, point par point. Et comme pour le Dieu de Laplace, « la prévision est possible », [Turing, 1950].
70Telle est donc la philosophie de la nature implicite à toute approche qui confond la simulation digitale avec la modélisation mathématique, voire superpose et identifie les algorithmes au monde. La simulation discrète est plutôt une imitation, si l’on reprend la distinction, implicite chez Turing, entre modèle et imitation (voir [Longo, 2002]). Très brièvement : un modèle physicomathématique essaie de proposer, par les mathématique s, des déterminations formelles constitutives du phénomène considéré ; une imitation fonctionnelle ne produit qu’un comportement semblable, basé, en général, sur une structure causale différent e. Dans le cas de la modélisation continue vs. l’imitation digitale, la comparaison des différents régimes causaux est au cœur de cette distinction.
2.4 La loi et l’algorithme
71La simulation informatique transforme toute évolution physique en élaboration de l’information digitale. En particulier, la simulation d’une géodésique dans un univers discret devrait faire correspondre : à une trajectoire un calcul ; à des lois de conservation (énergie, moment...), la conservation de l’information. Tout état et propriété, bref toute quantité physique, en tant que détermination des objets (dans le sens de D. 1), sont en fait codés par l’information digitale ; la quantité de mouvement est codée par des 0/1, tout comme l’intensité d’un champ ou la masse, et leur évolution est un calcul approximé sur ces 0/1. Est-ce que ce codage est « conservatif » (préserve-t-il « ce qui compte ») ? Si une trajectoire physique est une géodésique, quelle géodésique associer au calcul dans son univers digital, quelle brisure de symétrie à l’arrondi ?
72Commençons par rappeler la généralité des principes géodésiques en physique, au cœur de cette science depuis Copernic, Kepler et Galilée. Comme on observe dans [Bailly, 2003], « toute loi fondamentale de la physique est l’expression d’un principe géodésique appliqué dans l’espace convenable ». Le travail du physicien, qui organise et, par cela, rend intelligible le phénomène, tient pour une bonne part dans la recherche de cet espace (conceptuel, voire mathématique) et de sa métrique pertinente.
73Cette approche nous fait comprendre le glissement de signification autour du concept de loi, qui entend justifier l’identification de la modélisation mathématique avec l’imitation computationnelle. La notion de « loi »a une origine sociale : la loi est normative du comportement humain. Le transfert du concept tel quel à la physique, correspond à une métaphysique ordinaire : un apriori (divin, si possible) qui dicterait les lois de l’évolution du monde. La matière se conformerait alors à cette ontologie préexistant e et normative (en tant que lois mathématiques d’un univers platonicien, par exemple). En revanche, la compréhension de la notion de loi comme explicitation des régularités et criticités d’un paysage, avec ses cols, vallées et pics, ses géodésiques, renverse cette approche et souligne la constitution transcendant ale au cœur de toute construction de connaissance. Les mathématique s, outils de la détermination formelle, se dessinent alors sur le voile phénoménal à l’interface entre nous et le réel, ce réel qui fait, bien sûr, friction et canalise le geste cognitif, mais qui est organisé par ce même geste. Les lois ne sont pas « déjà là », mais elles sont un « co-constitué »dans l’intrication entre nous et le monde : la discernabilité des géodésique s, comme déterminations formelles dans le cadre d’un réseau d’interactions, en est le résultat principal. Et leur traitement mathématique coïncide avec le début de la science moderne. La normativité de la loi physique devient alors seulement cognitive (pour construire de la connaissance), non pas ontologique. Les différent es formes de détermination formelle (lois) nous proposent alors des régimes causaux différents, outils ultérieurs de l’intelligibilité.
74Avec l’identification entre algorithme et loi, on fait un pas en arrière : l’algorithme est normatif pour la machine, pour ses calculs, exactement comme la loi de Dieu règle toute trajectoire. La machine ne saurait pas où aller, elle serait immobile, sans son moteur premier, le programme. Encore une fois, le mythe de l’univers-ordinateur (le génome, l’évolution, le cerveau... tous gouvernés par des algorithmes) revient à une méta physique et à une notion de détermination qui précède la science du xxe siècle et pour de bonnes raisons historiques : le recentrage des fondements des mathématiques sur une philosophie de l’absolu arithmétique, à l’écart des grands tournants scientifiques de l’époque (voir [Longo, 2003]).
75Cette façon d’entendre la loi devrait mettre en évidence la toute première difficulté dans la simulation computationnelle d’une trajectoire physique par un calcul. Loi physique et algorithme ne coïncident donc pas : ils n’ont pas le même statut épistémologique. La loi n’est pas un algorithme pour une autre raison aussi, que nous avons déjà évoquée : la détermination formelle, en tant qu’explicitation mathématique des lois, n’implique pas la prédictibilité de l’évolution physique. En revanche, tout algorithme, implémenté dans une machine à états discrets, engendre un calcul prédictible, tout au moins grâce à la symétrie par translation temporelle que nous avons mentionnée plus haut (l’itération toujours possible).
76Toutefois nous avons absolument besoin de la simulation digitale, un outil indispensable aujourd’hui à toute construction de connaissance scientifique : en soulignant les différences, en dehors de tout mythe computationnel (le monde serait comme l’ordinateur), on vise mieux à cerner le faisable, et par suite à mieux faire, quant à simulation-imitation. Essayons alors de comprendre en termes physiques l’évolution d’un calcul.
77Dans le cas d’un ordinateur isolé − une machine séquentielle − on reste dans un cadre newtonien : l’absolu de l’horloge et de l’accès à la base de données en sont les caractéristiques essentielles. La situation est plus complexe dans les réseaux modernes : la distribution des machines dans l’espace physique et le temps relationnel qui s’ensuit, modifie la donne. Certains aspects de l’absolu des machines de Turing sont remis en question (on en discute dans [Longo, 2002 − texte et « réponse »] et, d’une façon plus technique, dans [Aceto et al., 2003]). Toutefois, l’exactitude de la base de données discrète subsiste, aussi bien que le problème de l’arrondi, bien évidemment.
78Dans les deux cas, séquentialité et concurrence, on peut toute fois comprendre le calcul comme une géodésique dans l’espace (pré)déterminé par le programme (plus précisément : par l’environnement de programmation, voire le logiciel dans tousses aspects − système d’exploitation, compilateurs et interprètes, programmes...). Bref, tout en acceptant l’a priori divin du programmeur qui établi, en amont, les règles du jeu, la notion de « suivre une géodésique » serait définie par suivre la règle correctement. Lebogue, du matériel ou du logiciel, serait alors la fluctuation ou la perturbation qui fait dérailler l’évolution. Toutefois, ce type de bogue n’est pas intégré à la théorie, elle ne lui est pas inhérent e, contrairement à la théorie des systèmes dynamiques qui intègre la notion de sensibilité aux conditions au contour ainsi que la mesure par intervalle. De plus, les bogues matérielles et les erreurs logiques sont très rares (statistique ment donc différent es de la variation due à l’approximation dans une dynamique) ; elles sont à éviter et, en principe, évitables (ou elles peuvent appartenir à un autre niveau phénoménal, qui est loin d’être intégré dans les mathématiques du calcul effectif : la physique quantique).
79Reste maintenant la question de l’arrondi, qui est inhérent au calcul. La gestion de l’arrondi, aujourd’hui, peut-être très dynamique et mobile : on peut viser une approximation désirée à la fin d’un calcul et augment er en amont les décimaux disponibles, jusqu’à des cent aines, pour terminer dans l’intervalle prévu, si possible. L’approche moderne à l’analyse par intervalles fournit un cadre théorique puissant pour ces traitements ([Edalat, 1997]). Bien évidemment la vitesse des calculs est inversement proportionnelle à l’amélioration de l’approximation. Un excès dans cette dernière peut empêcher de suivre toute dynamique suffisamment longtemps.
80Cela dit, cette borne, l’arrondi, constitutif de l’arithmétisation du monde (une arithmétisation bien nécessaire si l’on veut faire faire des calculs à des machines digitales et donc faire de la science aujourd’hui), modifie le régime de causalité et les symétries qui lui sont corrélées, comme on essayera de le démontrer.
81Tout d’abord évacuons une confusion possible : l’intervalle inhérent à la mesure de la physique classique et l’incertitude quantique n’ont rien à voir avec l’approximation digitale. D’abord, la mesure comme intervalle est un principe physique, classique, elle n’est pas une question « pratique » : la fluctuation thermique, par exemple, est toujours présent eau dessus du zéro absolu, par principe. Et, comme nous l’avons déjà et souvent observé, la fluctuation ou la perturbation en dessous de l’amplitude observable participent de l’évolution d’un système dynamique, quelque peu instable, car elle peut briser des symétries de l’évolution, donc être une des causes d’une trajectoire spécifique. En informatique, une bogue qui se manifeste en dessous de l’arrondi est sans effets. Ensuite, l’analogie parfois − naïvement – faite entre la discrétisation numérique et celle des éléments de » longueur » (temps et espace) induites par la constante de Planck, h, n’est pas pertinent e. La non-séparabilité, la non-localité, l’indétermination essentielle dont on parle en physique quantique sont presque l’opposé de la certitude des petites boîtes, bien localisées et stables, bien séparées par des prédicats (les adresses de mémoire), dans lesquelles est réparti l’univers digital.
82Nous voilà donc face à l’enjeu principal : l’arrondi est une perte d’information, à chaque pas de calcul. On peut l’associer à la croissance, irréversible, d’une forme d’entropie, définie comme « nég-information ». Si donc on encode toute détermination, formelle et objective, d’un objet et processus physique, toute propriété et état, sous la forme d’information digitale, l’élaboration de cette dernière, le calcul numérique, suivra une géodésique qui est, normalement, perturbée à chaque pas par une perte d’information. Cette perturbation ne correspond à aucun phénomène propre au processus que l’on en end simuler : la perte d’information n’est pas, en général, le codage du changement d’une détermination objective. Elle est une brisure de symétrie d’un nouveau type. Est-ce que cela va influer sur la proximité de la réalité virtuelle au phénomène physique ? Sur la qualité de l’imitation ?
83Comme nous l’avons déjà observé, l’approximation arithmétique n’affecte pas la simulation d’un processus linéaire ou laplacien : tout comme l’approximation de la mesure, l’arrondi, n’éloigne pas la géodésique computationnelle (le suivi de la règle) de la géodésique physique. La perte d’information initiale est préservée, elle n’augmente pas ou elle reste du même ordre de grandeur. Il n’en est pas ainsi dans les cas non-linéaires. Considérons, en guise d’exemple, une des plus simples dynamiques, uni-dimensionnelle, très connue : l’équation logistique discrète,
84xn+1 = kxn (1 − xn).
85Pour 2 ≤ k ≤ 4, cette équation définit formellement une suite {xi} de nombres réels, entre 0 et 1 (une « trajectoire discrète dans le continu »). En particulier, pour k = 4, elle engendre des trajectoires chaotiques (sensibles aux conditions initiales, denses dans [0, 1], avec une infinité de points périodiques...). Peut-on approximer toute suite de réels ainsi générés par un ordinateur digital ? Hors de question, au moins pas pour une valeur initiale x0 prise dans un ensemble de mesure 1 (c’est-à-dire pour presque toutes les valeurs réelles dans [0, 1]). Même si l’on choisit un x0 qui peut être représenté exactement sur un ordinateur, au premier arrondi au cours du calcul la suite digitale et la suite continue vont commencer à diverger. En améliorant l’approximation/arrondi de 10−14 à 10−15, après environ 40 itérations la distance entre les deux suites commencera à osciller entre 0 et 1 (la plus grande distance possible). Il en vade même si, avec un arrondi de 10−15, on démarre sur des valeurs qui diffèrent de 10−14 (bien évidemment, si l’on veut, on peut bien redémarrer la machine digitale exactement sur les mêmes valeurs et calculer, avec le même arrondi, exactement la même trajectoire discrète...).
86On ne peut donc pas, en général, approximer, par la machine, une trajectoire continue ; toutefois, on peut faire... l’inverse. En fait, tout ce qu’on peut prouver, dans des contextes dynamiques (métrique s) que l’on ne spécifie pas ici, c’est le lemme « de pour suite »suivant (voir le Shadowing Lemma [Pilyugin, 1999] : remarquez l’ordre de la quantification logique) :
87Lemme Pour tout x0 et δ, il y a un 𝜖 tel que, pour toute trajectoire 𝜖 approximée f (ou avec un arrondi ≤ 𝜖, à chaque pas), il en existe une g, dans le continu, telle que g se rapproche de f à δ près, à chaque pas.
88Même en considérant le cas chanceux où l’on a δ = 𝜖 (c’est possible dans certains cas), cela revient à dire que, globalement, vos suites digitales ne sont pas « si sauvages » : elles peuvent être approximées par une suite continue, ou bien... il y a tellement de trajectoires continues que, si l’on s’en donne une discrète, vous pouvez trouver une suite continue qui s’en approche. L’image donc d’un attracteur sur l’écran donne une information qualitativement correcte : les trajectoires digitales sont approchées par des trajectoires de la dynamique continue (déterminée par les équations). Mais le contraire ne vaut pas : c’est-à-dire, il n’est pas vrai, en général, que, pour une trajectoire donnée par voie analytique, l’ordinateur peut toujours l’approximer. Différent es versions du lemme de pour suite s’applique nt à des systèmes chaotiques suffisamment réguliers. Cependant, plusieurs systèmes dynamiques ne satisfont même pas à des formes faibles de ce lemme (voir [Sauer, 2002]). Cela veut dire qu’il existe des valeurs initiales et des intervalles, tels que, à l’intérieur de ces intervalles, tout arrondi et toute autre valeur initiale font différer rapidement la suite continue de la suite discrète donnée.
89Que se passe-t-il, dans les termes de notre approche ? Pour le comprendre en détail, il faudrait renvoyer à l’analyse technique que les auteurs sont en train de développer par ailleurs. Dans ce texte de réflexion, qui guide toutefois l’analyse mathématique et computationnelle, essayons de le voir d’une façon très informelle. La première difficulté réside dans la nécessité de se placer dans le bon espace, pour mieux voir. En bref, il faut analyser l’évolution d’un système, telle la fonction logistique discrète, dans un espace où la notion de voisinage, entre nombres réels, corresponde à l’approximation digitale. Un espace qui perm et une telle métrique s’appelle « espace de Cantor ». Dans cet espace, dont on ne donne pas la définition ici, deux points réels sont proches si et seulement s’ils ont des représentations binaires ou décimales proches (par exemple 0.199999.... à l’infini et 0.2 sont très éloignés dans l’espace de Cantor, alors qu’ils sont identiques sur la droite réelle habituelle, ce qui pose pas mal de problèmes du point de vue computationnel, quand on essaye d’opérer sur leurs approximations).
90On voit alors qu’à chaque itération du calcul digital, l’arrondi induit une perte d’information correspondant à l’élargissement de l’approximation autour du point de la trajectoire. Si on mesure ce phénomène en termes d’isotropie de l’espace (les points dans ce voisinage s’élargissant sont « indistinguables », pour ainsi dire), cette zone « grise », d’isotropie, grandit, en augmentant ainsi les symétries de l’espace. Une notion d’entropie comme information négative permet aussi de saisir ce changement de symétries, en tant que perte d’information. Or, tout ce qu’on a dans la machine, c’est de l’information codée. Indépendamment de ce qu’elle encode, propriétés ou états de l’objet physique formellement déterminés, tout est sous forme d’information digitale. Donc la détermination objective, qui est donnée par la préservation des symétries théorique s, change radicalement : on est en présence d’un changement de symétrie qui ne modélise pas une composante de l’évolution du phénomène naturel, car il dépend seulement de la structure discrète de l’univers de la simulation et de l’imitation des déterminations formelles physiques par des algorithmes (voire, quand on en fait une philosophie, de l’identification épistémologique de loi avec algorithme).
91Voilà, en termes de symétrie, expliqué le changement de régime causal dont nous parlions. La discrétisation, en fait l’organisation du monde par les mathématiques du discret, propose un régime causal (en l’occurrence une évolution des symétries) différent de celui qui est proposé par les mathématiques du continu. Il ne s’agit pas de traductions finitaires mais fidèles d’un même monde physique, car ce monde est lui- même un co-constitué par nos déterminations formelles et objectives. Quand elles changent, son organisation et son intelligibilité changent aussi. Encore une fois, cela n’implique pas, que le monde soit continu « ensoi » : nous observons seulement que, depuis Newton, Leibniz, Riemann, Poincaré... nous avons organisé et rendu intelligibles certains phénomènes physiques au moyen de notions, historique s, de continuité et de limite. Si l’on veut s’en passer, on change l’organisation et l’intelligibilité causale.
92Une autre question mériterait aussi d’être détaillée, mais nous la laissons comme piste ultérieure de travail. Les singularités en physique moderne jouent un rôle essentiel. On connaît par exemple des situations de choc, dans des systèmes non-linéaires, où le calcul digital n’arrive même pas lointainement à s’approcher de la situation critique. On a la description continue ; les mathématiques sont claires, explicatives, organisatrices du phénomène physique, on le comprend qualitativement, mais les calculs numériques tournent autour de la singularité d’une façon chaotique, sans s’en approcher. En fait, les notions de limite actuelle, de point singulier, absolument nécessaires pour analyser les changements de phases, les chocs, pour pouvoir même parler des processus de re-normalisation en physique, ne sont pas toujours approximables d’une façon cohérente. La perte de symétries et le changement de régime causal corrélé constituent notre façon de comprendre ce problème propre à la digitalisation des phénomènes. Encore une fois, dans le but de mieux faire, hors mythes laplaciens et métaphysiques computationnelles. L’informatique, une science désormais mûre, mérite, du point de vue épistémologique et mathématique, plus d’attention et un regard interne qui sache assumer la force et les limites de ses propres méthodes.
3. Causalités en biologie
93En nous focalisant maintenant sur la biologie, nous ne reviendrons pas ici sur les discussions concernant les niveaux d’organisation biologique s, les hiérarchies enchevêtrées, les causalités croisées, les effets ago-antagonistes, les variabilités dans les phénomènes, les processus auto poïétique s, que l’on trouve en biologie. Bien entendu toutes ces propriétés resteront présent es en arrière-plan de l’approche que nous proposons maintenant, mais celle-ci restera plus schématique et conceptuelle que proprement théorique ou descriptive : elle vise plus à envisager un cadre de représentation permettant de dégager des catégories heuristiques de pensée qu’à rendre compte de la phénoménalité effective du vivant. En effet, les « liens »que nous mettons en évidences, au moyen de petits schémas très abstraits, ne correspondent pas nécessairement à des « liens matériels », voire à des configurations physiques ; ils ne sont que des structures organisatrices de la pensée, qui devraient aider à la compréhension des phénomènes, en proposant un cadre conceptuel. Du reste, F = ma n’est-elle pas − certes à un niveau bien plus élaboré et mathématisé − une corrélation qui organise un phénomène en le rendant intelligible ? Rappelons d’ailleurs que cette équation a été précédée par le concept général d’inertie, voire même, bien avant Galilée, par des spéculations cosmologiques et des concepts aussi éminemment philosophiques que profonds (voir, par exemple, les remarques de Giordano Bruno dans « L’infinito universo e mondi », 1584). Enfin, l’intelligibilité physique propre à cette équation peut faire l’objet de « lectures »conceptuellement fort différent es : elle peut ne plus être primitive, mais dérivée (de l’hamiltonien, du lagrangien, comme nous l’avons évoqué dans la première partie), ou elle peut être corrélée à des brisures de symétrie distinctes, comme nous l’avons vu également.
94Ainsi, comme nous tenons à le souligner d’emblée, notre approche demeure encore très spéculative : il s’agit pour nous d’un début de tentative de catégorisation et de schématisation conceptuelles qui cherche à ouvrir de nouvelles pistes sans être assuré de leurs débouchés et qui demandera, pour pouvoir se pour suivre, plus de discussion avec les biologistes et la sanction d’une certaine fécondité dans la recherche d’une plus grande compréhension du vivant. Bien entendu, rappelons que nous restons dans le cadre que nous nous sommes fixé d’une analyse de la causalité, en essayant ici de tenir compte d’aspects spécifiques à la biologie, liés à des formes de téléonomies, voire d’anticipation et que nous avons déjà résumés dans le concept de « finalité contingente ».
3.1 Représentation de base
95Considérons le fonctionnement dynamique du régulateur à boule : ce fonctionnement est entièrement déterminé par les données, en aval, des conditions initiales et des lois physiques s. En ce sens son « comportement », bien qu’étant régulé et conduisant à un équilibre dynamique, est déterminé de façon univoque et orienté (des géodésiques dans un espace de phases bien − et pré − établi).
96Dans le cas du vivant, le comportement (et le fonctionnement) d’un organisme ne semble pas être déterminé de la même façon. Ce qui paraît l’être de façon plus ou moins rigide (dans un domaine donné, compatible avec la sur vie de l’organisme), c’est ce que l’on pour rait appeler l’objectif des fonctionnements et comportements, les fonctions à remplir pour assurer l’homéostasie (-rhésie) ; mais ce qui l’est beaucoup moins, ce sont d’une part les façons possibles d’y parvenir et d’autre part les adaptations et modulations qui en assurent l’accomplissement. De plus, ces adaptations et modulations peuvent modifier le contexte (environnement) lui- même. En particulier, pour le dire dans le langage de la physique, il n’y a pas seulement des changements de phases mais aussi des changements de l’espace de phases, c’est-à-dire des observables et des variables pertinentes.
97On sait que la formalisation mathématique et équationnelle de cette situation (comme cela a pu être le cas pour la physique et comme à terme on pour rait l’espérer pour le vivant pour autant que soient élaborées les mathématiques adéquates) se heurte à des difficultés profondes, parfois même des difficultés de principe, que d’ailleurs les tentatives de modélisations nombreuses et successives ont rencontrées. Aussi, avant tout essai réitéré en ce sens, il nous semble nécessaire d’essayer d’illustrer et de représenter − en l’occurrence au moyen de schémas, première étape conceptuelle abstraite − ce qui nous paraît caractériser ces modes de fonctionnements et ce que l’on pour rait appeler les « finalités » qui les interprètent, au sens où Monod pouvait parler d’une téléonomie du vivant. Ces finalités, bien évidemment, n’ont rien de nécessaire ni d’absolu ; elles participent plutôt de notre regard sur le vivant et, sur tout, elles sont contingent es, en tant que spécifiques à la matière vivant e et relatives à ses contextes. Bref, elles pour raient ne pas être présent es (pas de vie, pas d’espèce ou d’individu spécifique) ; elles sont pertinent es à différents niveaux d’organisation et à leurs corrélations, voire à leur enchevêtrement et bouclage, en particulier sous la forme d’intégration et de régulation (voir [Bailly, Longo, 2003]).
98Pour rendre plus intelligible la notion de finalité contingente, nous essayerons d’organiser en réseaux les interactions entre « structures matérielles » et « fonctions » du vivant. C’est là en fait que se manifeste la téléonomie : par exemple, quand une structure organique paraît finalisée relativement à une certaine fonction. Nous proposons donc un cadre conceptuel, organisateur de connaissances, en recourant − provisoirement au moins − à une description de ce genre (voir figure 1) :
On a un ensemble-cible, constitué de plusieurs domaines − les domaines-cible, qui peuvent ou non se chevaucher − correspondant aux fonctions à assurer pour la maintenance et la perduration de l’organisme et de son espèce.
On a un ensemble-source constitué de toutes les possibilités organiques susceptibles d’être mobilisées dans ce but (agents de transport, réactions biochimique s, etc.), représentées elles aussi par des domaines (domaines sources) de cet ensemble.
On a un ensemble de flèches, partant de domaines-sources pour aboutir à des domaines-cibles (ces flèches correspondant aux orientations et modes de fonctionnement visant à assurer les fonctions) et qui présent e les particularités suivantes :
Tout domaine-cible est atteint par une flèche au moins ; usuellement, plusieurs domaines sources sont à l’origine de flèches aboutissant à un même domaine-cible. Un exemple de cette situation est la conjonction de « métabolismes oxygène »et de « métabolismes glucose » pour assurer la maintenance d’un tissu musculaire comme le cœur ; dans ce cas les deux domaines-source sont définis respectivement par les réactions chimiques liées aux sources énergétiques spécifiques (disponibilité du glucose) et par les processus cellulaires de fixation de l’oxygène capté par la respiration (disponibilité de l’oxygène) les flèches correspondant pour leur part aux différents systèmes de transport et de transformation qui permettent les transferts efficaces des sources aux cibles.
Les flèches aboutissant à un même domaine-cible sont pour vues d’épaisseurs différent es selon la prévalence des modes de fonctionnements usuels (dans l’exemple précédent on aurait dans le cas normal une épaisseur de la flèche « métabolisme oxygène »bien plus importante que celle du « métabolisme glucose »). Au cas où un mode de fonctionnement dominant devient défaillant (pathologie), la flèche correspondante peut maigrir au profit d’une autre dont l’épaisseur initiale était plus faible (et ce, sans atteindre nécessairement l’épaisseur de la première : affaiblissement fonctionnel tout en essayant de préserver la fonction) : ce mécanisme correspondrait à une propriété de plasticité.
Les flèches partant d’un même domaine-source pour aller à plusieurs domaines-cibles existent, mais elles peuvent être relativement rares dans le fonctionnement homéostatique (-rhésique) adulte. Elles renvoient sur tout à des potentialités, précédant des actualisations ou des différenciations ultérieures (cf. cellules souches, par exemple), ou encore à d’autres possibilités de plasticité (cérébrale, par exemple). En revanche, dans le cas de la représentation d’une genèse (embryogenèse notamment), ces flèches sont dominant es et jouent un rôle essentiel pour représenter les différenciations organiques à partir d’œufs totipotents ou de souches pluripotent es. Il y adonc une dynamique de la » topologie »et de l’épaisseur des flèches au cours du développement pour aboutir à la situation adulte.
99Il peut être intéressant et éclairant de noter ici que la réunion des caractéristiques 3.(a) et 3.(c), pour les flèches, correspond assez bien au concept de dégénérescence tel qu’il a été introduit par [Edelman, Tononi, 2000] relativement au fonctionnement cérébral (à savoir que des structures non isomorphes peuvent participer à une même fonctionnalité et qu’une structure donnée peut participer à plusieurs de ces fonctionnalités), concept qui reprend et généralise celui de redondance. Dans cette perspective, nous pour rions qualifier la situation décrite par la caractéristique 3.(a) de dégénérescence « systémique » (un même système participant de fonctions distinctes) et la caractéristique 3.(c) de dégénérescence « fonctionnelle » (des systèmes non isomorphes participant à une seule et même fonction). Par ailleurs, précisons tout de suite que les concepts de « domaines-source »et de « domaines-cible » ne renvoient pas nécessairement à des catégorisations « absolues », mais sont relatifs à une fonctionnalité (ou à un ensemble de fonctionnalités) donnée : un domaine-cible pour une fonctionnalité peut fort bien opérer comme domaine-source pour une autre6, au même niveau d’organisation ou entre niveaux, d’où de multiples enchevêtrements possibles. Remarquons d’autre part que, dans cette approche, les effets d’environnement, de feed-back ou d’adaptation peuvent être représentés par des variations d’épaisseur des flèches (aspect « métrique »), alors que les changements fondamentaux correspondraient plutôt à des changements dans la structuration de l’ensemble de flèches (aspect « topologique »). Par ailleurs, une pathologie est susceptible de se manifester (dans l’ordre de « gravité ») :
soit dans une variation de l’épaisseur des flèches ;
soit dans la disparition de certaines flèches (sans que pour autant un domaine-cible ne soit plus du tout concerné) ;
soit dans la disparition de domaines-source (en ce cas, greffes et prothèses peuvent jouer un rôle régulateur » artificiel »).
100On peut considérer que la disparition de domaines-cible correspond au mieux à une mutation, au pire à la mort. Pour donner quelques exemples « systématiques »du fonctionnement ainsi représenté, nous pouvons proposer les triplets suivants (en commençant par des domaines-source, puis des flèches − correspondant en fait aux fonctions − et en finissant par des domaines-cible) :
système vasculaire / circulation (transport) / apports essentiels locaux (nutriments, oxygène, etc.) ;
système respiratoire / respiration / oxygénation ;
système nerveux / information, commande / adaptation, initiative ;
gènes / expression / protéines, régulations ;
mitochondries / réactions biochimiques / énergie produite ;
système digestif / digestion et transport/ métabolisme ;
système immunitaire / reconnaissance / identité tissulaire, lutte contre les agressions.
3.2 Sur la finalité contingente
101À partir de ces considérations, nous pouvons proposer d’appeler finalisation contingente la structure abstraite formée,
par le triplet (domaines-source, flèches, domaines-cible) ;
muni de la « mesure »constituée par l’ensemble E, de nombres réels, des épaisseurs des n flèches : E = {e1, e2,..., en} ;
assurant une stabilité structurelle de ces caractérisations. On entend ici, par une telle stabilité structurelle, la conservation des domaines-cibles en ce sens qu’il y aura toujours au moins une flèche dont
102Reprenons le premier exemple précédent et tentons de comparer état normal et état pathologique. À l’état normal, la flèche « métabolisme oxygène »a une épaisseur eO1 et la flèche « métabolisme glucose » une épaisseur eG1, avec eO1 ≫ eG1 et eO1 + eG1 = e1. La mise en place de l’état pathologique se traduit par un amaigrissement de la flèche « oxygène »et un épaississement de la flèche « glucose » ; finalement on a :
103eO2<eO1 eG2>eG1 eO2 + eG2 = e2 <e1
104Le fait que les flèches ne s’annulent pas et que le domaine-cible demeure traduit une plasticité partielle, mais la diminution de l’épaisseur totale, d’une part, le rééquilibrage interne des épaisseurs, d’autre part, traduisent le caractère pathologique. L’influence de ces deux facteurs (épaisseur totale et épaisseurs respectives) pour rait indique r qu’une plasticité totale (au sens où finalement on aurait e2 = e1) ne restitue pas pour autant une situation complètement « normale ».
105D’un point de vue beaucoup plus général, on remarquera que − comme nous l’avions déjà souligné dans l’approche par niveaux d’organisations que nous avons considérée précédemment, [Bailly, Longo, 2003] − la même structure de « finalisation contingent e »ainsi définie, se reproduit à différents niveaux d’organisation de biolons (cellules, organisme, espèce), même si les caractérisations (triplets et mesures) peuvent différer dans leur contenu précis, selon les niveaux. Cette parenté structurelle manifeste sans doute une certaine forme d’é qui valence des complexités objectives associées à ces niveaux, ainsi que nous l’avions déjà relevé in [Bailly, Longo, 2003].
3.3 Dynamique « causale » : développement, maturité, vieillissement, mort ?
106Notons que si l’on accepte le schéma que nous venons d’exposer il se révèle susceptible de représenter, grâce à la plasticité topologique et « métrique » dont il peut faire preuve, les grands processus dynamiques dont le vivant peut être le siège : le début du développement se caractérise par la prévalence des flèches qui partent d’un domaine-source pour aboutir à plusieurs domaines-cible qu’elles contribuent même à constituer (différenciations de tissus et systèmes, anatomiques, physiologiques). Au furet à mesure du processus et en même temps que le nombre et la structure des domaines-cibles se stabilise, ces flèches maigrissent (certaines peuvent même disparaître) en même temps que commencent à prévaloir les flèches qui partent de plusieurs domaines-source pour aboutir à un même domaine-cible (visées fonctionnelles). L’ensemble se stabilisant à nouveau à l’issue du développement, période de la maturité.
107Une fois la stabilisation de la maturité atteinte, la topologie se maintient « en gros »et le vieillissement se manifeste principalement de façon « métrique » (parla variation de la mesure des amaigrissements de flèches). Il se peut même que dans des cas-limites on puisse assister par annulations d’épaisseur à des disparitions de flèches, ce qui revient, au-delà du métrique, à toucher à la structure topologique du schéma. Et finalement, pour représenter la mort d’un organisme, on peut convenir, comme suggéré plus haut, que cela se manifeste par la disparition d’un ou plusieurs domaines-cible (correspondant à des fonctions vitales) du fait que plus aucune flèche n’y aboutit.
108On notera que si la plupart des domaines-cible d’un individu sont tournés vers la perduration de l’individu, au moins un d’entre eux − correspondant à la fonction de reproduction − est susceptible de produire un nouveau domaine-source (cellule fille, œuf fécondé) comme origine de la réitération du processus pour un nouvel individu. C’est l’ensemble formé par la réunion abstraite de ce domaine-cible particulier et du nouveau domaine-source produit qui peut constituer − à un niveau différent, donc − le domaine-source originaire de l’engendrement des individus du niveau ainsi considéré (organisme pour les cellules, espèce pour les individus).
109Du point de vue d’une tentative d’identification « phénoménale »plus précise des caractéristiques que nous venons d’introduire de façon abstraite, nous pour rions considérer que dans le « régime transitoire » initial (temps de la genèse) les domaines-source sont constitués principalement par des biolons (cellules embryonnaires), voir [Bailly et al., 1993], les domaines-cible étant constitués principalement par des orgons (organes et tissus à mettre en place), les flèches correspondant pour leur part aux phénomènes de différenciation, de migration et de structuration, tandis qu’au contraire, dans le « régime stationnaire » (organisme adulte), les domaines-source sont majoritairement constitués par les orgons constituants, tandis que les domaines-cible le seraient par la variété des fonctions vitales assurant le maintien et l’autonomie de l’organisme, les flèches correspondant cette fois aux processus biochimiques et physiques permettant d’assurer ces fonctions (intégration et régulation). Une telle approche permettrait de proposer une sorte de schéma « temporalisé » du fonctionnement biologique (figure 2).
110Peut-on affiner l’analyse en prenant en compte plus précisément la nature des flux qui relient entre eux domaines-source et domaines-cible ? Notamment en opérant la distinction entre énergie et information ? En première approche, il semble légitime de considérer que les flux qui vont dans le sens source/cible ont principalement un caractère énergétique (transport de matière ou d’énergie), répondant à des flux principalement d’information (gradients, écarts à l’équilibre dynamique) allant dans le sens cible/source. Les flèches sont alors censées intégrer et représenter les deux types de flux, leur épaisseur pouvant être altérée par une défaillance soit du caractère « informatif », soit du caractère « énergétique » qui lui est corrélé (on pourrait dans une première approximation prendre pour paramètre le produit de ces deux genres de flux, par exemple7). Essayons de prendre un exemple à un des niveaux les plus élément aires, celui de la cellule : dans ce cas, un domaine-source particulier peut être associé au fonctionnement des canaux ioniques qui permettent aux ions de traverser la membrane cellulaire et un domaine-cible correspondant serait la stationnarité (équilibre dynamique) de l’état ionique interne de la cellule (homéostasie − homéorhésie) qui lui permet de fonctionner dans les meilleures conditions. Les flèches correspondraient alors à la prise en compte des deux « flux » : d’une part le flux « d’information »qu’une différence de concentration ionique interne par rapport à l’état stationnaire engendrerait (gradient, différence de pression osmotique, champ électrique...), et qui conduirait par exemple à l’ouverture de certains canaux, et d’autre part le flux concomitant de matière (ces mêmes ions) venant de l’extérieur en vue de rétablir l’homéostasie et entrant par l’intermédiaire de ces canaux.
111Notons au passage, d’un point de vue analogique à ce stade, que la prise en compte de ces deux aspects (matière/énergie et information) ressemble fort à la situation thermodynamique où la définition d’une énergie libre (dont les variations gouvernent l’évolution du système) fait intervenir d’une part une enthalpie (ou une énergie interne) et d’autre part une entropie, ces deux grandeurs étant associées par l’intermédiaire de la température.
3.4 Invariants de réduction causale en biologie
112Comme pour le cas de la physique, nous pouvons nous interroger sur les invariants de réduction causale (s’ils existent) spécifiques au domaine du vivant et sur leurs rapports avec ce qui pourrait tenir lieu, dans le domaine de la biologie, des déterminations associées aux symétries que nous avons rencontrées pour la physique. Ainsi que nous l’avons souligné à plusieurs reprises ([Bailly, 1991]), il semble bien que ces invariants biologiques existent en effet et soient constitués par des ensembles d’invariants numériques (et non plus dimensionnels comme en physique). Il semble aussi que les déterminations qui les encadrent, les modulent et les actualisent soient maintenant des règles de « scaling »en fonction de la taille ou de la masse des organismes (sortes de symétries de dilatation ou d’échelle), voir [Schmidt-Nielsen, 1984].
113Ainsi, par exemple, les durées moyennes de vie de l’ensemble des organismes semble bien « scaler » comme la puissance 1/4 de leurs masses et leur métabolisme comme la puissance 3/4 de ces masses ([Peters, 1983]). De même, dans un registre un peu différent mais en rapport avec ces propriétés, il apparaît que l’ensemble des mammifères est caractérisé par un nombre moyen invariant de battements de cœur ou de respiration (de l’ordre de 109 battements de cœur ou de 2.5x108 respirations au cours d’une vie moyenne), ce nombre conduisant à des fréquences (ou des périodes) − grandeurs dimensionnelles, cette fois − soumises à ces règles de scaling en fonction de la masse moyenne des individus de l’espèce considérée (par exemple en puissance −1/4 de cette masse pour les fréquences). Mais de telles caractéristiques d’invariance ne se manifestent pas seulement au niveau élevé des fonctions biologiques d’organismes évolués ; on les trouve aussi à des niveaux beaucoup plus élément aires comme celui des réseaux métaboliques cellulaires [Ricard, 2003 ; Jeong et al., 2000], dont le diamètre8 demeure invariant le long de l’arbre phylogénétique et dont la distribution de connectivité présente, sur 43 organismes au moins appartenant aux trois domaines du vivant9, le même exposant caractéristique (2.2 environ). Comme le souligne J. Ricard, une telle invariance du diamètre du réseau implique que le degré de connexion des nœuds augmente avec le nombre de ces nœuds, c’est-à-dire avec le nombre d’étapes susceptibles de les relier. L à encore on remarquera qu’il s’agit d’invariants numériques et non dimensionnels.
3.5 Quelques commentaires et comparaisons avec la physique
114On voit que présentée sous cet angle, la causalité qui semble se manifester dans le vivant présente des traits similaires et des traits différents par rapport à ceux que nous avons relevés dans le cas de la physique qui ne traite que de l’inerte. Causalités matérielle et efficiente y sont manifestement présentes − ce qui a sans doute favorisé l’idée d’une possibilité de réduction physicaliste − bien que de façon beaucoup moins rigoureuse et structurée que pour la physique (notamment en liaison avec les capacités de plasticité et d’adaptabilité). Les déterminations formelles y sont relativement faiblement représentées, malgré les progrès faits dans diverses modélisations locales (nous avons cité les réseaux métaboliques, mais à un autre niveau, nous pouvons évoquer la dynamique des populations, par exemple, ou encore les propriétés de transport proches de la dynamique des fluides). De même, les déterminations objectives essentielles ne semblent pas vraiment avoir été dégagées, malgré le constat de propriétés de symétries − ou de brisures de symétrie − variées (au cours du développement ou dans les anatomies, par exemple) et l’identification de certains invariants numériques. En revanche la dimension de « causalité finale » (pour reprendre les catégories anciennes) ou de « finalité contingente »semble y jouer un rôle tout à fait important et inconnu en physique. Comme si le fait de se retrouver dans un état critique étendu (potentiellement très instable, donc, quoique nécessaire à une organisation élaborée) ne pouvait être compensé pour la stabilisation structurelle (momentanée) du vivant que par l’introduction de ces facteurs de téléonomie/anticipation qui semblent le caractériser.
4. Synthèse et conclusion
115Nous avons tenté de caractériser brièvement les différents aspects de la causalité physique tels qu’ils peuvent apparaître et être analysés à travers les théories contemporaines. Nous avons souligné le fait que symétries et invariances constituent des déterminations plus profondes encore que celles que manifestent les lois causales en ce qu’elles se présentent en quelque sorte comme des conditions de possibilité de ces dernières et comme des cadres de référence auxquels elles ont à se conformer.
116Nous avons aussi esquissé une analyse de la causalité interne aux systèmes de la calculabilité effective, dont les symétries et les invariances obéissent à un régime propre, ancré sur la structure arithmétique (discrète) des bases des données et des algorithmes de calcul. La structure d’intelligibilité proposée par ces méthodes diffère de celle qui est inhérente à la géométrie et aux mathématiques du continu phénoménal, en particulier par la différence entre la notion (moderne) de loi physique, à laquelle nous faisons référence, et la notion d’algorithme. Les conséquences de ces deux aspects se mesurent en termes de différents régimes causaux, suite aux différent es (brisures de) symétries. L’itération, en tant que symétrie de translation temporelle, est aussi mentionnée comme une des caractéristiques de la simulation digitale, en fait comme un des points forts de l’imitation computationnelle (et un point de départ de la récursivité effective, en tant que théorie mathématique, voir [Longo, 2002]). Elle est au cœur aussi du statut particulier de la prédictibilité, même dans le cas de l’implantation informatique de systèmes non-linéaires fortement instables, car la possibilité d’itérer un processus à l’identique (voire d’accélérer une simulation) est une forme de prévision. L’itérabilité, enfin, des calculs digitaux permet aussi de saisir la différence entre l’aléatoire de la théorie de l’information algorithmique et l’aléatoire des processus physiques de type critique et quantique. Dans le cas des algorithmes, l’aléatoire coïncide avec l’incompressibilité. En revanche, dans le premier des cas physiques (systèmes déterministes, dynamiques et thermodynamiques), il est de nature épistémique et il implique la non-itérabilité des processus ; dans le deuxième (physique quantique) il est intrinsèque à la théorie (il fait partie des déterminations objectives). Ces deux derniers cas sont incompatibles avec l’itérabilité individuelle d’un processus (qui est typique de l’algorithmique) ; bien qu’il puisse y avoir un itérabilité statistique, comme en mécanique quantique.
117Nous avons ensuite cherché à élargir la problématique causale au cas du vivant en prenant en compte son caractère propre à travers ce qui apparaît comme une sorte de finalisation de son fonctionnement que nous avons essayé de systématiser conceptuellement. Ce qui nous a conduit à nous référer à des concepts spécifiques, comme celui de « finalité contingente » et à proposer des représentations nouvelles (topologico-métriques) pour tenter d’en rendre compte de façon plus ou moins opératoire. Nous avons enfin évoqué la possibilité de dégager ce qui − à travers constant es numériques et propriétés de scaling − pourrait être considéré comme des invariants de réduction causale propres au domaine du vivant.
118Si les considérations relatives à la physique et au calcul s’appuient sur des théories bien élaborées et mathématisées, ce qui permet de nous référer à un corpus dont on peut dire qu’il est quasi complètement objectivé et qu’en cela il se prête particulièrement bien à une analyse épistémologique fouillée, se situant en outre dans le cadre d’une tradition bien établie, en revanche la situation est beaucoup plus fragile à cet égard pour la biologie. Aussi, dans le domaine du vivant, les analyses que nous proposons sont-elles de nature beaucoup plus spéculative et demandent-elles plus nécessairement encore les sanctions théoriques et conceptuelles des spécialistes de la discipline au regard de leurs propres pratiques en la matière. D’autant que les représentations causales, dans le cas du vivant, si on cherche à les détailler, doivent tenir compte d’interactions multiples (qui se présentent simultanément tout en demeurant de nature fort différente10), de rétroactions massives (qui empêchent le plus souvent de pouvoir partitionner les systèmes en sous-systèmes faiblement couplés pour faciliter l’analyse), de téléonomies holistiques (selon lesquelles l’organisation locale est dépendant e de la structure globale et se réorganise en fonction des nécessités d’optimisation ou de perduration de cette structure suivant des critères encore mal connus11).
119Néanmoins il nous semble qu’un des points communs à ces domaines disciplinaires − et c’est ce que nous avons voulu mettre en lumière et souligner dans ce texte − réside dans le fait que l’analyse causale, tout en restant utile et efficace − doit maintenant être relativisée et faire désormais une large place, pour une meilleure compréhension des structures théoriques et conceptuelles de ces domaines, à une approche plus générale en ce qu’elle s’appuie beaucoup plus sur les propriétés d’invariances, de symétries (et de leur brisure), de conservations, sous-jacent es à ces manifestations que nous avons tendance spontanément (au moins depuis la Renaissance) à interpréter en termes d’actions causales objectives. On y verra peut-être la trace d’un processus de réhabilitation conceptuelle du « géométrique » (pris en un sens très large) par rapport à « l’arithmétique »12. Ce qui n’est pas sans faire écho aux préoccupations les plus profondes de ce colloque.
[31] Weyl H., Symmetry, Princeton University Press, 1952.
Bibliographie
Des DOI sont automatiquement ajoutés aux références bibliographiques par Bilbo, l’outil d’annotation bibliographique d’OpenEdition. Ces références bibliographiques peuvent être téléchargées dans les formats APA, Chicago et MLA.
Format
- APA
- Chicago
- MLA
Références
[1] Aceto L., Longo G., Victor B. (eds.), « The difference between Sequential and Concurrent Computations », Special issue, Mathematical Structures in Computer Science, Cambridge University Press, n. 4-5, 2003.
[2] Anandan J., « Causality, Symmetries and Quantum Mechanics », Foundations of Physics Letters, vol. 15, no. 5, 415 − 438, October, 2002.
[3] Bailly F., » L’anneau des disciplines », Revue internationale de Systémique, vol. 5, n°3, 1991 Bailly F., « Invariances, symétries et brisures de symétries », in L. Boi (ed.) New Interactions of Mathematics with Natural Sciences and the Humanities, (à paraître), Berlin : Springer, 2003.
[4] Bailly F., Gaill, F., Mosseri R., « Orgons and Biolons » in Theoretical Biology : Phenomenological Analysis and Quantum Analogies, Acta Biotheoretica, Vol. 41, p. 3, 1993.
[5] Bailly F., Longo G., « Objective and Epistemic Complexity in Biology » Invited lecture, Proceedings of the international Conference on Theoretical Neurobiology (N. C. Singh, ed.), NBCR, New Delhi, p. 62 − 79, 2003.
[6] Bailly F., Longo G., « Space, time and cognition. From The Standpoint of Mathematics and Natural Science ». Invited paper, Causality and Mind, (Peruzzi ed.), Benjamins, p. 149-199, Amsterdam, 2004. (Version française dans la Revue de Synthèse, Paris, 2004).
[7] Bailly F., Longo G., « Incomplétude et incertitude en Mathématiques et en physique ». Article invité, Il pensiero filosofico di Giulio Preti, (Parrini, Scarantino eds.), Guerrini ed associati, Milano, p. 305-340, 2004a (réimpression en cours aux actes du colloque en mémoire de Gilles Châtelet, Presse de la rue d’Ulm, Paris, 2005).
[8] Bailly F., Longo G., « Mathématiques et sciences de la nature. La singularité physique du vivant », Hermann, Paris, 2006.
[9] Bernard-Weil E., « Ago-antagonistic Systems », in M. Mugur-Schächter and A. Van der Merwe (eds.) Quant um Mechanics, Mathematics, Cognition and Action, Kluwer, 2002
10.2307/421098 :[10] Edalat A., « Domains for Computation in Mathematics, Physics and Exact Real Arithmetic », Bulletin for Symbolic Logic, 3 (4), 401 − 452, 1997.
[11] Edelman G., Tonni G., A Universe of Consciousness. How Matter Becomes Imagination, Basic Books, 2000.
10.1038/35036627 :[12] Jeong H., B. Tombor, R. Albert, Z. N. Ottvai, A-L. Barabasi, « The large scale organization of metabolic networks », Nature, vol. 407, p. 651, 2000.
[13] Longo G. « Laplace, Turing and the « imitation game »impossible geometry : randomness, determinism and programs in Turing’s test. » Invited Lecture, Conference on Cognition, Meaning and Complexity, Roma, June 2002. (version française : Intellectica, n. 35, p. 131-162, 2002, suivie par une « réponse aux commentaires », p. 199-216).
10.1007/0-306-48144-8 :[14] Longo G., « The Constructed Objectivity of Mathematics and the Cognitive Subject ». In « Quantum Mechanics, Mathematics, Cognition and Action - Proposals in Epistemology. » (M. Mugur-Schächter ed.), Kluwer, p. 433-463, 2002a.
10.1142/5929 :[15] Longo G., « The reasonable effectiveness of Mathematics and its Cognitive roots », à paraître dans « New interactions of Mathematics with Natural Sciences » (L. Boi ed.), Springer, 2003.
[16] van Frassen B., Lois et symétries, Vrin, Paris, 1994.
10.1088/0034-4885/49/8/002 :[17]Nicolis G., Dissipative systems, Rev. Prog. Phys., IL, p. 873, 1986.
[18] Nicolis G., Prigogine I., A la rencontre du complexe, Paris, Presses Universitaires de France, 1989.
10.1017/CBO9780511608551 :[19] Peters R. H., The Ecological Implication of Body Size, Cambridge University Press, 1984.
[20] Pilyugin S. Yu., Shadowing in dynamical systems, Springer, 1999.
[21] Ricard J., « Émergence, organisation et causalité dans les systèmes biologiques », in Enquête sur le concept de causalité (L. Viennot, C. Debru Eds.), PUF, 2003.
[22] Rosen, R., Life Itself, New York : Columbia University Press, 1991.
[23]Sakharov A., Œuvres scientifique s, Anthropos, 1984.
[24] Sauer T., » Shadowing breakdownand large errors in dynamical simulations of physical systems », preprint, George Mason Univ., 2003.
[25] Schmidt-Nielsen K., Scaling, Cambridge University Press, 1984.
[26] Stewart J., « La modélisation en biologie » dans Enquête sur le concept de modèle, Nouvel P. (ed.), Presses Universitaires de France, 2002.
[27] Turing A., « Computing Machines and intelligence », in Mind, 59 : 433-466, 1950.
[28] Varela, F., Autonomie et connaissance, Paris : Seuil, 1989.
[29] Viennot L., « Raisonnement commun en physique : relations fonctionnelles, chronologie et causalité », in Enquête sur le concept de causalité (Viennot, Debru eds.) Press Univ. de France, 2003.
10.1063/1.3066316 :[30] Weyl H., Philosophy of Mathematics and of Natural Sciences, 1927 (english transl., Princeton University Press, 1949).
Notes de bas de page
1 Dans le débat avec I. Prigogine au sujet du déterminisme, R. Thom souligne le rôle de la stabilité structurelle, même dans le cadre de dynamiques fortement instables (les formes se maintiennent, tout en se déformant).Ce sont les équations de la dynamique qui déterminent leurs évolutions possibles(en tant que causes – détermination pour nous− formelles). En revanche, Prigogine met en avant le jeu entre structures localement stables et système global où de petites fluctuations, amplifiées, induisent le choix d’une de ces évolutions. Pour Thom, ces fluctuations seraient des causes matérielles (elles concernent en fait les propriétés).Tout en gardant son nouveau regard sur la finesse d’Aristote, mais différemment de lui, nous n’attribuons pas à ces différent es notions de causalité une hiérarchie ontologique de type platonicien, où les déterminations (causes)formelles précéderaient ontologiquement les autres causes.
2 Comme nous l’avons déjà fait à l’occasion de l’approche et de l’approfondissement du concept de « complexité » [Bailly, Longo, 2003].
3 Déterminations objectives dans notre langage.
4 Déterminations formelles, pour nous.
5 Selon le principe de Curie, » les symétries des causes se retrouvent dans les symétries des conséquences ».Dans l’approche suivie dans ce texte, on dirait que dans ces cas, au niveau des observables, il n’en est pas ainsi : à une situation initiale apparemment symétrique peut succéder une évolution observable qui ne reproduit pas les mêmes symétries, suite à une brisure de symétrie, initiale ou au contour, dont l’amplitude, à l’origine, est en dessous de la mesure possible (donc non observable). Dans ce cas, donc, certains aspects des symétries ne sont pas conservés lorsque l’on passe des causes (observables) aux conséquences (observables).
6 Par exemple, la mise en œuvre de processus d’équilibres ioniques peut constituer un domaine-source pour le fonctionnement du domaine-cible que représente alors une cellule, elle- même constituant un domaine-source pour le bon fonctionnement des tissus auxquels elle participe, bon fonctionnement qui représente un de ses domaines-cible. Il en irait de même pour le fonctionnement cérébral, par exemple, en tant que domaine-cible d’une oxygénation et que domaine-source d’un contrôle ou d’un comportement.
7 Si E est le flux de matière-énergie allant du domaine-source au domaine-cible pour » répondre »au flux d’information (de « demande ») allant du domaine-cible au domaine-source « au sein » d’une flèche donnée, on pourrait prendre comme un des paramètres de fonctionnement− participant de l’épaisseur de cette flèche − le produit E×F. Ainsi, une défaillance d’un flux dans l’un ou l’autre sens se traduirait par une diminution de ce produit, correspondant à une diminution de l’épaisseur de la flèche et exprimant ainsi une altération du processus fonctionnel résumé par cette flèche.
8 Le diamètre d’un réseau métabolique est défini par la moyenne des plus courts chemins (en termes d’étapes) menant d’un nœud du réseau à un autre.
9 C’est-à-dire archéobactéries, bactéries, eucaryotes.
10 Alors qu’en physique, par exemple, les interactions peuvent dans bien des cas être suffisamment découplées les unes des autres pour pouvoir les aborder et les étudier séparément. quitte, dans un second temps, à rechercher les conditions et procédures de leur unification.
11 On sait, par exemple, que les contraintes de nature génétiques elles- mêmes ne se « normalement » que dans des cadres épigénétiques ou environnement aux convenables et que certains phénomènes de « mort » locale − apoptose − se révèlent nécessaires à la viabilité globale. Sans même parler des facultés d’adaptation des organismes en cas de modification du milieu extérieur.
12 Par référence aux débats du début du xxe siècle à propos des fondements des mathématiques (voir notamment [Longo,2003]),mais tout en soulignant le fait que la géométrisation de la physique, de son côté, n’a jamais cessé de se développer, ce qui explique peut-être que ce soit dans cette discipline que les symétries et invariances aient fort tôt acquis un statut explicatif et opératoire déterminant.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Agir et penser
Essais sur la philosophie d’Elizabeth Anscombe
Valérie Aucouturier et Marc Pavlopoulos (dir.)
2015