Simplexité, information et dualité
Texte intégral
1Pour Alain Berthoz, « le concept de simplexité inclut la notion de sens » ; c’est dire la difficulté à laquelle on est tout de suite renvoyé lorsqu’on souhaite éclaircir l’idée de simplexité. Il ne fait pas de doute que le sentiment que quelque chose possède un sens, et l’attribution d’un sens, contribuent à l’efficacité des êtres vivants ; mais il est sûr aussi qu’éclaircir la notion de sens, encore aujourd’hui, réclame une discussion philosophique, un examen des sens donnés au sens. Et le risque est grand alors de plaquer ses propres théories préférées du sens, quand on en a, sur la notion de simplexité.
2Plus modestement, on peut chercher du côté des mathématiques, de la physique ou de la biologie, dans l’arsenal connu, une aide pour préciser la notion de simplexité. En espérant même que la confrontation fera naître des instruments nouveaux dans ces disciplines. Comme tous les exemples de simplexité ont trait au vivant, cela rejoint le problème de cerner mieux ce qui en physique doit être ajouté pour rendre compte des propriétés particulières des êtres vivants ; problème actuel et fondamental, posé depuis l’avènement de la physique quantique, depuis que les principes de base de la chimie font partie de la physique (Schrödinger1 ; Heisenberg2). Même si cette approche est a priori plus modeste que la quête du sens du sens, elle se doit de toucher aux concepts énumérés par Alain Berthoz : inhibition, invention, probabilité, anticipation, détour, spécialisation, coopération, redondance, multiplicité.
3Une chose est certaine : l’idée de simplexité exposée par Alain Berthoz est parente de l’idée de complexité, puisqu’elle sous-entend la présence de problèmes complexes. Elle se veut loin d’une certaine idée de simplicité, qui nierait la complexité ; mais, en même temps, elle souhaite rendre compte de la simplification qui résulte de la solution simplexe d’une question complexe.
4La notion de complexité a donné lieu à des concepts philosophiques, mathématiques et physiques multiples ; la contribution de Jean-Pierre Nadal à cet ouvrage en traite, et démontre bien que le principe du maximum d’information réussit à expliquer une partie de la simplexité. Les théories de l’information auxquelles Jean-Pierre Nadal fait référence sont celles de Shannon et de Fisher ; elles sont de nature probabilistes. Que la notion de simplexité ait à voir avec les probabilités, avec leur force d’explication et avec leur logique souple, apparaît également dans les contributions de Jonathan Touboul et de Pierre Bessière.
5Selon Shannon3, étant donné un espace probabilisé, l’information mutuelle I(S ;E) entre deux variables aléatoires discrètes est définie par la différence H(S)-H(S|E) entre l’entropie de S (c’est-à-dire la moyenne de la fonction log(1/p(s)), où p(s) désigne la probabilité que S=s) et l’entropie de S conditionnée par E, (c’est-à-dire la moyenne sur les valeurs possibles e de E de l’entropie de la loi de S conditionnées par l’évènement E=e). Dans la théorie de Shannon, la complexité d’un système S est mesurée par son entropie. C’est la mesure du désordre de S, mais c’est aussi la quantité moyenne de connaissance nouvelle qu’on peut attendre d’un résultat de S. Dans notre contexte, on a en tête, pour S, un système vivant (ou un sous-système d’un système vivant) et pour E son environnement (ou une partie de cet environnement). Alors le principe disant que l’organisme vivant cherche à maximiser l’information mutuelle avec son environnement ressemble bien au principe de simplexité.
6En effet, contemplons la formule :
I(S ;E) = H(S)-H(S|E) ;
On y voit qu’en augmentant la complexité de S et en diminuant celle de S conditionnée par E, on augmente l’information mutuelle. Or P(S=s|(E=e)) est la loi de la variable S quand E est connu ; par conséquent, dire que son entropie est petite, c’est dire que S est pratiquement déterminée par E, donc que le système vivant a su répondre de façon quasi-déterministe à son environnement. (Pour une discussion approfondie de cette décomposition et de ses extensions, à propos du système visuel primaire des mammifères, voir la thèse de Pierre Baudot4.) Dans sa contribution, Jean-Pierre Nadal a montré comment raffiner ce principe dans le cas d’un grand système S estimant un ensemble fini de catégories C en fonction d’une entrée E ; alors, maximiser l’information mutuelle revient à augmenter la discrimination, définie par la métrique d’information de Fisher ; les prédictions quantitatives s’accordent bien avec plusieurs expériences en psychophysique (distinction entre phonèmes) et en neurophysiologie (activité préfrontale de macaques)5. Une autre application très remarquable en neurosciences du principe d’information mutuelle maximale (appelé principe d’InfoMax) est la loi du Minimum de Variance de Harris et Wolpert6 ; en particulier le principe du minimum de variance prédit la dynamique des saccades de l’œil (allures des trajectoires et temps de parcours, y compris la nécessité de compléter la saccade par de petites saccades).
7Notons que le principe d’InfoMax n’explique pas tout dans l’adaptation des êtres vivants à leur environnement (cf. la thèse de Pierre Baudot). Tout d’abord, il ne peut pas prédire le phénomène appelé sparseness (ou spécialisation), qui dit que la redondance d’ordre 1, définie comme la différence relative entre la capacité totale (entropie théorique maximale) et la somme des entropies des unités d’un système (cf. Atlan7), augmente au cours de l’évolution et du développement. L’InfoMax prédit plutôt le contraire (d’ailleurs la spécialisation, la redondance sont des propriétés simplexes selon A. Berthoz). De même, le phénomène de résistance au bruit, ou stabilisation par dissipation, n’est pas expliqué par l’InfoMax (d’ailleurs la résonance, ou une forme de stabilité structurelle, font naturellement partie de la simplexité aussi).
8Le principe d’InfoMax s’impose malgré tout comme une des clés du fonctionnement des êtres vivants ; or il ne se déduit pas formellement des principes connus en thermodynamique, il semble qu’il faille faire intervenir au moins les lois de l’évolution pour le justifier ; c’est donc une voie possible pour étendre les principes de la physique en vue de la biologie.
9Pourtant, il y a de bonnes raisons de penser que la notion de simplexité n’est pas recouverte par le principe d’InfoMax (même si on le modifie pour inclure redondance et résonance) : premièrement, l’InfoMax utilise une théorie particulière de l’information ; or d’autres théories de l’information existent en mathématiques, et nous allons voir que toutes ont affaire avec la simplexité ; deuxièmement, pour concilier complexité et simplicité, il semble qu’il faille faire appel à un principe de dualité plus général, plus radical, que celui qu’exprime la formule de Shannon pour l’information mutuelle.
10Voyons d’abord le premier point. Historiquement, la plus ancienne théorie de l’information, qui se voulait théorie générale de l’ambiguïté, fut la théorie de Galois. Le prototype de cette théorie de l’ambiguïté, développé par Evariste Galois lui-même, associe un groupe (ensemble muni d’une loi de composition avec une unité et des inverses) à une équation algébrique ; ce groupe agit par permutations sur l’ensemble des solutions de l’équation et décrit à quel point certaines solutions sont indistinguables les unes des autres avec des moyens rationnels. Plus le groupe est gros, plus il y a de solutions indistinguables ; mais ce n’est pas seulement la taille du groupe qui est intéressante, c’est aussi sa structure (d’ailleurs il s’agit de la première structure explicitée en mathématiques) ; par exemple, si le groupe se laisse décrire par une suite d’extensions par des groupes commutatifs, l’équation peut se résoudre par des extractions de racines (on dit alors, à cause de ça, que le groupe est résoluble). Surtout, Galois a, dès le début, réfléchi sur l’effet du conditionnement sur le groupe : si l’on se donne une information supplémentaire, représentée ici par de nouveaux nombres, comment change le groupe ? Il se transforme en un sous-groupe du groupe initial. Le rôle joué par les variables en probabilité est remplacé dans ce cadre algébrique par des extensions de corps, des familles de nombres où les opérations usuelles sont permises. L’information mutuelle de Shannon est alors remplacée, dans le cas de deux corps X et Y, par un espace géométrique, i.e. un ensemble sur lequel agit un groupe. L’ensemble en question est le quotient
IG(X ;Y)=G(X).G(Y)/G(X,Y)
du produit cartésien des groupes de Galois des deux corps par le groupe de Galois de l’extension jointe. Ceci est l’analogue pour la structure de groupe de la formule probabiliste
I(X;Y)=H(X)+H(Y)-H(X,Y).
Dans les deux cas l’information mesure la réduction de l’ambigüité.
11Plus généralement, selon Felix Klein (programme d’Erlangen, que ne renient pas Henri Poincaré, Sophus Lie et Elie Cartan), une géométrie est l’action d’un groupe G sur un ensemble quotient G/H de G par un sous-groupe H ; elle peut être vue de manière très générale comme une forme d’information.
12D’autres types de variables que les nombres engendrés par les solutions d’une équation algébrique, ont donné lieu à d’autres théories de Galois : les fonctions analytiques complexes ont donné la théorie de Abel, Jacobi et Riemann ; les équations différentielles, la théorie de Picard-Vessiot ; les équations aux dérivées partielles, la théorie des groupes de Lie ; les sous-variétés d’un espace géométrique, la théorie du repère mobile de Cartan ; … Si une chose est simplexe, c’est bien la géométrie, ou plutôt les géométries multiples créées par le cerveau pour simplifier le contrôle des gestes, ou de la locomotion, et, plus généralement, toute perception et toute action (voir les chapitres à ce sujet dans le livre d’Alain Berthoz La simplexité. Il est donc bien tentant de dire que le principe du maximum de symétrie (ou plutôt du maximum de géométrie, GéoMax) est également contenu dans le concept de simplexité, au même titre que l’InfoMax.
13Mais il existe une autre théorie, plus récente, tirant son origine des théories de Riemann et de Poincaré sur les équations différentielles et la topologie, qui se déclare comme une théorie de l’information ; c’est la théorie des singularités de fonctions et de systèmes dynamiques, et, en particulier, la théorie des catastrophes de René Thom. Ses idées principales sont exposées dans les deux livres Stabilité structurelle et morphogénèse8 et Esquisse d’une Sémiophysique9. Le problème abordé par Thom est aussi la recherche de ce qui a un sens. Il ne faut pas restreindre cette théorie aux exemples des catastrophes élémentaires, ni à des énoncés métaphysiques ; il faut y inclure, comme voulait Thom, une théorie générale des bifurcations de systèmes dynamiques.
14René Thom affirme que l’information fondamentale est de nature topologique :
Or, toute information est d’abord une forme, et la signification d’un message est une relation de caractère topologique entre la forme du message et les formes caractéristiques du récepteur (c’est-à-dire les formes susceptibles de provoquer une excitation du récepteur)10.
(Il faudrait ajouter « ou inhibition du récepteur ».)
15Décrivons brièvement la démarche de Thom : ce qui remplace la variable aléatoire est une famille de systèmes dynamiques X(u), où u parcourt un ensemble U, le déploiement universel du plus singulier X(0) des X ; c’est-à-dire que toutes les déformations locales possibles X(a), où a décrit une variété A, peuvent être représentées dans U, induites par une application d’un voisinage de 0 dans A dans U. La variété U joue le rôle de l’ensemble des lois de probabilités pour la variable. Alors la forme signifiante est induite par le lieu des bifurcations K dans U, là où la dynamique change de caractère. La complexité de K rend compte de l’ambiguïté ; il se trouve que, dans beaucoup de cas intéressants (mais malheureusement pas tous, il faut le reconnaître), il est possible de définir un objet de topologie algébrique, l’homologie évanescente I(u) de X(u) (où u est une valeur régulière), qui est un espace vectoriel muni de certaines structures, dont un réseau R, une filtration F et un groupe discret de symétries G, contenant un élément particulièrement important appelé monodromie totale M. On retrouve d’ailleurs dans ce cadre, pour les cas les plus simples, une représentation du groupe de Galois d’une équation attachée à X(u). Il est légitime de proposer que I, R, F, G, M mesurent l’ambigüité. Il existe une correspondance ambiguë entre U et I, telle que U apparaisse comme un quotient singulier de I par G, dont l’inverse est multivalué et contient une généralisation des lois de probabilité usuelles sur les attracteurs dans le cas d’une dynamique dépendant d’un potentiel ; cette généralisation prend la forme d’une application des périodes de cycles. Si bien que la théorie des singularités de systèmes dynamiques implique à la fois des éléments de théorie d’information galoisienne et des éléments de théorie d’information probabiliste.
16Supposons donnés deux systèmes dynamiques X(u) et Y(v), alors on peut imaginer deux situations. Dans la première, il n’y a pas de couplage ; les dynamiques opèrent indépendamment ; alors, on a affaire à une dynamique produit (X(u),Y(v)) ; la complexité est donnée par le théorème de Thom-Sebastiani ; c’est le produit tensoriel des complexités I(X)(u) et I(Y)(v) avec pour monodromie le produit tensoriel des monodromies. Dans la seconde situation, il y a un couplage (X,Y)(w), sur un sous-ensemble W du produit de U et de V ; la complexité se réduit à celle qui est donnée par une restriction. L’exemple clé donné par Thom pour l’échange d’information est celui de deux oscillateurs, vus comme des champs de vecteurs sur des cercles ; alors le paramètre de déformation pour chacun des cercles est juste la période de rotation, et le système produit découplé est fait de translations uniformes sur un tore de dimension deux. Mais ce système produit direct est hautement instable lorsque les périodes entrent en résonance, c’est-à-dire lorsque le rapport des périodes devient un nombre rationnel, surtout si le numérateur et le dénominateur sont petits ; alors, génériquement, parmi les champs de vecteurs sur le tore, le système implose sur un cycle limite, qui devient un nouvel oscillateur autonome, stable. Il est légitime de dire que, dans ce cas, une information mutuelle apparaît, faite comme le quotient d’un plan par une droite, pour mesurer la période du cycle limite. Il faut avouer qu’une théorie générale du couplage n’a pas pu être faite encore, en particulier à cause des exemples de dynamiques génériquement non-structurellement stables à partir des champs de vecteurs en dimension trois. Mais cela ne doit pas nous décourager ; on ne peut pas nier que l’étude des systèmes dynamiques et de leurs versions stochastiques, soit pertinente pour décrire les formes possibles des échanges d’information dans un système biologique.
17Il est naturel de penser que des généralisations convenables de l’homologie évanescente expliquent le fonctionnement de certains réseaux de neurones, et plus généralement le fonctionnement d’un système vivant de reconnaissance de caractères stables, signifiants. D’ailleurs la théorie de l’homologie d’un espace topologique elle-même, sans forcément parler de cycles évanescents, offre une théorie de l’information. D’ailleurs plusieurs auteurs (Thom, Milnor, Gromov, Yomdin, …) ont proposé de définir la complexité topologique d’un espace comme la somme des dimensions des groupes de co-homologie réelle (les nombres de Betti). (D’autres définitions ont été proposées et utilisées en robotique, cf. par exemple Farber et Grant11.)
18On voit que les notions d’ambigüité et d’information entretiennent un rapport étroit avec deux des plus importantes découvertes du vingtième siècle en mathématiques : les probabilités et la topologie. De plus, à travers la théorie de Galois, elles sont en rapport avec les branches les plus antiques (arithmétique et géométrie) et les plus modernes (groupes de Lie, analyse harmonique et topos). Même si on peut englober ces théories dans des schémas communs, et leur appliquer les outils de l’algèbre et de l’analyse, elles révèlent des aspects différents de la connaissance : une probabilité est une mesure de l’ignorance (ou de la perspicacité) d’un observateur, un invariant topologique sert à définir ou identifier une forme, une symétrie est une mesure d’indétermination (ou d’invariance).
19Or, c’est le deuxième point que je voulais mentionner, une caractéristique des connaissances est la dualité, c’est-à-dire la nécessité, pour bien connaître quelque chose, de faire appel à des points de vue opposés, souvent même contradictoire.
20Bien que cette constatation ne fasse qu’exprimer une évidence depuis la nuit des temps, elle n’a pris corps nettement dans les sciences que depuis la compréhension de la mécanique quantique. En effet, il est apparu alors que le scientifique ne pouvait que parler de la connaissance qu’il avait, ou espérait avoir, des phénomènes qu’il étudiait, mais pas des phénomènes eux-mêmes. En mécanique quantique, pour la première fois, les quantités définies à calculer étaient interprétées comme une connaissance des résultats d’expériences, et pas comme des résultats d’expériences ; ceci est l’interprétation standard de la fonction d’onde. Le débat là-dessus n’a jamais été totalement clos, mais l’influence de cette interprétation est de toute façon considérable. Prenons l’exemple princeps de dualité : la dualité onde-corpuscule. Elle énonce qu’une particule quantique vue sous un certain angle, dans un certain contexte, possède des propriétés d’onde étendue, et, sous un autre angle, dans un autre contexte, à travers d’autres appareils, qu’elle possède des propriétés d’objet ponctuel. La formulation mathématique habituelle de cette dualité est l’inégalité d’Heisenberg, disant que l’écart type d’une variable coordonnée de position Q ne peut pas être petit en même temps que l’écart type de la variable d’impulsion conjuguée P ; plus précisément, le produit de ces deux écarts types est minoré par une constante absolue, qui fait intervenir la constante de Planck. Notons qu’il existe une formulation plus fine de ce principe faisant directement appel à l’entropie, comme mesure de la difficulté à prédire :
H(X)+H(X*) ≥ ln(e/2) ;
où X et X* désignent respectivement la variable aléatoire réelle dont la densité est le carré du module de la fonction d’onde (supposée d’intégrale totale égale à 1) et celle dont la densité est le carré de du module de la transformée de Fourier de la fonction d’onde.
21On voit qu’une dualité peut exprimer une minoration absolue de la complexité. Mais on voit aussi qu’une dualité peut exprimer un échange de complexité. C’est sous cette forme surtout que la simplexité rencontre la dualité.
22Dirac a donné très tôt des exemples de dualité ayant trait aux champs quantiques et aux particules élémentaires. Par exemple, il a imaginé l’existence du monopole qui porte son nom, le monopole magnétique, comme particule duale de l’électron ; cette existence devait refléter dans la cadre des corpuscules la dualité inhérente aux équations de Maxwell dans le vide entre le champ électrique et le champ magnétique. Il apparaît déjà là l’idée de composer les dualités entre elles, d’utiliser des dualités de dualités. Le produit de la charge électrique élémentaire par la charge magnétique élémentaire doit être égal à 2π. Suivant cette idée, au milieu des années 1970, Gerard ‘t Hooft et Alexandre Polyakov ont trouvé des formules pour des monopoles en dualité avec les vecteurs des interactions faibles et fortes ; ces monopoles sont portés par des champs de Higgs, comme ceux qui ont été découverts récemment au CERN ; la dualité est représentée par la formule *dφ=F, où φ est le champ scalaire de Higgs et F la courbure d’un champ de jauge associé à un groupe G. À partir de tels monopoles, ‘t Hooft et Polyakov ont suggéré une explication possible du confinement des quarks. Le mécanisme derrière ce confinement des monopoles est analogue à celui de la supraconductivité, avec les paires de Cooper : une infinité de modes de fermions se combinent pour donner une excitation, qui fonctionne comme une nouvelle particule élémentaire. Dirac avait également conçu ce mécanisme dans le cadre des spineurs quantiques les plus généraux.
23Le point fondamental pour notre discussion de la simplexité est le suivant : partant d’une théorie de champs, sa quantification fait apparaître des particules élémentaires ; on peut dire que les états à peu de particules et peu de niveaux d’énergie sont simples, et que les états à beaucoup de particules, ou ceux qui font intervenir beaucoup de niveaux d’énergie différents, sont complexes ; mais il arrive qu’une combinaison exceptionnelle d’une infinité de ces états crée un objet d’un type nouveau que l’on peut considérer comme une particule élémentaire. On a un vrai échange de complexité : les nouvelles particules sont simplexes par rapport aux anciennes.
24Soulignons qu’en plus d’échanger des propriétés d’ondes et de corpuscules, de moment et de position, ce qui correspond à une compensation d’entropie, notion probabiliste d’information, ces monopoles échangent des groupes d’invariance, groupes de jauge, par des mécanismes d’extension de symétries et de brisure de symétrie, notion galoisienne d’information.
25En fait, le prototype des dualités de champ, l’exemple qui a servi de guide à ‘t Hooft et à Polyakov, est le modèle d’Ising en physique statistique : un réseau à deux dimensions de spins avec une règle d’interaction aux plus proches voisins, qui capte l’essence des phénomènes de transition de phases ; dans ce modèle, la variable de spin ou sommet du réseau est duale d’une variable qui dépend d’un chemin partant d’un sommet pour aller à l’infini ; cette variable est une mesure du désordre le long d’une ligne continue, alors que sa duale est une mesure de l’ordre sur le réseau. On voit là deux propriétés importantes des dualités : elles peuvent échanger des objets géométriques de dimensions différentes, et des opérateurs d’ordre avec des opérateurs de désordre.
26Les théories de cordes en physique, qui sont des bons candidats pour réconcilier les principes quantiques et la relativité générale, ont fait apparaître des ensembles de dualités encore plus étonnantes, capable de changer la dimension de l’espace-temps ou de changer des effets quantiques en effets classiques. Elles ont montré comment les dualités physiques se rattachaient à des dualités découvertes en mathématiques à propos des nombres et des figures géométriques. À la dualité onde/corpuscule correspond la dualité en algèbre linéaire, et la transformation de Fourier en analyse. À la dualité électrique/magnétique correspond la dualité de Hodge, qui échange des courants de dimensions complémentaires sur une variété. Mais la plus belle, la plus profonde des dualités en géométrie (à l’heure qu’il est) est la dualité de Poincaré ; elle porte sur la forme topologique des variétés, mesurée par l’homologie ; elle dit que, pour une variété lisse compacte orientée M de dimension n, le groupe d’homologie H(k,M) des cycles de dimension k est isomorphe au groupe H*(n-k,M) des co-cycles de dimension n-k. Elle conjugue ainsi deux sortes de dualités. La première est celle des vecteurs et des co-vecteurs (qui est un avatar de onde/corpuscule ou position/impulsion). La seconde est celle qui est apparue avec Ising, ou avec Hodge (électricité/magnétisme) : c’est l’échange des complémentaires. L’énoncé pur de cet échange est dû à Alexander : dans l’espace euclidien de dimension n, considérons un sous-ensemble compact X ; alors l’homologie de dimension k de X est isomorphe à l’homologie de dimension n-k-1 du complément (à la composante infinie près pour H0). Par exemple, dans le plan euclidien, à deux dimensions, prenez une courbe connexe mais compliquée ; elle a un H0 simple (de rang 1) et un H1 compliqué ; alors son complément a beaucoup de morceaux, un grand H0 mais un petit H1 (de rang 1) ; dans l’espace usuel de dimension trois, prenez une surface fermée compliquée mais sans anses et d’un seul morceau ; alors son complémentaire a beaucoup de composantes ; mais prenez une surface fermée avec beaucoup d’anses ; alors son complémentaire aussi est très compliqué au niveau 1, il possède de nombreux chemins indépendants.
27De manière générale, on peut rapprocher la dualité de la simplexité : un changement de point de vue, une invention, un détour évitant la complexité sans la détruire, produit de la simplicité ; mais, inversement, le prix à payer peut être une grande complexité dans certaines dimensions. Par exemple, pour le vivant, on peut supposer que la complexité est immense au niveau moléculaire, en-deçà de la cellule, dans l’agencement des protéines et de leurs réseaux dynamiques, dans la signalisation intercellulaire, et que déjà l’organisme est une grande simplification par rapport aux unités atomiques, une entité nouvelle, une unité résultante d’un grand nombre d’états indépendants ou liés. Par contre, l’environnement de l’être vivant est très simple au niveau élémentaire, et très compliqué dans ses agencements à moyenne et grande échelle. Si bien qu’une sorte de dualité gouverne les échanges de l’être vivant et de son milieu – cette dualité échangeant des niveaux de complexités supplémentaires, à petite échelle et grande échelle.
Notes de bas de page
1 E. Schrödinger, Qu’est-ce que la vie ? – De la Physique à la Biologie, Seuil, 1944/1993.
2 W. Heisenberg, Le manuscrit de 1942, Seuil, 1998.
3 C.E Shannon, « A Mathematical Theory of Communication », Bell System Technical Journal, 1948, vol 27, p. 379-423 et 623-656.
4 P. Baudot, Natural computation, much ado about nothing ?, Thesis Paris-VI University, 2006.
5 Voir les références dans J.-P. Nadal, « Complexité du codage neuronal », dans le présent ouvrage.
6 C.M. Harris and D.M. Wolpert, (2006) « The main sequence of saccades optimizes speed-accuracy trade-off », Biological Cybernetics, 2006, 95(1), p. 21-29.
7 H. Atlan, L’Organisation biologique et la théorie de l’information, Hermann, 1972/1992.
8 R. Thom, Stabilité structurelle et morphogenèse, InterEditions, 1972/1977.
9 R. Thom, Esquisse d’une sémiophysique. Physique aristotélicienne et théorie des catastrophes, Dunod, 1988.
10 Thom, R. (1972/1977) op. cit. 2ème éd., p. 156.
11 M. Farber & M. Grant, « Robot motion planning, weights of cohomology classes, and cohomology operations », Proceedings of the American Mathematical Society, 2008,vol. 136, n°9, p. 3339-3349.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
La pluralité interprétative
Fondements historiques et cognitifs de la notion de point de vue
Alain Berthoz, Carlo Ossola et Brian Stock (dir.)
2010
Korčula sous la domination de Venise au XVe siècle
Pouvoir, économie et vie quotidienne dans une île dalmate au Moyen Âge tardif
Oliver Jens Schmitt
2011
La mondialisation de la recherche
Compétition, coopérations, restructurations
Gérard Fussman (dir.)
2011
La prévention du risque en médecine
D'une approche populationnelle à une approche personnalisée
Pierre Corvol (dir.)
2012
Big data et traçabilité numérique
Les sciences sociales face à la quantification massive des individus
Pierre-Michel Menger et Simon Paye (dir.)
2017
Korčula sous la domination de Venise au xve siècle
Pouvoir, économie et vie quotidienne dans une île dalmate au Moyen Âge tardif
Oliver Jens Schmitt
2019