Interaction et signification
p. 119-145
Texte intégral
Les ismes n-aires
1La logique moderne est traversée par de nombreuses lignes de démarcation, dont aucune ne permet de mesurer l’étendue réelle du domaine. Par l’accumulation de ces oppositions duales, on atteint une sorte de saturation du débat qui fait passer au second plan l’objet pour ne retenir que les querelles de clocher et les positions dogmatiques. On connaît par exemple l’opposition entre classiques et intuitionnistes, qui n’est pas sans lien avec celle des formalistes et des constructivistes, ou encore la non moins célèbre distinction entre théorie des modèles, théorie de la démonstration, théorie des ensembles. Si elle est fondée techniquement, cette dernière distinction n’en recèle pas moins des oppositions idéologiques là où au fond il n’y a qu’une différence d’objet. On peut rajouter à cela les positions philosophico-méthodologiques des différents logiciens et philosophes : réalistes, anti-réalistes, vérificationnistes, subjectivistes, réductionnistes, fondationnalistes... Et cette complexité devient intenable lorsqu’on sait que ces différents niveaux de partition peuvent se combiner et créer ainsi d’innombrables nuances logico-philosophiques quasiment indiscernables. Dans cet article nous nous contenterons d’une analyse de l’objet logique, sans référence à la sociologie de la recherche ni même à l’idéologie scientifique qui prévaut dans telle ou telle tradition.
Référentiels et différentiels
2Pour éviter ces écueils de complexité tout en conservant un maximum de précision, nous avons pris le parti d’avancer à la manière de Gaston Bachelard. La méthode est simple et comporte deux étapes. Il faut tout d’abord repérer dans le corpus théorique et la pratique d’une science, différents degrés de prise en compte du phénomène, qui ont en général la particularité de s’engendrer les uns les autres. Pour la physique cela donne lieu à la distinction entre physique animiste, physique d’Aristote, théorie newtonienne, théorie de la relativité et enfin physique quantique. Lorsque ces degrés sont identifiés, on peut mettre en perspective la façon dont est définie une notion dans les différents modèles. Pour la notion de masse, on aura le niveau naïf (c’est lourd !), métrique (ça pèse tant !), rationaliste (le poids est proportionnel à la masse suivant l’intensité du champ de pesanteur)1. La première phase de cette méthode permet donc de définir des référentiels, c’est-à-dire un univers de référence pour un objet scientifique donné, chaque niveau de granularité ouvrant une fenêtre sur un monde propre2. Tandis que la seconde met en œuvre des différentiels, qui sont au fond le produit des décalages épistémologiques entre les notions intuitives, dont nous avons un usage courant et celles qui se construisent peu à peu dans le cours de la recherche scientifique.
1. Langage formel et géométrie
1.1 Trois visions de la démonstration
3En logique, il conviendrait de considérer, comme en physique, un panel suffisamment large de théories pour recouvrir l’évolution du domaine. Il y a de nombreux candidats et les frontières précises restent à définir, la logique s’étant fondée tour à tour sur le raisonnement, la vérité et la certitude, l’évidence, la justification, la structure, la processualité ... Nous nous contenterons de référer à trois façons d’envisager la démonstration :
4ℜ1 : comme méthode d’engendrement de formules vraies
5ℜ2 : comme objet possédant certaines propriétés
6ℜ3 : comme le lieu d’une interaction
7L’apparent glissement de langage est révélateur d’une véritable mutation de la logique et de son objet. ℜ1 c’est vraiment la métamathématique, la théorie de la démonstration (syntaxique) en tant qu’elle s’oppose à la théorie des modèles (sémantique). On reconnaîtra ici l’influence de Hilbert, et surtout une certaine façon de concevoir la notion de preuve, très courante en philosophie et en sciences cognitives, et due pour une part à l’influence de Frege et Russell. ℜ2 c’est la théorie des démonstrations en tant qu’elle étudie des structures (syntaxico-sémantiques). L’étude de la notion de preuve pour elle-même recouvre plusieurs époques. Globalement, elle répond au besoin d’une analyse critique des systèmes formels et de la mise au placard d’oppositions idéologiques héritées du début du siècle. On y trouve au départ des auteurs comme Gentzen, Gödel, Kreisel. Ils seront suivis par Martin-Löf, Prawitz, et Girard qui consacrent définitivement le structuralisme laïque en théorie de la démonstration. Enfin ℜ3, c’est la dynamique des démonstrations en tant qu’elle étudie l’interaction comme système (entre deux unités) et comme unité (en interne). Les premières intuitions nous parviennent avec la logique linéaire et la géométrie de l’interaction. La sémantique des jeux et l’informatique théorique ne sont sans doute pas complètement étrangères à l’émergence de ce nouvel objet. Toutefois, c’est bel et bien Locus solum qui constitue l’acte de naissance épistémologique de ce domaine neuf dont on ne sait encore sur quoi il débouchera, même si on perçoit déjà de nombreux liens possibles : communication entre programmes, physique quantique3, sémiotique, métaphysique du sens...
1.2 Langage logique
8Ces trois visions de la démonstration correspondent selon nous à trois référentiels ou univers d’objets. Le premier est clairement inspiré par une vision langagière de la logique. On peut aller jusqu’à dire que c’est la notion de langage formel, et son référent intuitif ultime c’est-à-dire la langue, qui déterminent le socle sur lequel s’est établie la logique contemporaine. Aujourd’hui encore, on a conservé l’habitude qui consiste à définir, en tout premier lieu dans l’étude logique, la langue. Mais, si tant est que la notion de langue formelle puisse fonder la logique, il n’en reste pas moins que l’analogie langage-logique semble poser problème. D’abord, et c’est bien normal, on part du principe que les mathématiques sont « aussi » une langue (ce qui est une façon comme une autre d’éviter la question de la nature des mathématiques…). Ensuite, et c’est déjà moins évident, on fonde l’activité de démonstration par similitude avec l’apparence discursive. Pour atteindre ce but, on utilise une réduction fortement critiquable du langage lui-même et on peut se demander si le fait de construire une réduction des mathématiques à partir d’une réduction du langage peut encore être considéré comme autre chose qu’un réductionnisme sauvage, dommageable autant aux mathématiques qu’au langage voire à la logique.
9Voyons à quel type d’activité langagière se réfère le logicien de ℜ1. Une langue c’est la donnée d’un ensemble de mots, et de règles de grammaire permettant de conjuguer ces mots pour obtenir des phrases. Une inférence c’est le fait de passer d’une phrase à une autre grâce à une liaison logique supplémentaire dont l’exactitude factuelle est vérifiable. Une démonstration part d’un certain nombre de phrases du langage considérées comme vraies et atteint, au terme d’une série d’inférences, une phrase qui peut être considérée elle-aussi comme vraie. La langue (les mathématiques) c’est donc l’ensemble de phrases que l’on peut former au moyen du dictionnaire et de la grammaire qu’on s’est donnés. Toutefois, quelques remarques semblent minimiser la puissance expressive de ce modèle. D’abord, il y a le fait que l’on envisage la discursivité comme une simple production de formules, engendrement de propositions à partir d’autres propositions ... toutes choses égales par ailleurs. La discursivité serait autorisée à fonctionner les yeux bandés alors même que la proposition est intimement reliée au monde. Par ailleurs, bien que la notion de proposition soit une notion sémantique, la signification vient en seconde position dans l’élaboration de la langue. Le logicien invente pour l’occasion une notion de signification formelle, qui revient à réduire une fois de plus à l’extrême : les formules sont vraies ou fausses, selon qu’elles dénotent une liaison, un état de fait, une relation vraie ou fausse. Il manque une fin à cette phrase : vraie ou fausse où ? si les formules sont vraies ou fausses, où décide-t-on qu’elles le sont ? C’est en essayant de répondre à cette question de la référence que la logique philosophique a creusé son propre sillon. C’est en l’ignorant cordialement que la logique mathématique a constitué son objet.
10Pour Hilbert, grand représentant s’il en est de ce point de vue langagier, la question de la vérité n’est pas très intéressante, même si elle participe de la fondation du système. Le fonctionnement de la relation axiomatique et la productivité des systèmes lui semblant largement plus intéressants. Le point central du référentiel ℜ1 n’est clairement pas la vérité mais la notion de contenu. Les nuances sont certes nombreuses entre eux, mais un grand nombre de chercheurs considèrent alors les symboles propositionnels comme des contenants auxquels il s’agit d’assigner un contenu doué de sens4. Ce peut être une formule mathématique (Hilbert) jouant le rôle de signe totalement autoréférent, ou bien une expression propositionnelle de même dimension que la pensée (Frege), ou encore un contenu référant directement à une situation et des particuliers (Russell) ... la seule certitude, c’est que la théorie logique doit contenir une explication de la référence des atomes, une interprétation, un modèle. Et la vérité en constitue bien évidemment une théorie naïve.
1.3 Continuités et ruptures
11Le développement progressif de l’objet-preuve est dû à l’action conjointe (et inespérée) des travaux de Gentzen et de la théorie intuitionniste, notamment la sémantique des preuves5. Si on peut considérer Gentzen comme l’initiateur d’une sorte de tournant à l’issue duquel se développera le point de vue géométrique, il faut remarquer toutefois que la vision langagière n’est ni expurgée, ni visée dans la position méthodologique qu’il occupe6. On verra donc l’objet preuve ℜ2 comme une double charnière entre le paradigme langagier et le point de vue géométrique, dans la mesure où il se situe dans un continuum avec l’objet interaction ℜ3, ainsi qu’avec l’objet proposition ℜ1, tout en étant le lieu même de leur rupture définitive.
12La différence se voit très bien lorsqu’on observe une démonstration dans le style Hilbert/Post (Fig. 1, partie gauche) et une preuve dans le style Gentzen (Fig. 1, partie droite). Pour le premier, on commence par écrire les hypothèses (lignes 1, 2 et 3), puis on progresse par transformations successives jusqu’à atteindre la formule « cible » (ligne 6) celle qu’il nous faut obtenir pour considérer que la démonstration est terminée. Ce n’est pas que la preuve n’ait pas d’intérêt, mais elle est complètement au service de la production de cette formule finale. On produit des formules à partir d’autres formules, en essayant de se diriger plus ou moins uniformément dans la bonne direction, au risque de prendre des détours, de se perdre voir même de tourner en rond. La démonstration est ici un texte.
13Avec le système de Gentzen, c’est l’inverse. On part de la formule entière qu’il s’agit de prouver, et on la décompose de façon à trouver les hypothèses dont elle a besoin pour être validée. L’intérêt c’est qu’on a très naturellement la propriété de sous-formule, c’est-à-dire que tout ce qui a été utilisé dans la preuve était déjà dans la formule à prouver ! De plus on peut observer qu’à la succession temporelle linéaire des étapes de transformation dans le premier exemple, la preuve de droite oppose un déploiement spatial et en parallèle de la preuve, c’est un arbre. Enfin, l’ordre des opérations à effectuer est presque entièrement déterministe tandis que le style hilbertien nécessite d’analyser les formules et de trouver une combinatoire possible avant d’agir. On est déjà passé du texte démonstratif à une structure, un plan de la démonstration.
14Désormais, on peut considérer cette preuve comme un objet à part entière, une structure dénotée par la formule, une façon de la réaliser, un observable. Cela nous permet d’aborder de nouvelles caractéristiques des preuves : leur taille, leur comportement dynamique, leur complexité, la structure dénotée par diverses preuves d’une même formule ... toutes choses laissées à l’écart de l’analyse de type ℜ1. On passe presque insensiblement de la question A est-il prouvable ? à la question qu’est-ce qu’une preuve de A ? Cela peut paraître minime comme changement, et pourtant ! En faisant cela on se donne les moyens de démontrer par exemple le théorème d’élimination des coupures qui énonce que toute preuve a une forme normale et que cette forme normale est unique7. Ce théorème est d’une importance énorme en logique puisque c’est par ce biais qu’apparaît le lien entre théorie de la démonstration et théorie du calcul, entre preuves et programmes (isomorphisme de Curry-Howard).
15La rupture, on la perçoit dans ce passage d’une structure langagière, ordonnée comme un discours qui avance, à une structure plus proche de l’arbre, en déploiement à partir d’une racine unique. La continuité réside dans le fait que le lien au langagier est toutefois possible, même s’il n’est plus nécessaire pour fonder, notamment du fait que l’on a redéfini l’observable. La plupart des logiciens vont d’ailleurs entretenir cahin-caha cette généalogie comme s’il en allait de la légitimité de la théorie de la démonstration elle-même.
16Il y a par contre un continuum entre le point de vue de la preuve et celui de l’interaction, qui est très certainement lié au développement de l’esprit géométrique lui-même. Avant de commencer l’étude de ce continuum, il convient donc de définir ce que pouvons entendre par géométrie. Par opposition au modèle du langage formel qui consistait en une réduction bien (trop) définie, nous avons à notre disposition un faisceau d’indices non formels pour évoquer cet « esprit géométrique ». Une géométrie étudie des transformations sur des figures de base et leurs relations structurelles. L’esprit géométrique relève aussi d’une méthode de démonstration qui révèle par la construction de figures des propriétés inhérentes à un objet. C’est aussi une forme de connaissance dans laquelle le local n’est qu’un élément systémique du tout : les choses sont « saisies », se voient, relèvent d’un « savoir comment ». Il y a enfin le critère de Girard-Longo selon lesquels le géométrique, c’est ce qui est sensible au codage. Et le codage est une traduction qui ne prend pas soin de l’objet, fait des choix arbitraires qui peuvent influer sur son organisation, donc le dénaturer. La géométrie c’est donc le primat du « comment ça fonctionne » sur le « voilà ce que ce doit être ».
2. Trois référentiels logiques
17La notion de norme nous permet de caractériser la plus petite différence possible de nature à permettre le passage d’un référentiel à l’autre. Une raison capitale qui nous pousse à proposer cette notion vient du fait qu’elle permet d’éviter le recours systématique à la définition de la langue logique lorsqu’il s’agit de comparer des référentiels. Notre étude portant précisément sur le dépassement du paradigme langagier, il serait problématique de continuer à raisonner dans ses termes. Si l’on prend un peu de hauteur par rapport aux notions historiques de syntaxe et de sémantique8, il ne fait aucun doute que :
un référentiel étudie les comportements d’un observable (un objet), au cours de transformations (les manipulations possibles), laissant invariantes certaines de ses caractéristiques (son identité).
18La norme d’un référentiel consiste donc en la donnée de ce triplet conceptuel (objet, manipulations, identité), ce qui correspond peu ou prou en logique à la donnée d’un objet syntaxique, d’une dynamique et d’une sémantique
19Une remarque préliminaire. Le mot démonstration intervient à deux reprises dans ce tableau. Mais il intervient de deux manières différentes, comme nous l’avons déjà pointé dans la définition des trois référentiels. Pour R1, la démonstration, c’est l’ensemble des lois de transformations du système (une méthode de démonstration). Tandis que pour ℜ2, c’est l’objet syntaxique sur lequel vont s’opérer les transformations.
2.1 Le référentiel ℜ1
20On observe les formules qui sont transformées au cours du processus de démonstration. Ces transformations laissent invariante l’interprétation des formules, c’est-à-dire que leur valeur de vérité est conservée à travers les étapes de la démonstration. Prenons un exemple. On peut dire que A → B étant vrai, A étant vrai, alors B est nécessairement vrai. Ici, on a bel et bien opéré une transformation sur la formule A → B, qui est « devenue » la formule B. Au cours de cette transformation, il apparaît clairement que l’une transmet sa valeur de vérité à l’autre, et donc A ≡val B ≡val A → B9.
21Lorsqu’on souhaite faire une preuve par l’absurde, comme dans l’exemple de la figure 1, on met en œuvre une mécanique complexe. L’absurdité est introduite à la ligne 5 (puisque B et ¬B sont contradictoires), en vue de pouvoir nier grâce à elle une hypothèse fausse (ligne 3) volontairement placée, et obtenir ainsi la formule que nous cherchions i.e. ¬A. En premier lieu, il faut prendre note du fait que cette procédure de falsification est traitée en externe, par l’intelligence de l’opérateur, dans un univers autre que celui des symboles logiques10. En second lieu, on peut remarquer que cela consiste au fond à déduire des formules vraies, buter sur une impossibilité et remonter à contrecourant pour falsifier l’hypothèse impropre. Il y a donc deux mouvements : l’un vers le bas qui transmet la vérité, l’autre vers le haut qui transmet la fausseté. Enfin, il reste que le statut des preuves dites par l’absurde n’est pas réglé. On peut légitimement se demander pourquoi la procédure qui permet de réaliser ce type de preuve est aussi dérogatoire à l’égard de ce que l’on attend de toute règle : être explicite, définie, non ambiguë. Ramenée à l’échelle du système démonstratif, la procédure perd ici la forme de la règle pour devenir stratégie.
2.2 Le référentiel ℜ2
22Cette fois, on observe les démonstrations, qui se transforment au cours de la procédure de normalisation et restent invariantes par rapport à leur forme normale. On a totalement changé d’univers de description, les transformations portent sur la démonstration elle-même, alors qu’auparavant une transformation c’était le passage d’une formule à une autre, donc le passage d’une étape de déduction à la suivante. Mais de quelles transformations les preuves peuvent-elles être l’objet ? Prenons les choses dans l’ordre. La règle de coupure est une règle considérée comme essentielle en logique au moins depuis Aristote. Plus connue sous le nom de modus ponens, Hilbert en fait l’unique règle d’inférence de son système. Il n’est donc pas étonnant qu’elle soit utilisée dans toutes (ou presque toutes) les démonstrations, même les plus basiques. Intuitivement, on peut dire qu’il y a coupure dès lors que l’on utilise un lemme dans une démonstration, ou lorsqu’on applique un théorème déjà prouvé par ailleurs. Par exemple, quand un élève utilise la propriété de commutativité de l’addition, il fait une coupure « cognitive » entre cette propriété exprimée de façon générale ∀xy, x + y = y + x et le cas auquel il l’applique par exemple x = 3 et y = 5, pour en déduire que 3 + 5 = 5 + 3. Éliminer les coupures dans une preuve, c’est donc enlever les appels à des principes extérieurs pour ne conserver que ce qui est auto-contenant (dans notre exemple, on ne conserverait que le résultat 8 = 8).
23C’est avec Gentzen et le théorème d’élimination des coupures qu’un tournant s’amorce autour de cette question. Jusque-là, l’important c’était de dé- montrer quelque chose. Désormais, cela va être aussi de résorber la démonstration, de l’expliciter, de la réduire à ce qu’elle a de plus minimal : la structure de son résultat, pourrait-on dire. Évidemment cela peut paraître contre-intuitif. En effet, on a du mal à comprendre pourquoi l’explicitation devrait concourir à faire disparaître les principes ayant servi à prouver le résultat. Mais c’est simplement parce que l’on confond deux questions. L’explicitation d’une preuve correspond à la question où veux-tu en venir ?, alors que sa justification répond à la question quelles raisons te permettent d’affirmer cela ?. Ce n’est pas du tout la même chose, même si les réponses sont en quelque sorte homogènes : les réponses sont des preuves ... mais l’une est une preuve comme résultat (d’un processus de calcul), l’autre une preuve comme structure induite par l’affirmation d’un énoncé. Techniquement, le théorème de Gentzen se ramène à dire qu’à toute preuve comportant des coupures correspond une et une seule preuve sans coupure. De plus, tout « chemin » d’élimination des coupures termine (cf. figure ci-dessous). Par exemple, π0 est une preuve qui peut se réduire en π1 ou en π2. Quel que soit le chemin que l’on choisit d’emprunter, la procédure d’élimination des coupures termine sur une seule preuve possible pour toutes les preuves πn, c’est-à-dire la preuve sans coupure ρ. On dira donc que π0 ≡red π1 ≡red π2 ≡red ρ (elles sont équivalentes modulo réduction).
24Il faut voir dans cette contribution l’un des résultats les plus fondamentaux de la logique moderne. Il permet de donner corps à l’idée de constructivité indépendamment du débat entre formalisme et intuitionnisme (est constructive toute logique dont l’élimination des coupures termine univoquement). De plus, il donne un cadre normatif à la notion de « logique » : une logique c’est un système de démonstration qui possède la propriété de sous-formule et dont les règles de transformation sont validées par l’élimination des coupures. A quel type de sémantique cela donne-t-il lieu ? Dans R1, on assimilait des formules entre elles en référant à leur valeur « externe » c’est-à-dire leur valeur calculée dans une interprétation. Ici, on va enrichir considérablement l’univers d’interprétation tout en internalisant complètement les conditions de référence. En effet, l’interprétation ne se fait plus par rapport à un ensemble de valeurs, nécessairement limitées, ou servant à encoder les structures « logiques » dans une sorte d’algèbre. D’ailleurs, on n’interprète plus, puisqu’on se contente de rapporter chaque preuve à sa forme normale, grâce à une notion d’équivalence processuelle. Du coup, cela permet d’identifier un ensemble très étendu de démonstrations qui ont la même forme normale, forme qui représente le « condensat », l’essence dynamique de ces démonstrations. Le domaine d’interprétation est de fait considérablement enrichi car il est de même dimension que l’univers logique (du moins, il lui est coextensif alors qu’auparavant la sémantique n’était qu’un quotient de ce même univers). La relation sémantique se déroule entre un sous-ensemble de l’univers des démonstrations (les preuves sans coupures) et le reste de cet univers : autant dire qu’elle est homogène. La relation de référence est du coup complètement internalisée.
2.3 Le référentiel ℜ3
25Pour ce référentiel, la comparaison est moins évidente car l’un des effets de la géométrisation, c’est notamment de réduire l’intervalle entre sémantique et syntaxe au point de le rendre quasiment inexistant. Il est donc difficile de faire la distinction dans ℜ3 entre l’objet et son invariance ... L’observable, ce sont les systèmes preuve-épreuve, c’est-à-dire des preuves en situation d’être éprouvées. Les transformations sont la simple succession des épreuves dans un système.
26Pour expliquer avec plus d’exactitude cette notion, nous allons nous référer à l’isomorphisme de Curry-Howard qui établit les correspondances suivantes :
27Petite expérience de pensée. Si une preuve formelle est un programme, c’est donc un programme à l’arrêt, en attente d’exécution. Elle doit comporter des coupures pour donner lieu à exécution, puisque l’exécution élimine les coupures et donne en résultat une preuve sans coupure. Une coupure correspond intuitivement à l’application d’un programme à un autre. Par exemple le programme de l’addition interagit avec un programme qui sélectionne une série d’entiers à additionner. Leur interaction continue produit toute une série de programmes (les résultats des additions) qui peuvent à leur tour interagir (être utilisés). En faisant preuve d’abstraction, on peut maintenant imaginer un monde composé d’objets en attente d’interaction. Lorsqu’une rencontre se produit entre deux objets, il y a production d’une troisième forme, synthétisant en quelque sorte cette rencontre.
28L’idée de système preuve/épreuve correspond exactement à cette idée de « programme en attente » entrant en interaction. Cependant, à la différence de ℜ2, les transformations ne portent pas sur la preuve elle-même. La preuve reste fixe, on fait par contre varier les épreuves. Les transformations11 ce sont donc les rencontres produites avec d’autres individus peuplant le monde. En somme, le système preuve/épreuve est dissymétrique, le côté preuve reste fixe tandis que le côté épreuve varie par la sélection de toutes les épreuves possibles. On dira que deux systèmes sont équivalents lorsque pour toutes les épreuves possibles dans le monde, deux systèmes ont exactement le même ensemble d’interactions. L’invariant, c’est donc l’ensemble des interactions avec la totalité. La continuité est forte avec ℜ2, puisqu’on ne fait que changer la façon d’observer les coupures. Au lieu de considérer des preuves comportant n coupures et leur transformation au cours de la normalisation, on inverse le point de vue. On observe une coupure qui met en scène une preuve en forme normale, et on fait varier ses adversaires : cela donne un modèle interactif. Grâce au fait que l’on conserve les mêmes objets vus sous un autre angle, on ne craint pas de perdre certaines propriétés importantes et les objets de ℜ2 passent facilement à ℜ3, où l’on observe en quelque sorte leur sociabilité plutôt que leur structure propre.
29Il y a malgré tout deux grands changements produits par ℜ3. D’abord, la distinction entre normalisation et recherche de preuve a de fait disparu. La normalisation, c’était l’élimination des coupures, qui part d’une preuve pour en chercher la forme canonique, la plus réduite possible. La recherche de preuve c’était le fait de partir d’une formule pour remonter l’arbre, en produire une démonstration. Mais dans un système qui réduit toute normalisation à une seule étape de réduction et toute recherche de preuve à une confrontation entre une preuve canonique et des épreuves ... même si le lien technique existe, on a dans les faits un système qui ne fait qu’étudier des recherches, en sélectionnant les interactions possibles. C’est d’ailleurs là que se loge le second changement, qui concerne la structure des objets. Lorsqu’une preuve joue contre des épreuves, ces épreuves ne sont pas nécessairement elles-mêmes des preuves. Il se peut par exemple qu’il n’y ait tout simplement rien, une formule atomique, une preuve ratée. Il y aussi le fait que la ludique par exemple, introduit des para-règles qui ne sont pas des règles logiques mais des règles d’interaction comme l’abandon. Le monde logique est considérablement enrichi par la prise en compte de structures qui ne faisaient pas traditionnellement partie de l’univers logique, mais qui y sont découvertes au cours d’une analyse interactive des structures de démonstration. Pour avoir une idée de cette extension, on peut prendre un second exemple autour de la correspondance preuves-programmes. En λ-calcul, il existe un ensemble de programmes appelés « termes non typables », qui ne sont pas formalisables tels quels dans une logique séquentielle. L’exemple célèbre du terme de Maurey est éloquent. Ce terme peut calculer lequel de deux entiers est supérieur à l’autre ; c’est un programme, mais on ne peut le typer, donc on ne sait pas quelle formule il « prouve ». Il existe donc des programmes qui « résistent » à être traduits en preuves formelles, c’est-à-dire en preuve d’une formule. ℜ3 joue typiquement sur le fait de récupérer cet univers logique inutilisé par les formalismes non interactifs.
3. Structures de la signification
30Nous montrons ici qu’il existe un lien conceptuel entre la notion de vérité telle qu’elle était définie dans le référentiel ℜ1, celle de symétries dans le référentiel ℜ2 et pour finir celle de polarité dans ℜ3. S’il n’existe pas d’étude technique tendant à le démontrer, c’est probablement parce que la question n’intéresse que les philosophes. Néanmoins, je n’utilise ici que des correspondances admises et évidentes pour qui connaît tous ces référentiels, même si elles ne sont jamais explicitées sous cet angle et avec une telle continuité12.
3.1 Symétries naïves
31Analysons une phrase logique comme le propose ℜ1. Il s’agit de montrer qu’on ne peut falsifier cette formule, autrement dit qu’on ne peut donner une valuation de ses éléments pour la rendre fausse (ce qui suffit à montrer qu’elle est donc prouvable). Pour produire cette analyse, nous utilisons une propriété évidente de l’implication (hypothèse → conséquence)13 :
32fausse lorsque l’hypothèse est vraie et la conséquence est fausse,
33vraie lorsque l’hypothèse est fausse ou la conséquence est vraie.
34Dans un premier temps, on cherche une valuation atomique à partir de la valuation globale. On suppose donc que cette valeur globale est f (accolade la plus basse, Fig. 2), puis on décompose jusqu’à obtenir une valuation des atomes i.e. ¬A = f et ¬B = v (accolades les plus hautes). En général, les logiciens ℜ1 s’arrêtent là et se bornent à constater que la falsification est impossible car, si on transmet les valeurs ainsi trouvées à la sous-formule A → B, celle-ci deviendrait fausse alors qu’on l’a supposée vraie ! Nous avons échoué à falsifier cette formule : elle est donc prouvable. Pour fixer sur le papier cet échec de falsification, la vérification prend le relais et oppose les conditions de validité pour cette sous-formule A → B supposée vraie aux conditions de validité pour les sous-formules ¬A et ¬B. La symétrie est évidente car les deux conditions sont totalement orthogonales ! En effet, la première analyse nous donne une conjonction de conditions : A → B est vraie et ¬B est vraie et ¬A est fausse. La seconde, y rajoute une disjonction de conditions : A est fausse ou B est vraie. Cette méthode est empirique et subjective au sens où elle est une procédure cognitive, une méthodologie pratique. En tant qu’activité non formelle, elle ne peut donc avoir de transcription « mathématique » au sens strict. D’ailleurs, il n’y a à ma connaissance aucune présentation capable de réunir les analyses de falsification et de vérification, ce qui paraît normal puisque une formule vraie donne toujours lieu à une contradiction entre sa falsification et sa vérification. Toutefois il existe bien une alternative formelle à l’analyse sémantique directe, ce sont les tables de vérité. Mais leur nature algébrique donne lieu à une simple énumération de toutes les valuations possibles : elle n’énonce rien sur la structure des démonstrations et tombe sous la même critique d’externalité.
3.2 Géométrie des preuves
35L’analyse sémantique ne produisant qu’un jeu de symétries, on se doute bien qu’il doit être possible de les traiter formellement sans pour autant tout algébriser. Si l’on étudie la dualité vrai/faux, on observe rapidement qu’elle n’est au fond rien d’autre qu’une traduction de la dualité entre hypothèse et conséquence, ou encore de l’opposition entre inférence et déduction. Un apport fondamental des systèmes ℜ2, c’est de permettre d’éviter l’engagement ontologique produit par les dualités « épistémiques » en les neutralisant. Il suffit d’interpréter la valeur v par un mouvement à gauche du signe ⊢ et la valeur f par un mouvement à droite du signe ⊢ pour retrouver nos symétries naïves14. L’objet ainsi construit est une démonstration qui a la particularité de se déployer spatialement, d’étendre des ramifications en respectant des symétries spatiales qui n’étaient pas du tout visibles dans un système à la Hilbert. Pour ceux qui n’en seraient pas convaincu, la figure 3 compare la preuve en calcul des séquents à ses instructions de changement de côté. Le lecteur pourra vérifier par lui-même que ces instructions correspondent exactement à l’enchaînement des valeurs en analyse sémantique (Fig. 2) : la « falsification » pour la partie au dessous de la ligne, la « vérification » pour la partie au dessus. Les symétries abstraites, conformes à l’usage épistémique et langagier des formules, sont récupérées au profit de symétries spatiales dans tout système basé sur la propriété de sous-formule et l’élimination des coupures. Nous avons déjà insisté auparavant sur le fait que cette sémantique de vérité était externalisée par rapport à la syntaxe logique, vivant sur une sorte de chiasme syntaxico-sémantique. Là nous avons la preuve qu’elle n’est qu’un miroir du fonctionnement de la syntaxe elle-même. La dialectique du vrai est donc une manière naïve de voir les symétries inhérentes à la structure même des démonstrations, symétries naturelles et géométriques serait-on tenté de dire par opposition aux symétries abstraites et langagières. Ce qui est étonnant dans la naissance de l’objet-preuve, c’est précisément cette réconciliation de l’objet logique avec sa signification dans la mesure où l’interprétation ne fait qu’un avec la démonstration. Vous observerez d’ailleurs que là où le logicien ℜ1 abandonnait sa procédure de falsification en faisant état d’une dissonance sémantique entre deux valuations, le logicien ℜ2 identifie une dualité dans le dessin : ℜ2 intègre donc la procédure « cognitive » de vérification comme un élément matériel du « dessin logique » en la connectant à la procédure de falsification.
36Dans un tel système de démonstration, les règles de base sont définies sur le seul côté droit, les règles de gauche étant déduites par symétrie. C’est ce qu’on appelle le principe d’inversion : une disjonction droite est exactement une conjonction gauche. Par souci de simplicité et pour éviter de perdre la tête dans des jeux de miroirs sans fin, on peut donc choisir de travailler sur des objets dont on a éliminé la symétrie pour ne travailler que sur une face. Cela dit, on est alors contraint d’abandonner l’usage de la règle d’implication qui est justement la seule règle (avec la négation) qui fasse communiquer les deux faces de la séquence. Toutefois, son effet n’est pas perdu grâce à des équivalences tout à fait standard (A → B = ¬A ∨ B = ¬A ∧ ¬B), qui permettent de traduire la preuve de la figure 3 en preuve dite « monolatère » (ci-contre). On observe alors qu’il existe une sorte de câblage entre les formules atomiques, que l’on peut suivre du doigt sur le dessin, en partant par exemple du A d’en bas, en remontant jusqu’au A d’en haut, puis en passant de A à ¬A pour descendre jusqu’au ¬A de la dernière ligne. Dans les preuves, il y a une circulation !
3.3 Dans la boîte noire
37C’est exactement l’observation qui amène Jean-Yves Girard à inventer les « réseaux de démonstration ». Ce nouveau formalisme fait suite au calcul des séquents et à la déduction naturelle, afin de donner corps à de nouvelles intuitions sur le fonctionnement des démonstrations15. Une fois qu’on a pris en compte la circulation dans les preuves, l’idée, c’est d’observer que l’on peut littéralement effacer les formules atomiques, ne conserver que les flux et le type de croisements dont ils sont l’objet, les noms de formules n’étant dans ce cadre qu’un nom pour les câblages (la dernière ligne des preuves en séquents correspond à un lien entre atomes duaux). La sémantique de vérité n’est donc ici qu’une façon de parler de la transmission des informations dans un réseau, une façon parmi tellement d’autres possibles (on peut utiliser un jeton, le doigt, du courant électrique, des paquets numériques...).
38Par opposition à ces multiples manières de modéliser la transmission d’information, le point de vue des réseaux permet de prendre de la hauteur et de généraliser la question du « sens » puisqu’il fait état de la façon dont les flux s’établissent et non pas d’un jugement sur les informations qui y passent ! Un réseau c’est donc un plan de la façon dont circule l’information dans une preuve (voir la figure 3.3). Grâce à ce point de vue dynamique, on atteint l’intérieur de la boite noire. Il y a un changement profond entre le fait de considérer l’objet formule comme une boîte qui admet des « intrants » et rend des « extrants » de même nature, et le fait d’entrer dans la procédure qui produit les extrants à partir des intrants, indifféremment du type des données que l’on peut faire passer. On quitte un modèle productif (input/output) de la démonstration pour un paradigme mécanique (fonctionnement interne).
39Si un réseau représente la façon dont circule l’information dans une démonstration, on peut observer qu’il y a une dissymétrie notable dans la manière dont cette circulation s’effectue. La logique linéaire a mis en évidence le fait que ce sont les opérations qui ont une polarité, laissant les atomes indéterminés de ce point de vue. Cette polarisation des opérations logiques n’est pas abstraite mais conforme à la façon dont elles interagissent, à ce qu’elles réalisent dans les structures de flux d’information, à leur procéduralité.
40À l’aide de ces notions, on peut voir, en remplaçant les nœuds du réseau par les polarités correspondantes, qu’il y a une dissymétrie entre positifs et négatifs dans le cours d’une démonstration (figure ci-dessous). Ces opérations se suivent dans un ordre invariable (négatifs d’abord, positifs ensuite) et ont une signification opératoire totalement duale : les négatifs proposent (ils sont réversibles), les positifs disposent (ils font des choix). À partir de là, il paraît intuitivement évident que toute preuve peut être présentée comme un dialogue entre deux partenaires, l’un qui pose les questions, l’autre qui y répond.
41On remarquera que la partie positive correspond exactement à l’analyse produite par la vérification, et la partie négative à l’analyse produite par la falsification. D’ailleurs, ce n’est pas étonnant si la falsification était réalisée avant la vérification, puisque le fonctionnement dynamique des opérateurs indique que les négatifs sont exécutés en premier, que les positifs leur répondent ensuite ! La différence avec l’analyse sémantique c’est que les deux procédures sont devenues complètement formelles et qu’elles sont intégrées l’une à l’autre. De plus, elles sont comprises comme une interaction. Enfin, pour ceux qui croiraient encore que la sémantique de vérité faisait exactement le même travail, il suffira de remarquer que dans ℜ3 les atomes n’ont pas de polarité ! Ce sont les opérations qui en ont. Il ne viendrait à l’idée de personne de dire que la conjonction est un opérateur « vrai » tandis que la conjonction est « fausse ». Pourtant vrai correspond à positif et faux à négatif, et la conjonction est bien un opérateur positif, la disjonction un opérateur négatif. Nous sommes devant un cas de théorie iconique au sens employé par C.S. Peirce : le référentiel ℜ3 récupère les symétries de ℜ1, mais il en dit beaucoup plus ; il va même jusqu’à éclairer le fonctionnement de ℜ1 ... l’inverse étant bien évidemment faux. Pour résumer, toute cette évolution a un fil conducteur qui est celui d’avancer vers plus de géométrie. Il y a d’abord le fait de spatialiser la preuve. Il y a ensuite le fait de rendre négligeable les formules atomiques pour ne considérer que les flux d’information dans un réseau. Il y a enfin le fait de mettre en évidence la mécanique interne des réseaux à travers la dynamique des symétries et des ruptures de symétries.
4. Vers une dialectique du signe
42On a pu voir à l’œuvre dans ces référentiels différentes façons de concevoir la notion de signification. Il faut toutefois noter que la progression dans la finesse de l’analyse est continue, tandis que les paradigmes sont radicalement différents. Pour vérifier ce fait, on observera qu’aucune « déperdition » d’informations au passage d’un référentiel à un autre n’est constatée dans le sens ℜ1 - ℜ2 - ℜ3. Par contre, vus comme des paradigmes de signification, la rupture est forte entre chaque référentiel puisque chacun semble remettre en question le paradigme précédent. La question est évidemment de replacer cette évolution de la conception logique de la signification dans le contexte plus étendu d’une sémiotique générale. Pour cela, il faut caractériser les trois postures en termes de signe et de signification, et identifier le type de phénomènes sémiotiques dont elles peuvent rendre compte. Une sémiotique formelle ne prétend pas être une théorie linguistique, psychologique ou anthropologique de la signification. Mais elle participe à une conception générale du signe et de la production de signes, elle y contribue par la production de paradigmes et d’outils formels utilisables. De fait, les trois postures sémiotiques que nous allons introduire, si elles semblent s’opposer philosophiquement, ont tout intérêt à être conservées en tant que paradigmes permettant d’accéder à des niveaux de signification plutôt qu’à la signification. La possibilité d’observer et de représenter des phénomènes sémiotiques de granularité différente peut se révéler très utile dans des domaines extra-logiques comme l’informatique appliquée, l’analyse du langage, les systèmes dynamiques, la représentation des connaissances.
4.1 Contenus formels et corps de signification
43La philosophie du langage, longtemps liée à la philosophie de la logique, a permis de définir à peu près formellement et à peu près objectivement la notion de signe et de signification.
Le signe, c’est une unité discrète du système de signification.
44Un système de signification, c’est un ensemble de significations et leurs liaisons, partagé par un groupe d’individus communiquant entre eux par ce biais. On se doute donc que la notion de système de signification va jouer un rôle central.
45La conception traditionnelle, ou du moins la plus répandue, de la notion de signification tend à considérer comme unité sémantique des corps de signification. Selon Wittgenstein, le traitement « courant » de la notion de signification dans notre usage de la langue est profondément imprégné par l’idée de quelque chose de circonscrit, de découpable, d’identifiable voire même de matériel. Cet usage de la signification est donc une fiction, le simulacre d’une relation « réelle » entre deux objets : « un » signe et « une » signification. Il n’en reste pas moins que c’est un usage de la signification, de surcroît « naturel » dont on ne peut faire l’économie dans une conception générale du signe.
La nature du signe, c’est de référer à quelque chose d’autre : le signe est un aliquid stat pro aliquo. Le sens du signe, c’est sa référence.
46Le sens d’un signe, c’est donc ce à la place de quoi il est mis. Or, si le « corporéiste » voit des « corps de signification » partout, il n’est pas pour autant un réaliste forcené. Pour un matérialiste ce sera une chose, un fait, un acte. Pour l’essentialiste ce sera plutôt une essence ; pour le subjectiviste une pensée et pour le psychologiste un état mental. L’un dans l’autre, on voit bien qu’il n’y a pas de différence fondamentale entre ces positions sur la question du rôle du signe : le signe est un contenant auquel il faut assigner un contenu, qui seul peut prétendre au statut d’information. L’autre élément essentiel de cette posture, c’est l’atomicité du signe. Le sens se compose à partir d’unités de signification sur la base de liaisons qui ne sont d’ailleurs que des homologues logiques de leur correspondant rationnel, discursif (une règle logique « ∧ » est le correspondant formel de la conjonction « et »). À partir du sens du signe de base, on peut découvrir le sens du signe complexe. La signification peut donc être représentée par une algèbre formelle mettant en scène tous les atomes de sens et leurs relations objectives représentées par des liens logiques. Concrètement une algèbre de ce type se contente de lister toutes les configurations de sens rendues possibles par les liaisons logiques : c’est une énumération logique des « états » sémantiques.
47On a donc deux univers dès le départ, dissociés mais interdépendants. L’univers des représentations logiques. L’univers des contenus. Le mécanisme de signification est une boîte noire qui prend en entrée des contenus et rend des contenus à l’arrivée. Elle peut évidemment être testée « à vide » c’est-à-dire sans autre contenu qu’un contenant. Mais dans une application, on suppose que toute production sortant de la boite noire est « signifiante » quand les intrants étaient eux-mêmes « signifiants ». Ces deux mondes entretiennent de nombreuses relations. D’abord, comme on l’a fait remarquer plus haut, c’est le rationnel qui dicte la loi du logique. Ce point est évident par la construction même de l’édifice logique, puisque cette construction met en correspondance opérations logiques et procédés rationnels. Le rationnel est donc une norme du logique. Le second type de relation est mimétique. En effet, puisque le logique reproduit très bien le rationnel, on peut faire fonctionner le logique « les yeux fermés », c’est-à-dire sans référer directement aux contenus. La production de nouvelles formules, à l’intérieur même du logique, modulo le respect des règles de construction, doit donner lieu à de nouvelles « significations » : le sens d’un énoncé « logico-produit » est supposé existant, il est même nécessairement existant modulo le fait d’avoir utilisé des contenus qui ont un sens. Il suffit de découvrir la signification « terminale » par la mise en relation des deux mondes. Ce faisant, on peut donc produire un ensemble infini de propositions à partir de contenus signifiants, qui n’auront pas d’autre sens que le sens de leurs parties. Par exemple, je peux construire logiquement la phrase « la terre tourne et les oiseaux chantent ». Mais cette construction ne me dit rien de plus que ce que disaient déjà séparément les deux termes de la conjonction. On retrouve ce même relativisme sémiotique lorsqu’on choisit comme univers des contenus le monde mathématique. Peut-on croire vraiment que les mathématiques puissent se réduire à la production de formules cohérentes avec l’ensemble des formules déjà reconnues comme vraies ? Comme si l’on pouvait s’en remettre à une combinatoire abstraite pour produire de nouveaux théorèmes. Pour la sémiotique des contenus, la production de nouveaux théorèmes serait réductible à l’énumération de tous les énoncés mathématiques possibles, un peu comme ces religions dans lesquelles le prêtre doit énumérer tous les noms du divin jusqu’à la fin du monde (la fin du langage). Cette conception est très répandue et a donné lieu à des applications « technologiques » intéressantes. Mais elle est notablement limitée de l’avis de tous, même de ses défenseurs. Son défaut majeur est d’être une conception très « grammaticale » de la signification. C’est ce que Eco appelle une théorie du dictionnaire. Le sens des unités sémantiques est défini par un dictionnaire, une liste de toutes les significations. La grammaire permet de composer ces unités en unité plus complexes, et on suppose qu’il existe un sens compréhensible de l’unité complexe à partir du moment où les règles grammaticales sont bien respectées et non ambiguës. Le sens, comme l’activité mathématique, reviendrait donc au fait de parcourir des chemins entre des propositions sans sortir du domaine des propositions vraies. Les critiques d’une telle posture insistent sur le fait qu’on a de cette façon réduit le sens à une pure combinatoire, aléatoire et désordonnée, de phrases grammaticalement bien formées. En répondant à la question « qu’est-ce qu’un signe ? » par l’extra-territorialisation du contenu du signe et de la procédure qui permet d’y accéder, le signe subsiste quand même à l’état de vide formel et le sens n’a toujours pas de structure.
4.2 Structures et réseaux de concepts
48Peu de recherches philosophiques ont tenté de synchroniser la théorie de la démonstration et la philosophie du sens. Wittgenstein a présenté de nombreuses intuitions invitant à une réflexion sur ce point16. La notion de réseaux de concepts était censée prendre en charge la part constructive du sens. La constructivité d’un signe, c’est le fait qu’on puisse en justifier une construction pas à pas, en extraire une explicitation structurelle. Au delà de la justification structurelle du signe, il n’y a plus que de l’anthropologique dans la signification, c’est l’idée de « vécu de sens » (par exemple, la douleur fait place au cri qui fait place au |j’ai mal|). La logique continuerait donc son travail jusqu’à la frontière de ce qui n’est pas explicitable par une structure : le réflexe, le vif, l’immédiat ... C’est donc une sorte d’isomorphisme entre l’explicitation des signes et la structure des démonstrations à laquelle fait appel Wittgenstein. Michael Dummett et Dag Prawitz ont aussi soutenu une redéfinition de la signification comme étant la structure de justification des énoncés (qu’ils soient mathématiques ou linguistiques). Un signe, c’est un ensemble d’usages ; donner un sens du signe, ce serait donner un réseau qui structure, qui légitime son apparition dans un certain contexte. Nous préférons une interprétation plus large qui ne se limite pas à des énoncés. Une des raisons qui nous pousse à généraliser cette réflexion au signe en général vient du fait qu’il s’agit aussi de prendre du recul par rapport à une vision trop « langagière » du signe, interprétation qui pourrait se révéler très vite limitée par l’analogie qu’elle produit.
Le signe est un acte de signification. Il est produit par une série de gestes coordonnés dans le temps. Le sens premier de cet acte, c’est donc la structure de ces gestes.
49L’interprétation en termes d’actes de signification est tout à fait cohérente avec les principes de base de la théorie des jeux de langage, des actes de langage. Si l’on accepte la portée de cet isomorphisme entre structures de signe et structures de programme, on peut donc envisager le signe comme un programme, comportant des modules qui sont organisés dans un schéma d’exécution. De là, on peut tirer un second modèle de la signification, en sachant que la logique fournit un formalisme tout à fait adapté à sa représentation, cette fois par le biais de l’isomorphisme de Curry-Howard (preuves-programmes). Le signe, quel qu’il soit, ne peut être étudié de façon isolée car il s’insère dans un réseau complexe de relations avec les autres signes, le contexte dans lequel il est observé, le cadre avec lequel il se donne à penser, le lieu dans lequel il se déploie. Le signe est donc modulaire. Il peut faire partie intégrante de la structure d’un autre signe, non seulement en tant que signe mais surtout en tant que structure. Pour une formalisation du langage, cela signifierait que le sens premier d’un mot soit vu comme un ensemble ordonné d’instructions relatives à son insertion dans une phrase et un contexte. Par exemple, le signe |table| est disposé à être inséré dans des contextes différents| manger à table |, | mettre la table |, | à table ! |... On peut procéder de même pour une phrase, puisqu’elle peut elle aussi être analysée eu égard aux contextes dans lesquels elle peut être assertée. Au delà du sens premier, il y a un sens dynamique des structures de signification. En effet, si une phrase ne suffit pas en tant que telle pour déterminer son sens, s’il y a plusieurs façons de justifier son insertion dans un certain contexte, on peut donc avoir des équivalences non plus entre signes mais entre structures du signe. Pour reprendre l’analogie avec l’acte de signification, le sens d’un acte, ce n’est pas seulement son résultat mais aussi l’ordre dans lequel sont effectués les gestes, modulo le fait qu’un geste puisse être parfois inutile, redondant. On aura donc un mécanisme qui permet d’identifier différentes manières de réaliser une même action.
Différentes structures de gestes peuvent se ramener à une seule et même structure canonique lorsqu’elles réalisent toutes la même action. En contrepartie, une action peut avoir plusieurs structures d’exécution différentes.
50En somme, cela signifie que l’on peut normaliser les structures sémiotiques, c’est-à-dire identifier des communautés structurelles de signification. Alors qu’une même action sémiotique pourra être réalisée de diverses manières qui ne sont pas équivalentes. Par exemple dans le langage, le fait de prononcer une même phrase ne signifie pas que l’on dit la même chose. Ce qui permet d’évaluer si deux phrases signifient la même chose, c’est le fait de comparer la structure de justification des deux phrases. La relation syntaxe-sémantique est revisitée. Le signe porte sur quelque chose, mais il a sa vie propre et se justifie non pas par la relation qu’il entretient avec un objet extérieur (ce que nous avons appelé l’externalité) mais par rapport à sa propre « fonctionnalité » et les relations structurelles qu’il entretient dans le monde des signes.
51Dans le cas d’une phrase du type |Quand je t’appelle, ouvre la porte|, on pourrait se contenter de lister toutes les configurations possibles de la situation d’énonciation (sachant notamment qu’une configuration est exclue par le jeu du locuteur, c’est celle où le partenaire n’ouvre pas la porte quand il l’appelle). Une version technologique aurait ajouté à cela quelque chose de plus fin, on aurait une spécification plus précise de cette phrase, et on pourrait grâce à elle savoir si la phrase est douée de sens, c’est-à-dire si elle est bien construite, si elle est programmable a priori. Le modèle structurel, puisqu’il réfère aux conditions de l’acte d’énonciation a plus d’informations à intégrer dans sa représentation. Il prendra en compte tout ce qui est supposé dans ce jeu (un locuteur en attente, un partenaire qui n’est pas sourd, une porte ouvrable...), et fera entrer dans la composition du signe le contexte (les conditions dans lequel il est prononcé), ainsi qu’une partie conséquente de l’arrière cadre (on ouvre une porte en tournant la poignée et non en la cassant à coup de hache !).
52La question, c’est d’intégrer les conditions d’énonciation au formalisme lui-même. En somme, la signification d’une phrase doit être observée dans l’action qui consiste à la proposer, donc relativement aux conditions qui ont permis au locuteur de la dire, et non pas seulement comme une suite de symboles dont on pourrait calculer le sens.
4.3 Interactions
53La première chose à constater, c’est que l’étude des structures peut être ramenée à l’étude des interactions entre structures. La norme du signe devient donc celle de la procéduralité et de l’interaction. On a notamment une nouvelle définition du signe.
Un signe, c’est ce qui peut être objet d’une procédure cognitive et qui possède une dualité interne.
54La procédure est dite cognitive parce qu’elle se situe dans un sujet qui l’exécute. Le sujet peut tout aussi bien être un agent humain qu’une machine ou un ordinateur. La question du sujet est importante parce qu’elle vient donner un sens et une structure à la notion de « système de signification ». En effet, le processus d’interprétation du signe se fera dans un certain système de signification (avec ses propres représentations, ses compétences, ses bases de données, ses connaissances...).
55Ce système de signification peut être considéré comme étant le sujet lui-même. Mais il faut remarquer qu’à chaque interprétation, il n’y a pas seulement la production d’un objet relativement à un sujet. Il y aussi élaboration progressive du sujet interprétant : le sujet est modifié à chacune des interprétations qu’il produit. L’interprétation est donc le processus par lequel le sujet cognitif se construit, en même temps que le processus grâce auquel il attribue des signes. On consacre donc le rôle actif de l’interpréteur dans l’interprétation. Mais aussi la prééminence du processus de signification sur le sujet autant que sur l’objet, c’est-à-dire sur le signe.
56La signification, c’est donc ici le processus de sémiose, c’est-à-dire le processus qui engendre des signes. C’est donc à la fois une mécanique interne du signe (le signe comme résultat d’une interprétation) et une dynamique des signes entre eux (le signe comme « interprétable »). En tant que mécanique interne, on a dit que le signe est une dualité. Le signe met en relation un système sujet avec un système objet. Il construit l’autre à partir de la structure de l’un. Révéler la structure du signe revient donc à identifier en lui les parties qui relèvent du sujet et celles qui relèvent de l’objet, celles qui relèvent d’un donné et celles qui produisent un construit. Le signe qui a été produit par cette mécanique peut lui-même être considéré comme système sujet, c’est-à-dire comme un donné ... pour produire un autre système objet, qui sera un construit. La mécanique interne est donc la même que la dynamique externe. Un donné actuel n’est au fond que ce qui a été construit dans un ailleurs. De même, un construit est nécessairement devenu un donné pour les autres.
57On se dirige donc vers un univers composé uniquement de processus d’interprétation de signes en lieu et place du signe. Chaque signe étant lui-même le produit d’un processus d’interprétation, on ne considère plus que les processus. Au lieu d’être le signe d’une extériorité, le signe est devenu le symptôme d’une processualité, ce qui indique qu’il y a eu construction d’un parcours. Aux trois niveaux de signification précédents, le référentiel interactif rajoute une strate supplémentaire.
Le sens interactif du signe, c’est l’ensemble des interprétations qu’on peut en faire.
58Cela signifie que l’on peut évaluer un signe par rapport à l’ensemble des interactions qu’il peut avoir avec le reste de l’univers des signes, ou plutôt du système de signification auquel il appartient. La dualité interne du signe, entre donné et construit est le fondement même de cette interactivité. Par exemple, on peut analyser la construction d’une carte par un géographe comme le propose P. Enjalbert. Le géographe avance par interprétations successives d’un donné (une photo satellite) vers un construit (une carte représentant certaines relations). Admettons qu’il y ait plusieurs étapes comme par exemple : (1) identifier des zones par leur forme et leur couleur, (2) attacher à ces zones un descripteur de parcelle, (3) construire des objets géographiques par composition de parcelles…
59On peut analyser cet enchâssement des interprétations, formalisables grâce à l’isomorphisme cognitif évoqué plus haut : tout processus cognitif qui s’exécute uniformément a la forme d’un programme. La première étape prend un donné et produit un construit grâce à un programme de reconnaissance (par exemple un polygone de couleur jaune est interprété comme une parcelle agricole, un petit polygone de couleur rouge brique est interprété comme une parcelle d’habitation). L’étape suivante prend cette interprétation comme un donné et produit un construit grâce à un autre programme qui sait composer des parcelles. Par exemple, plusieurs parcelles d’habitation, autour d’une parcelle de route, noyées dans une multitude de parcelles agricoles forme une entité « zone rurale d’habitation » que l’on pourra ensuite classer comme hameau ou village selon la complexité des relations structurelles17.
60A chaque étape, le construit de l’étape précédente devient un donné, le sens mécanique du signe est donné par cette succession interne de donnés et de construits qui permet la constitution du signe. Pour connaître le sens interactif de ce processus d’interprétation qui a conduit à l’élaboration d’une carte, il faudrait considérer l’ensemble des construits que l’on peut produire par l’application d’une nouvelle interprétation à ce signe pris cette fois comme donné. En somme, le sens interactif du signe, c’est l’ensemble des interprétations dont il peut être le sujet. Ce nouveau lieu du sens considère le signe qui vient d’être construit eu égard à toutes les interprétations dans lesquelles il pourra être présent à l’état de donné.
61De nombreux problèmes restent ouverts, et il faudrait notamment procéder à une clarification des différents niveaux sémiotiques. Il ne faut pas non plus croire que cette répartition en niveaux de signification est destinée à révolutionner la sémiotique telle qu’elle est utilisée par les linguistes, les informaticiens ou les philosophes...
62L’objet de cette réflexion est plutôt de définir une sorte d’espace commun pour la conceptualisation et la formalisation des questions de signification. Nous pensons avoir montré que la théorie de la démonstration se révèle un candidat très sérieux pour construire une sémiotique formelle. Néanmoins, si un doute subsistait encore, il suffit de rappeler deux faits incontestables. Le premier fait, c’est l’isomorphisme de Curry-Howard qui relie théorie de la démonstration et théorie des programmes non seulement sur le terrain des objets mais aussi sur celui des propriétés. Le second fait, c’est l’irruption de l’informatique dans tous les domaines liés à la modélisation des connaissances, l’analyse linguistique, l’étude des phénomènes cognitifs... Il serait bien curieux de laisser de côté les paradigmes logiques de la signification quand les outils techniques qui en dépendent sont utilisés justement pour modéliser le sens.
Notes de bas de page
1 Je vous dispense des deux derniers niveaux qui renvoient à la notion de « masse » en théorie de la relativité et en physique quantique. Le lecteur pourra se reporter directement aux travaux de Bachelard qui m’ont ici inspiré : La philosophie du non et Le nouvel esprit scientifique.
2 Ces mondes seront décrits de façon non formelle, tout en référant à des propriétés formelles dûment éprouvées par la communauté scientifique.
3 Voir dans ce volume la contribution de Jean-Yves Girard.
4 Il est vrai que pour le formaliste cette théorie du contenu se réduit quasiment à néant. Mais seuls les intuitionnistes rejettent en bloc toute idée d’expression formulaire de la pensée.
5 Qui permet de lire les opérations comme portant sur les démonstrations et non plus sur les parties de proposition.
6 Les travaux de Gentzen auxquels nous faisons référence font d’ailleurs partie d’une sorte de travail préliminaire aux preuves de consistance qu’il souhaitait élaborer. Ils étaient donc considérés comme mineurs par Gentzen lui-même.
7 Une forme normale c’est une sorte de preuve canonique, preuve qui a la propriété de sous formule décrite plus haut. Pour être plus précis, toute preuve peut comporter des détours dûs à l’usage de la règle de coupure (le modus ponens). Ces détours sont l’unique façon d’introduire des formules n’appartenant pas à la formule à prouver, d’où leur utilité. Or, ils sont éliminables sans risque d’endommager la preuve et cela permet d’obtenir une preuve canonique, ou directe c’est-à-dire une preuve ne faisant référence qu’à la spécification donnée (la formule à prouver).
8 Tout en ne prenant parti ni pour le langage, ni pour la géométrie.
9 Où A et B sont des formules quelconques et ≡val signifie... équivalent à .. .modulo leurs valeurs.
10 Nous verrons que cet aspect externalisant est profondément dommageable dans la mesure où il renforce l’idée d’un « arrière-monde », là même où nous voudrions accéder au logique !
11 On ne conserve ce terme que pour établir la comparaison, alors qu’il vaudrait mieux parler dans ce cas de « variabilité ».
12 Pour simplifier l’étude différentielle, je me suis limité à un seul exemple décliné à travers les différents référentiels. La formule étudiée énonce la propriété d’inversion de l’implication. Il faudra remettre cette analyse dans le contexte auquel elle s’applique sans difficulté, celui des formules linéaires.
13 On remarquera l’inversion entre les deux façons de justifier l’implication, elle est importante puisqu’elle contient toutes les symétries dont nous avons besoin pour comprendre la suite.
14 Selon le système de preuve choisi on aura une gestion des symétries orientée droite/gauche ou haut/bas. La déduction naturelle est d’ailleurs appelée ainsi car elle utilise la gestion haut/bas qui est beaucoup plus intuitive, elle semble « naturelle ». De son côté, le calcul des séquents est plus particulièrement adapté à l’observation du phénomène d’élimination des coupures. Gentzen est l’inventeur de ces deux façons de gérer la symétrie dans les preuves.
15 Nous n’avons pas le temps ici de justifier le passage des opérateurs « classiques » aux opérateurs linéaires, ceci n’étant d’ailleurs pas le propos de cet exposé. Il se fait donc d’une manière un peu brutale. Toutefois il est à noter que, même si grosso modo la disjonction ∨ se traduit par ⅋ et la conjonction ∧ par ⊗, la conversion ne se résume pas à un simple changement de symboles. Disons plutôt que la logique linéaire change les symboles pour prendre acte de la découverte de la notion de flux dans les preuves, et de la notion de polarités en logique. Le lecteur pourra se reporter à l’article de Jean-Yves Girard, Linear Logic : its syntax and semantics pour avoir une vision d’ensemble sur la logique linéaire.
16 On peut se référer aux livres de Jacques Bouveresse, Le pays des possibles et La force de la règle, édités aux Éditions de minuit.
17 On n’a aucune difficulté à imaginer que ce processus d’inteprétation est homogène et confluent, sinon il n’y aurait aucune raison de considérer le géographe comme un scientifique. En revanche, l’interprétation est évidemment dépendante au final des bases de données que l’on a utilisées, ce qui semble supposer une question de modèle plutôt que de construction.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Agir et penser
Essais sur la philosophie d’Elizabeth Anscombe
Valérie Aucouturier et Marc Pavlopoulos (dir.)
2015