Regards d’un informaticien sur Justice digitale
p. 29-44
Texte intégral
1Introduction. Cette contribution est divisée en deux parties. La première tente d’être le plus factuelle possible et sans jugement de valeur, et apporte des éclairages scientifiques sur les techniques et résultats mathématiques énoncés dans l’ouvrage (I). La seconde concerne l’avis d’un informaticien sur les positions exprimées dans l’ouvrage, et les propos qui y sont dispensés sont moins impartiaux (II).
I. Considérations techniques et scientifiques
2Signaux analogiques et numériques. Les auteurs font souvent la différence entre les signaux numériques et les autres signaux nommés « signaux analogiques ». Par exemple, il est mentionné que la réception d’un stimulus numérique perturbe l’individu d’une manière différente à la réaction à un stimulus non numérique1. Or, la réception d’un appel téléphonique sur une ligne analogique (qui n’existe d’ailleurs plus) et celle sur une ligne numérique ne diffèrent guère. Un signal sonore déclenché par un programme informatique est identique à un signal sonore déclenché par un être humain.
Il existe d’ailleurs des résultats montrant que les signaux numériques peuvent être au moins aussi précis que les signaux analogiques, comme prouvé par Shannon2 (avec d’autres auteurs) dans de nombreux résultats mathématiques. La préférence de certains individus pour des signaux analogiques (par exemple, les disques vinyle plutôt que les CD ou le streaming) ne vient pas de la pureté ou de la précision du signal en lui-même mais vient des goûts de chacun, qui n’ont pas de relation avec les mathématiques.
3Formats et protocoles. L’un des griefs des auteurs envers les formats numériques est leur caractère illisible sans ordinateur3. Pourtant, les informaticiens ont souvent préféré les formats faciles à lire afin de simplifier le débogage de programme. Voici, à titre d’exemple, un fichier PostScript (ancêtre du PDF) :
% !PS
newpath 100 100 moveto 100 200 lineto 200 200
lineto 200 100 lineto closepath fill showpage
Le résultat est le dessin d’un carré noir dont les côtés ont pour longueur 100 points (à peu près 3,5 cm).
Beaucoup de formats utilisent les caractères auxquels nous sommes habitués : lettres, chiffres et signes de ponctuation. Le seul codage utilisé pour pouvoir les représenter (le plus souvent à l’aide d’un ordinateur, mais il reste possible de le faire directement) est en général le code ASCII, qui date des années 1960. On citera les formats XML (proche du HTML), le récent Markdown ou encore les formats d’image PBM et PGM.
L’idée que les formats informatiques sont difficiles à lire provient du fait que, pour économiser de l’espace sur les supports de stockage, les données sont souvent compressées (par exemple, le format JPEG des images capturées par les appareils photo numériques, les archives zip ou certaines parties des fichiers PDF). Il est effectivement nécessaire, dans ce cas, d’avoir un ordinateur pour voir apparaître le contenu du fichier. Mais cet usage n’est que lié aux besoins d’archivage, de même que les bibliothèques regorgent d’outils pour simplifier l’accès aux multiples textes qu’elles hébergent.
Bien sûr, certains formats restent du binaire et nécessitent plus de travail calculatoire pour les déchiffrer. On peut par exemple citer le format DER pour stocker les clés de chiffrement, lui-même basé sur le format binaire ASN.1. On peut également citer le format DOC, utilisé par les très anciennes versions d’un logiciel de traitement de texte populaire. Il est intéressant de noter que l’éditeur de ce logiciel a préféré remplacer le format DOC par un format DOCX, qui lui est lisible en UTF-8 (lequel joue un rôle comparable à de l’ASCII mais adapté à toutes les langues de la planète) une fois décompressé puisque l’on obtient alors du XML.
De manière plus surprenante, mais pour les mêmes besoins de débogage, les protocoles réseau sont souvent également au format textuel et lisibles. Ainsi, en HTTP, pour obtenir la page principale du site web de la BNF, le message envoyé par Internet est le suivant :
GET / HTTP/1.1
Host : www.bnf.fr
La réponse, trop longue pour être citée, est également lisible. Certes, pour reconstruire le visuel de la page web à partir de sa description, il faut une bonne imagination (et décompresser toutes les images), mais cela reste faisable. Les protocoles que nous utilisons régulièrement sur Internet sont presque tous basés sur du texte compréhensible par un être humain.
Les protocoles qui font exception sont ceux qui sont au cœur d’Internet et qui véhiculent tous les autres : TCP, IP et Ethernet. Cependant, comme ils sont très simples, il est facile de comprendre ce qu’ils signifient, et l’analyse de messages véhiculés par ces protocoles est un exercice classique d’informatique en première année.
Comme pour les formats de fichiers, deux éléments viennent gêner la lisibilité des messages véhiculés par le réseau : la compression (mais il suffit de décompresser le message) et le chiffrement. S’il n’est pas étonnant que le chiffrement empêche la lecture du message vu que c’est son but premier, il reste simple, à l’aide d’un programme, de consulter son contenu si l’on connaît la clé de chiffrement.
4Règles absolues. Par plusieurs aspects, le numérique dérange. Cela vient parfois du fait que le numérique est directement issu de la logique et des mathématiques. Le numérique hérite ainsi de caractéristiques de ses parents : le fait de n’être issu de rien, d’être autogénéré par lui-même ex nihilo et de laisser peu de place au doute. Les mathématiques peuvent être entièrement construites à l’aide de la théorie des ensembles (ZFC4), et les objets mathématiques construits dans cette théorie ne le sont qu’à partir d’un seul germe : l’ensemble vide. Nous sommes donc bien face à une science qui ne dépend d’aucune autre et dont les résultats sont par conséquent vrais dans le sens le plus absolu. Aucun doute n’est possible, il n’y a pas de place pour l’interprétation.
Nous sommes régulièrement témoins de l’incompréhension de ce caractère absolu. Par exemple, quand certains gouvernements réclament aux personnes responsables des réseaux de leur permettre d’accéder aux messages que s’échangent les individus, ils ne se rendent pas compte que c’est impossible. En effet, quiconque peut chiffrer un message, et, sans la clé de chiffrement, il est impossible d’accéder au message. Les cryptologues ont même inventé un système pour que deux individus qui ne se connaissent pas et ne se voient pas puissent discuter en toute confidentialité (par exemple, avec protocole d’échange de clé de Diffie-Hellman5). S’ils se sont déjà vus et ont échangé des informations d’identification, les algorithmes de signature numérique, utilisés correctement, peuvent de surcroît garantir à l’un que c’est bien avec l’autre qu’il communique.
À cela, on pourrait rétorquer qu’il reste toujours la possibilité de trouver la clé, par hasard ou par chance. La chance demeure en effet une possibilité, mais on peut choisir quelle force on souhaite donner à cette chance (en choisissant la taille de la clé). Par exemple, il est possible de la rendre supérieure à celle qu’il faut avoir pour gagner le gros lot à la loterie nationale toutes les semaines pendant un millénaire. Si cela ne vous semble pas assez, on peut passer à 256 millénaires en ajoutant 1 octet à la clé.
5Blockchain. La difficulté à appréhender ce caractère absolu se voit dans la manière qu’ont les auteurs de douter des blockchains6. Les blockchains sont des bases de données numériques, répliquées entre tous leurs utilisateurs (et pas seulement les mineurs) afin d’éviter qu’elles ne soient modifiées à des fins de profit personnel. Elles ont la particularité de ne pas être modifiables : une fois une information ajoutée à la blockchain, elle y reste à vie. Cette particularité a probablement des conséquences intéressantes sur le plan du droit.
Le système de mineurs est purement algorithmique et assure une cohérence entre toutes les copies de la base de données. Comme pour tout algorithme basé sur de la cryptographie et sur des échanges à travers un réseau, la cohérence n’est pas assurée, mais les probabilités d’avoir une incohérence sont ajustées, comme pour l’utilisation des algorithmes de chiffrement.
6Programmes. L’ouvrage fait de nombreuses références à la notion de programme informatique7. On peut constater, en revanche, une vision restreinte de cette notion. En effet, les auteurs mentionnent régulièrement qu’un programme informatique effectue des calculs. Dans l’imaginaire de beaucoup, et notamment des lycéens s’interrogeant sur leurs études qu’ils souhaitent suivre, cela limite les possibilités de l’ordinateur en les reléguant au rang de « super-comptables ». Pourtant, les ordinateurs passent la majeure partie de leur temps à effectuer non pas des calculs mais des « sauts », c’est-à‑dire à choisir quelle partie du programme exécuter en fonction de critères élémentaires (par exemple, savoir si une case mémoire contient un 0).
Il existe donc plusieurs types de programmes dont la richesse ne fait que croître. Certains programmes traitent des données, et ce sont ceux-ci que mentionnent les auteurs. Mais d’autres tournent en permanence sur la machine pour répondre aux sollicitations de l’utilisateur ou des participants au réseau (antivirus, système d’envoi et de réception d’e-mails, serveur de pages web). Certains programmes sont essentiellement des outils interactifs. Si les calculs effectués par ces derniers sont élémentaires, leur richesse réside dans leur capacité à présenter des données de manière adéquate et à permettre leur manipulation (traitement de texte, jeux vidéo).
Enfin, les auteurs évoquent souvent le fait que certaines procédures juridiques peuvent avoir des résultats différents même si les questions posées et les conditions sont les mêmes8. Ils en déduisent qu’un ordinateur, incapable de se contredire, ne peut effectuer un calcul qui mènerait aux mêmes conclusions qu’un être humain. Il faut cependant noter que de nombreux algorithmes utilisent des tirages aléatoires pour s’exécuter. Dans certains cas, c’est même obligatoire : par exemple, pour choisir un chef sur un réseau quand tous les participants sont équivalents. Dans d’autres cas, cela permet parfois de gagner du temps. Ainsi, l’un des plus célèbres algorithmes de tri (quicksort) n’est pas efficace sur des données déjà triées. Pour éviter de tomber dans ce cas de figure, les données sont d’abord mélangées aléatoirement, puis triées. Un autre exemple est celui de l’apprentissage profond. L’entraînement du réseau de neurones sous-jacent se fait avec de nombreux tirages aléatoires. Cela explique pourquoi, comme les êtres humains qu’elle copie, une intelligence artificielle peut changer d’avis entre deux interrogations.
7Raisonnements. De même qu’il convient de faire la différence entre calcul et programme, il est important de différencier calcul et raisonnement.
Une équation est une expression logique qui indique que des termes mathématiques sont égaux. Ces équations possèdent des inconnues que l’on peut remplacer par n’importe quelle valeur rendant l’égalité vraie ou fausse. Un calcul consiste à combiner des équations en remplaçant, dans une expression mathématique, un des éléments par un autre qui lui est égal. Par exemple, en théorie des groupes, on admet, entre autres, que :
E₁ : 0 + x = x + 0 = x,
E₂ : x + (−x) = (−x) + x = 0 et que
E₃ : (x + y) + z = x + (y + z).
On peut utiliser ces équations pour déduire que a = b à partir de −a = −b. En effet, on calcule :
a = 0 + a = (b + (−b)) + a = (b + (−a)) + a = b + ((−a) + a) = b + 0 = b
La première égalité utilise E₁ avec x valant a, la seconde E₂ avec x valant b, la troisième l’hypothèse −a = −b, la quatrième E₃ avec x valant b, y valant −a et z valant a, la cinquième E₂ avec x valant a et la dernière E₁ avec x valant b.
Il est vrai que la majorité des raisonnements scientifiques considérés pendant la scolarité, ou du moins ce que l’on en retient, restent des calculs (d’aire, d’intégrale, d’énergie, de force, de concentration…). Cette confusion est de surcroît entretenue par beaucoup de travaux de mise en scène des mathématiques qui utilisent l’équation comme illustration. Il est par exemple fréquent d’illustrer les mathématiques par des fractales (dont l’esthétique et le mystère restent indéniables), qui sont le résultat d’un calcul lui-même illustré par une équation. Par exemple, la fameuse fractale de Mandelbrot est en général annotée par l’équation zn + 1 = zn² + c. Il faut souvent chercher en revanche comment on passe de l’équation à la fractale elle-même. Un autre exemple mettant en scène des mathématiciennes pour promouvoir les mathématiques auprès des jeunes filles demandait à ces dernières leur équation préférée, recopiée en écriture manuscrite sur la photo jouxtant leurs biographies. Enfin, le cinéma participe aussi à cette confusion : il est fréquent de voir de savants physiciens dialoguer uniquement avec des équations.
Or, les théories logiques, en toute généralité, dépassent la simple notion de calcul. Au lieu de baser le raisonnement sur l’égalité x = y et les remplacements de x par y dans des calculs, il est basé sur l’implication A ⇒ B et l’utilisation de modus ponens, proche du syllogisme, qui indique que si A ⇒ B et que A est vrai, alors B est vrai. Le modus ponens, comme l’utilisation d’équations, fait également usage d’inconnues. L’implication a cependant une caractéristique particulière qui fait que le principe du raisonnement par modus ponens n’est pas un simple calcul : elle est directionnelle. En effet, alors que x = y et y = x sont synonymes, A ⇒ B et B ⇒ A ne le sont pas. Cette dissymétrie est la cause de nombreuses erreurs de raisonnement (par exemple, des démonstrations effectuées à l’oral, sans préparation, dans un débat politique ou un procès). C’est d’autant plus difficile que le langage utilisé nécessite souvent un temps de réflexion pour trouver le sens de l’implication. Par exemple, « A est nécessaire pour que B » signifie B ⇒ A, mais « A seulement si B » signifie A ⇒ B. L’ajout de forme négative renforce la complexité. Par exemple, « Si A alors B est faux » et « Si B alors A est faux » (penser « S’il vient, je ne viens pas ») sont synonymes et signifient tous deux que A et B ne peuvent être vrais en même temps. Il convient donc de faire correctement la différence entre le calcul, plus simple et compris par beaucoup, et le raisonnement logique. Les ordinateurs sont néanmoins capables aussi bien de chercher des raisonnements que de faire des calculs, même si, de même que pour les êtres humains, il se peut que cette recherche n’aboutisse pas ou soit extrêmement longue.
Cependant, même quand les raisonnements effectués utilisent l’implication, nous sommes souvent face à une erreur fréquente : confondre l’implication avec la corrélation en statistique. La corrélation est un calcul sur les résultats d’une expérience répétée qui montre que deux facteurs sont liés dans le sens où ils sont souvent tous les deux présents ou tous les deux absents et à des niveaux comparables. On note que la corrélation en statistique est symétrique et ne peut donc pas être une forme d’implication.
Enfin, une autre erreur classique consiste à confondre implication et causalité. Il peut y avoir une implication entre deux phénomènes sans que l’un soit la cause de l’autre. En effet, la causalité impose en plus une contrainte temporelle (la cause doit arriver avant la conséquence) et une appréciation. L’exemple « Si Paul vient, je ne viens pas » en est une illustration. Si le locuteur ne vient pas alors que Paul est venu, on sait que la cause de l’absence du locuteur est la présence de Paul. En revanche, si le locuteur est présent, on sait que cela implique l’absence de Paul, mais l’absence de Paul n’est pas causée par la venue du locuteur. Nous avons donc trois niveaux de relations entre facteurs : la causalité, l’implication et la corrélation.
8Limitations théoriques des ordinateurs. L’ouvrage mentionne fréquemment les résultats théoriques concernant ce que ne peut faire un ordinateur, souvent afin d’y opposer les capacités humaines. Nous allons dans ce paragraphe énoncer les différentes limitations qui existent.
La plus souvent mentionnée dans l’ouvrage est l’existence de fonctions mathématiques non réalisables à l’aide d’un algorithme appelées « fonctions non calculables ». La plus classique des fonctions non calculables est la fonction d’arrêt qui, étant donné un programme informatique, retourne 1 si l’exécution du programme se complète normalement et 0 si l’exécution du programme plante ou boucle dans des calculs infinis. En plus de celle-ci, l’une des fonctions les plus simples à comprendre et n’ayant pas pour objet des programmes informatiques est le problème de correspondance de Post9, qui consiste à demander à l’ordinateur de trouver une solution à un jeu basé sur des dominos. Il est à noter que si les preuves de ces résultats sont assez techniques, un argument plus simple permet de prouver l’existence de fonctions non calculables, même si ce dernier ne suffit pas pour en exhiber une : il y a strictement moins de programmes que de fonctions mathématiques. En effet, les algorithmes, décrits par un nombre fini de mots, sont en nombres dénombrables (autant que le nombre d’entiers) alors que les fonctions sont en nombres indénombrables (et plus précisément autant que le nombre de réels). Il y a donc forcément une fonction qui n’est pas calculée par un algorithme.
Mais face à ces fonctions non calculables, que peut faire l’être humain que ne peut faire l’ordinateur ? Prenons l’exemple du problème de Post. Si, sur le problème posé, une solution existe, l’être humain comme l’ordinateur sont capables de la trouver (et l’expérience montre que concernant les jeux, l’ordinateur finit en général par avoir le dessus). Si la solution n’existe pas, il ne reste plus qu’une possibilité : apporter la preuve que cette solution n’existe pas. Si cette preuve existe, là encore, l’être humain comme l’ordinateur sont capables de la trouver, ces derniers étant à nouveau sur un pied d’égalité. Il est néanmoins possible que la preuve n’existe pas. C’est en effet ce qu’a démontré Gödel, auteur éponyme d’un célèbre théorème. On peut construire un problème de Post qui n’a pas de solution bien qu’il soit impossible de le prouver.
On peut donc constater que ces résultats théoriques ne sont pas complètement applicables à la thèse qui consiste à dire qu’il est prouvé que l’être humain a des capacités de raisonnement supérieures à celle de l’ordinateur. En plus, les problèmes posés sont en général beaucoup plus simples que le problème de Post. Par exemple, les algorithmes d’affectation, utilisés notamment dans les automates qui affectent les candidats aux formations, ou les algorithmes utilisés pour calculer les montants d’imposition sont primitifs récursifs, terme signifiant que l’on sait que le programme se termine et que l’on a une estimation du temps d’exécution. D’une manière générale, les problèmes de la vie courante sont souvent très simples et ne tombent pas sous la coupe de limitations théoriques.
Néanmoins, il est fréquemment fait mention de l’intuition pour illustrer la différence entre humain et machine. On peut considérer que par certains aspects, cette mention traduit une réalité. Par exemple, la cohérence des axiomes de la théorie des ensembles ne peut être prouvée : c’est un autre théorème de Gödel10. Certains résultats nécessitent toutefois des axiomes plus forts que ceux présents dans la théorie des ensembles classique (théorie ZFC). La véracité de ces axiomes n’est, par définition, pas démontrable, mais c’est l’intuition des théoriciens des ensembles qui permet d’accepter leur validité.
En revanche, comme fréquemment indiqué dans l’ouvrage, il n’est pas juste de considérer que l’humain, par sa capacité à trouver une solution par intuition, est avantagé du point de vue de la calculabilité. En effet, la capacité à deviner une solution à un problème a très vite été envisagée en décrivant des algorithmes dits « non déterministes ». On octroie la possibilité à un algorithme non déterministe d’effectuer des tirages aléatoires. En contrepartie, l’algorithme peut, en cas de tirage infructueux, décider de ne pas conclure sur la question posée. On considère que l’algorithme est valide si, quelle que soit la question, il y a une possibilité que l’algorithme y apporte une réponse, et dans ce cas la réponse est toujours juste. On peut assimiler un algorithme non déterministe à un être humain et le tirage aléatoire à son intuition. Cependant, même si un algorithme non déterministe pour un problème semble le résoudre plus rapidement qu’un algorithme déterministe (mais il en manque encore la preuve), la puissance de calcul, elle, ne change pas : il est possible de simuler un algorithme non déterministe avec un algorithme déterministe, tout simplement en testant tous les tirages aléatoires possibles. La limitation théorique de la puissance de calcul des ordinateurs n’est donc pas correctement illustrée par la notion d’intuition.
9Intelligence artificielle et anthropomorphisme. Les systèmes d’intelligence artificielle ont évolué au cours du temps. Initialement, on entendait par intelligence artificielle des systèmes experts effectuant des déductions logiques à l’aide d’une base de faits et d’une base de règles. Utilisant la règle logique dite « de résolution », sorte de modus ponens généralisé, elle essaye de trouver toutes les solutions aux problèmes posés. On parle alors d’intelligence artificielle symbolique, dont le fonctionnement est proche du raisonnement humain. En revanche, les intelligences artificielles mentionnées dans les médias sont des intelligences artificielles par apprentissage profond. Pour ces dernières, ce n’est pas le raisonnement humain mais le cerveau humain qui est imité. En effet, elles utilisent un réseau de neurones artificiels, donc le fonctionnement copie celui du cerveau humain. Les règles d’apprentissage des intelligences artificielles sont mathématiques, alors que la méthode d’apprentissage d’un vrai cerveau reste peu connue.
La conséquence directe d’avoir copié un organe dont on ignore le fonctionnement est que l’on a des difficultés à comprendre pourquoi l’intelligence artificielle a produit un résultat. Essayer d’expliquer et d’interpréter ces résultats fait partie des grands sujets de recherche actuels en sciences de l’information. Mais comme l’intelligence artificielle n’est pas un véritable cerveau humain, il faut éviter de lui attribuer les raisonnements humains auxquels nous sommes habitués. Cette confusion est rendue d’autant plus aisée par le fait que les premières intelligences artificielles, symboliques, font des raisonnements classiques. Par exemple, en cas d’erreur sur un résultat, tenter d’expliquer la méprise par un raisonnement comme « L’intelligence artificielle a dû penser que la tache sur la photo était le soleil et non un flotteur et a confondu du coup un avion avec un voilier » reste de l’anthropomorphisme pour l’instant infondé.
10Exponentielle et échelle de grandeur. Dans de nombreux textes d’actualité, il est fait mention de « croissance exponentielle ». Une croissance exponentielle est une croissance qui double à intervalle de temps fixé. Par exemple, la loi du Moore mentionne que le nombre de transistors des processeurs double tous les deux ans. La particularité des croissances exponentielles est qu’elles évoluent extrêmement rapidement, au point d’être difficiles à conceptualiser ; c’est d’ailleurs la base de la légende du problème de l’échiquier de Sissa où un sage demande en récompense au roi un nombre de grains de riz issu d’une règle à croissance exponentielle. L’une des conséquences est qu’elles sont vouées à s’arrêter. Par exemple, les bactéries, tant qu’elles ont de quoi se nourrir, restent en phase de croissance exponentielle. Quand la nourriture vient inévitablement à manquer, commence une phase de famine. Il est donc clair que la loi de Moore finira par ne plus se vérifier, même s’il est difficile de prévoir quand. Il est en revanche déraisonnable de penser que Moore ne le savait pas quand il a énoncé cette loi.
Les croissances exponentielles sont fréquentes en informatiques, et il est difficile d’imaginer la grandeur des nombres obtenus tant il n’y a pas de comparaison avec le monde physique. Ainsi, le rapport entre la plus petite distance physique (distance entre deux quarks) et la plus grande (distance du plus lointain quasar) est de 2200. En revanche, le nombre de clés RSA suivant le standard actuel est de 22048, dont la grandeur est difficile à imaginer. Il est pourtant fréquent de manipuler cette quantité lors de calculs en informatique, en calculant par exemple la probabilité de trouver une telle clé par hasard. On peut aussi noter que l’informatique théorique permet d’écrire très simplement des quantités plus grandes encore11.
Si l’exemple du paragraphe précédent reste assez théorique, on peut tomber sur des exemples réels faisant intervenir des impossibilités dues à de trop grandes quantités. Par exemple, il n’y a que 2262 atomes dans l’univers, ce qui signifie qu’une base de données associant une valeur à toute suite de 32 caractères ne peut raisonnablement être sauvegardée (à moins de mettre une valeur par atome). Pourtant, si l’on est face à une croissance exponentielle, il suffit d’attendre 262 unités de temps pour atteindre une telle taille. Certains voyageurs ont aussi fait les frais des problèmes de grandeur en informatique lors de l’utilisation de leur téléphone portable à l’étranger. Il avait un prix de consommation au kilo-octet (210 octets) alors que les réseaux supportent des giga-octets par seconde (230 octets), soit 1 million de kilo-octets. Quel que soit le prix du kilo-octet, multiplié par 1 million puis par le nombre de secondes utilisées, on atteint assez rapidement des montants colossaux.
11Sensibilité aux conditions initiales. Le dernier sujet de cette partie concerne ce qui est communément appelé « l’effet papillon ». Il intervient dans une discipline des mathématiques appelée « systèmes dynamiques » et porte le nom de « sensibilité aux conditions initiales ». Un système est sensible aux conditions initiales quand les conséquences possibles d’un phénomène se distinguent au niveau macroscopique, même si au début on ne constatait de différences qu’au niveau microscopique (s’il n’y a aucune différence, le déterminisme de la physique fait que les conséquences sont strictement identiques). Les auteurs utilisent l’existence de systèmes chaotiques pour en déduire l’imprédictibilité du monde réel12. Il convient néanmoins de relativiser ce propos. En effet, les phénomènes de sensibilité aux conditions initiales sont en général liés à de fortes réserves d’énergie qu’une légère perturbation peut libérer. Il y en a en météorologie mais aussi dans les phénomènes sociétaux, comme l’embrasement des banlieues de 2005. Le fait que ces énergies considérables sont en nombre limité et qu’il faut du temps une fois dépensées pour les reconstruire explique pourquoi dans de nombreux cas nous ne sommes pas face à de l’imprédictibilité. Cette erreur vient d’une confusion entre les notions de sensibilité et d’expansivité, notions qui pourraient toutes deux être décrites comme un effet papillon mais avec une différence fondamentale13. La notion d’expansivité décrit un système où, quelle que soit la perturbation microscopique, elle entraîne une perturbation macroscopique dans le futur. Les systèmes expansifs sont rares. En ce qui concerne la notion de sensibilité, elle impose que, quel que soit l’état du système, on puisse trouver un état très proche ayant des effets importants. La définition n’impose en revanche aucune contrainte sur la rareté de cet état proche. On peut donc imaginer des systèmes sensibles aux conditions initiales où la plupart des états microscopiques proches ont le même comportement mais où l’effet papillon est très peu probable. Enfin, il faut noter que la sensibilité aux conditions initiales des phénomènes météorologiques est remise en question. On peut ainsi imaginer la questionner dans le cas de phénomènes sociétaux.
II. Discussion sur les positions prises dans l’ouvrage
12Avant-propos. J’avoue avoir été assez étonné de certaines positions des auteurs. Les promoteurs de la justice digitale sont appelés « libertaires », mais promouvoir le libre ne veut pas dire être libertaire, et les institutions prônent de plus en plus l’accès libre aux publications financées par la recherche publique. On trouve également le qualificatif « de mauvais étudiants qui n’ont pas terminé leurs études » à propos des fondateurs de start-up dans le domaine du numérique. En dernier ressort, Hilbert, mathématicien renommé et de grand talent, est traité de plagiaire de la dualité cour ordinaire et cour de cassation : « Il [Hilbert] reprit pour lui la distinction entre cour de cassation et cour ordinaire »14 sur la séparation entre forme et fond. On peut noter que cette question, dans le domaine des mathématiques, méritait d’être posée vu que Gödel, par son théorème de complétude, a dû prouver que « conséquence sémantique » (conséquence sur le fond) et « conséquence syntaxique » (conséquence sur la forme) sont des notions identiques en logique.
Ces prises de position assez violentes mettent le lecteur informaticien (et probablement mathématicien) dans une position inconfortable.
13Lisibilité du code vs lisibilité des codes. Les auteurs indiquent que, contrairement au code informatique, qui est incompréhensible sauf pour les informaticiens15, du fait qu’il est écrit, tout le monde peut lire le droit16. Cependant, si la compréhension mot à mot ne pose aucun problème, les codes qui constituent la loi sont souvent écrits avec des tournures de phrase qui nuisent à leur compréhension, notamment avec des mots dont le sens est différent en droit (citons par exemple la notion d’immeuble). Les thèmes sont éparpillés en de nombreux endroits, ce qui oblige le justiciable à utiliser un algorithme (le moteur de recherche de Légifrance, par exemple) pour les retrouver. Les codes peuvent dépendre de règlements, de circulaires (pas encore écrites), de jurisprudences qui peuvent revirer à tout instant. De plus, faire appliquer la loi dépend du bon vouloir de l’administration, cette dernière n’étant pas tenue de le faire systématiquement. La preuve que la loi est difficile à interpréter est que tout nouveau texte est chaque fois pourvu d’une annexe permettant de comprendre son contenu. Mais ce n’est pas l’annexe qui fait autorité en cas de contestation. Apprendre le codage est en revanche possible assez rapidement puisqu’il existe des DUT17 en programmation alors qu’il faut nécessairement un master pour devenir juriste. L’illettrisme numérique devrait encore se réduire avec les réformes sur les programmes de collège et de lycée, la France rattrapant enfin son retard sur la plupart des autres pays développés.
14Formats numériques. Pour les auteurs, les données numériques sont une suite de 0 et de 1. Les informaticiens sont cependant responsables de cette erreur d’appréciation car, par pure esthétique, c’est souvent ainsi que sont présentées les entrailles d’un ordinateur.
Néanmoins, comme nous l’avons vu dans la première partie, les développeurs se sont empressés de donner une lisibilité à ces suites de 0 et de 1 (suites d’octets pour être exacts). Les formats numériques sont pour la plupart basés sur du texte (DOCX, HTML, Markdown, PDF), éventuellement compressés ou chiffrés comme la plupart des protocoles réseau. De même, on a rapidement remplacé le langage machine par de l’assembleur, puis par des langages informatiques de plus en plus expressifs afin de s’assurer :
de pouvoir réutiliser le code produit ;
de pouvoir travailler à plusieurs ;
de limiter la possibilité de bugs ;
de prouver qu’un programme fait ce que le développeur prétend.
Enfin, pour assurer la pérennité des données numériques, la plupart des formats informatiques sont décrits dans une norme déposée auprès d’organismes de normalisation (ISO, ANSI, RFC…).
15Océans de données. La représentation mentale erronée des données numériques comme suite de 0 et de 1 a d’autres conséquences dans les raisonnements effectués dans l’ouvrage.
La première donne son nom à la révolution numérique, appelée « révolution graphique » puisque la manière d’écrire change. Au lieu de plats et de déliés, on obtient, d’après les auteurs, une incompréhensible suite de 0 et de 1. D’un point de vue purement pragmatique, il est tout de même difficile de penser qu’une suite de lettres ou de chiffres soit fondamentalement de complexité différente qu’une suite de 0 et de 1. L’écriture, telle qu’elle a été inventée en 6000 av. J.-C., n’était pas faite de plats et de déliés mais bien de caractères reproduits à l’identique.
La seconde est l’absence d’organisation dans les données numériques. Pour les auteurs, l’intelligence artificielle, face à des données qui sont toutes des suites de 0 et de 1, ne fera pas la différence entre des pommes et des chats, ou des lois et des règlements. Le problème de classement des données numériques en fonction de ce qu’elles représentent est un problème classique de l’informatique qui a donné naissance au paradigme de programmation le plus utilisé à l’heure actuelle : la programmation objet. Tous les systèmes d’information incluent à présent des données de structure qui permettent sans ambiguïté de savoir ce que représentent les suites de 0 et de 1 que l’on trouve dans les tables. On pourrait argumenter qu’une intelligence artificielle, aussi incontrôlable qu’elle semble être, pourrait ne pas en tenir compte. Si cet argument, qui reste un exemple d’anthropomorphisme, est recevable, on peut remarquer que c’est également le cas du juge, car l’être humain est très sensible à la manière dont sont présentées les données.
16Personnification. Dans l’ouvrage, on fait souvent face à la personnification du numérique ou de systèmes numériques comme la blockchain. Si cette figure de style est courante, elle nuit toutefois à la lecture car il en résulte une imprécision sur le sujet du propos. En effet, pour un système numérique, il peut s’agir de développeurs, de concepteurs, de commanditaires, d’utilisateurs ou de promoteurs. Il me semble que les critiques posées sont plutôt à mettre en relation avec les promoteurs du numérique, voire avec ses commanditaires. En général, les développeurs et chefs de projet essayent de produire un logiciel conforme aux spécifications qui leur sont données sans juger de celles-ci. Les commanditaires, notamment quand il s’agit de l’État, peuvent avoir des vues plus larges sur la place du numérique dans la société et souvent sur les économies qui peuvent être réalisées grâce à lui. Les promoteurs restent les plus critiques du système en place, et je pense que ce sont eux qu’il convient d’opposer aux conservateurs.
17Numérique et analogique. Le paragraphe du même nom dans la partie précédente explique pourquoi les signaux numériques et les signaux analogiques ne sont pas si différents. Je me contenterai dans ce paragraphe de citer les auteurs. D’une part, « nous sommes tous les jours confrontés à ce problème : que l’on songe au simple fait de recevoir un texto qui vient interrompre notre continuité spatio-temporelle vécue et fait graphiquement participer à un autre espace-temps qui n’en réagit pas moins sur notre situation présente »18 me paraît exagérer la différence entre recevoir un SMS et le fait de se voir remettre un prospectus dans la rue. D’autre part, « le passage d’une écriture alphabétique à une écriture numérique, on le voit, fait changer le régime du sens en projetant le récit à l’extérieur du droit pour le placer dans une mythologie générale d’une “intelligence artificielle” »19 me semble exagérément souligner une forte différence entre les textes de loi imprimés et les textes numériques.
18Limitations matérielles. Lors de la description d’un procès virtuel, les auteurs font état de limitations techniques, notamment un juge et un prévenu en deux dimensions et sans une vision de la totalité de l’individu. Il me semble important de ne pas sous-estimer les progrès réalisés dans ce domaine. Les écrans sont en trois dimensions et de plus en plus grands, la latence diminue progressivement, et il n’y a guère que l’odorat qui ne soit pas encore transmis par les canaux numériques.
De même, les limitations des intelligences artificielles, non douées d’émotions, ne le sont que par la volonté de leurs concepteurs et non par une limitation matérielle. Les concepteurs jugent inopportun d’avoir des assistants numériques qui aiment ou sont de mauvaise humeur, et ces derniers sont programmés pour le dire directement : demander à un assistant numérique s’il ressent des émotions provoque en général la réponse « Je ne suis pas programmé pour cela ». Cependant, d’une part, il existe des recherches où des prototypes sont capables d’analyser les signes émis par un visage pour détecter des émotions ; d’autre part, il est simple de donner des émotions à une intelligence artificielle vu les résultats récents en sciences cognitives, qui en permettent une classification et une quantification assez fines.
19Création ex nihilo. Les auteurs énoncent que « la science, pas plus que le droit, ne peut en effet prétendre se fonder elle-même. L’approche calculatoire du monde que promeut le nouvel ordre graphique n’échappe pas à la règle »20. Cependant, comme présenté dans la partie précédente, la logique et la théorie des ensembles se fondent elles-mêmes. Cela explique en partie pourquoi le numérique prétend se fonder lui-même. Cela ne me semble toutefois pas avoir de conséquences particulières pour la justice digitale.
20Numérisation des procès. Les auteurs accusent le numérique de permettre des communications autrefois impossibles, par exemple entre le juge et le procureur. La vraie question est de savoir s’il faut l’interdire et non condamner une technologie à cause de ses mauvaises utilisations possibles. Si l’interdiction de communications entre les participants au procès se révèle préférable, il est techniquement aisé de détecter ou de brouiller toute connexion numérique.
En ce qui concerne les procès qui se déroulent grâce aux outils numériques, on peut noter qu’ils permettent aux participants de se renseigner, de se concerter plus simplement pendant son déroulement et d’être plus à même de se défendre. Actuellement, lors d’un procès, les prises de parole de chacun sont limitées et réglementées. Si l’une des parties manque l’occasion de présenter un argument ou, en interprétant mal la moue des magistrats, se trompe sur la posture à adopter, il peut arriver que la partie adverse emporte un jugement avantageux.
Avec un procès numérique, on pourrait imaginer avoir le temps de bien préparer la réponse, la posture ou la présentation des faits dans le cas d’un procès en distanciel : chacun peut discuter et se préparer hors caméra avant de s’exprimer. Si le procès se déroule avec un juge utilisant des outils de justice digitale, on peut imaginer essayer plusieurs stratégies afin de choisir la meilleure. De prime abord, cela peut sembler une perversion, mais comme les différentes parties peuvent faire de même, selon moi, il en ressortirait des résultats plus équitables. C’est d’ailleurs ce principe qui est retenu en théorie des jeux : chaque joueur choisit la meilleure stratégie en fonction de celle de l’adversaire21.
Pouvoir réagir posément une fois tous les renseignements pris, et pourquoi pas à l’aide d’outils de justice digitale, permettrait de diminuer le sentiment qu’« avec un bon avocat, on est sûr de gagner », dont la triste conséquence est de « ne jamais attaquer une grosse entreprise même si l’on est dans son bon droit ».
Enfin, à propos de l’idée que les humains ne sont pas prêts à accepter une justice sans humains22, on peut noter que certains préfèrent les caisses automatiques ou l’e-mail plutôt que le téléphone et qu’il faudrait une étude plus approfondie avant de conclure.
Notes de bas de page
1 V. A. Garapon et J. Lassègue, Justice digitale, Paris, PUF, 2018, p. 79 : « Nous sommes tous les jours confrontés à ce problème : que l’on songe au simple fait de recevoir un texto qui vient interrompre notre continuité spatio-temporelle vécue et fait graphiquement participer à un autre espace-temps qui n’en réagit pas moins sur notre situation présente. »
2 C. E. Shannon, « Communication in the presence of noise », Proceedings of the Institute of Radio Engineers, vol. 37, no 1, janvier 1949, p. 10-21.
3 V. sur ce sujet le chapitre premier consacré à « la révolution graphique » consommée par le développement du numérique.
4 V. par exemple Lorenz J. Halbeisen, Combinatorial Set Theory : With a Gentle Introduction to Forcing, Londres, Springer, 2007.
5 W. Diffie et M. Hellman, « New directions in cryptography », IEEE Transactions on Information Theory, vol. 22, no 6, 1976, p. 644-654.
6 Sur ce thème, v. le chapitre 5 de l’ouvrage, « La blockchain, révolution dans la révolution ».
7 V. not. p. 33.
8 Sur l’indétermination du droit, v. p. 161 le paragraphe intitulé « Les mérites de l’incertitude ».
9 V. E. L. Post, « A variant of a recursively unsolvable problem », Bulletin of American Mathematical Society, vol. 52, 1946.
10 V. K. Gödel, « Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme », Monatshefte für Mathematik und Physik, vol. 38, 1931, p. 173-198.
11 V. par exemple la fonction d’Ackermann.
12 V. Justice digitale, p. 233.
13 V. P. Kurka, « Topological and symbolic dynamics », Société mathématique de France, 2003.
14 V. Justice digitale, p. 62.
15 V. ibid., p. 37 : « En réalité, il s’agit d’une prise de pouvoir… des informaticiens. »
16 V. ibid., p. 264 : « l’immense énergie qui a été déployée […] pour alphabétiser les populations et rendre crédible le principe que “nul n’est censé ignorer la loi” ».
17 Diplôme universitaire de technologie, de niveau bac + 2.
18 V. Justice digitale, p. 79.
19 V. ibid., p. 222.
20 V. ibid., p. 352.
21 On a bien un phénomène de serpent qui se mord la queue puisque l’élaboration de la stratégie dépend de la stratégie adverse, qui dépend elle-même de la stratégie… La nécessité de résoudre ce phénomène est à l’origine de l’intérêt d’étudier la théorie des jeux.
22 V. Justice digitale, p. 135 : « Encore faudrait-il que [la justice prédictive] soit reconnue par les humains comme juste. Que serait en effet une justice qui ne s’adresserait pas au sentiment de justice, à ce qu’il y a d’humain dans les humains ? »
Auteur
Professeur des universités et enseignant-chercheur en informatique à l’université Paris-Est Créteil
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Lien familial, lien obligationnel, lien social. Livre I
Lien familial et lien obligationnel
Caroline Siffrein-Blanc, Jean-Philippe Agresti et Emmanuel Putman (dir.)
2013
Vers une laïcité d’intelligence ?
L’enseignement des faits religieux comme politique publique d’éducation depuis les années 1980
Philippe Gaudin
2014
Les robots
Regards disciplinaires en sciences juridiques, sociales et humaines
Julie Grangeon et Marylou Françoise (dir.)
2020
Varia autour de Justice digitale
À propos de l’essai coécrit par Antoine Garapon et Jean Lassègue
Samuel Benisty (dir.)
2021
Le renouvellement des sources du droit
Illustrations en droit de la communication par internet
Boris Barraud
2018