Constatations
p. 23-28
Texte intégral
3.1. Cohésion du champ
1La première constatation que l’on peut faire à la suite des discussions et des échanges que nous avons eus, c’est qu’il existe un ensemble de références communes à la plupart des chercheurs sollicités, du moins pour tout ce qui concerne les trois premières parties. Cela suggère deux conclusions.
2D’une part, une collectivité scientifique s’est formée autour de ces nouveaux objets technologiques. On ne saurait dire, à proprement parler, qu’il y a une discipline scientifique unique, car les horizons sont parfois très éloignés et la formation scientifique originaire varie trop d’un secteur à l’autre. Mais une culture partagée autorise des échanges et des collaborations. Et des préoccupations communes traversent l’ensemble du champ.
3D’autre part, si cette culture est partagée par les spécialistes des composants, de l’algorithmique, de la programmation, des réseaux, de l’intelligence artificielle, des interfaces, de la communication homme-machine, de la sociologie des usages, des sciences du langage, etc., il semble qu’il n’en aille pas de même avec quelques secteurs des sciences sociales dont les contributions apparaissent relativement hétérogènes par rapport au reste. Qui plus est, certains domaines, touchant par exemple à l’éthique ou à la guerre électronique, sont peu abordés aujourd’hui par les chercheurs. Peut-être faudrait-il avoir des actions incitatrices dans ces directions ?
3.2. Complexité et quantité
4Deuxième constatation, les chercheurs font face à deux défis majeurs.
5Premier défi, celui de la complexité des procédures de traitement de l’information. Aujourd’hui, les systèmes informatiques se composent d’une multitude de sous-systèmes, eux-mêmes composites, de sorte que notre intelligence ne parvient pas à appréhender l’ensemble dans une vision synoptique claire. De plus, les différentes parties de ces systèmes interagissent dans une grande multiplicité d’interactions que l’on formalise avec difficulté. D’où une remise en cause profonde de l’algorithmique et des méthodes de modélisation et de validation afin de maîtriser la complexité de tels assemblages.
6Deuxième défi, celui de la masse d’information, de données et de connaissances à traiter, à stocker et à retrouver. Là encore, la grande quantité pose des problèmes nouveaux : comment se repérer dans cette profusion ? Comment appréhender de telles masses ? Comment les traiter ?
7Et ces deux défis sont d’autant plus difficiles à relever que les délais de rétroaction entre la recherche fondamentale, la R & D – recherche et développement –, le transfert et l’innovation se raccourcissent.
8L’énoncé de ces deux défis a un corollaire : pour apporter une contribution scientifique à la résolution des problèmes contemporains, on doit désormais valider cette contribution en « vraie grandeur », sur des problèmes tests dont les dimensions sont analogues à celles des problèmes que l’on veut résoudre, car la difficulté réside précisément dans la capacité à affronter la complexité et les très grands nombres. Par exemple, pour aborder des questions de langage naturel ou de fouille de données, il faut le faire sur des grandes quantités de données, ce qui demande d’accéder à des ressources précieuses et volumineuses, de maîtriser un ensemble de techniques et de disposer d’un temps assez long pour opérer les validations, toutes choses difficilement compatibles avec l’isolement de petites équipes, dans de petits laboratoires universitaires. De plus, le coût de mise en œuvre de ces ressources excède considérablement celui de la recherche elle-même.
9Deux conclusions découlent naturellement de ce que nous venons de voir.
10La première porte sur les fondements : une réflexion épistémologique, conduite par les scientifiques eux-mêmes, sur la nature des procédures de validation qu’il convient de mettre en œuvre, en particulier des validations expérimentales, aiderait à mieux cerner le statut de ces expériences d’un genre nouveau, à en préciser la légitimité scientifique et à mieux définir les exigences de rigueur requises.
11La seconde est relative à la centralisation des moyens : une coordination nationale, voire européenne, faciliterait bien des choses en mettant à la disposition des chercheurs toutes les ressources nécessaires à la validation. Des actions ont été lancées dans ce sens pour certaines problématiques, en particulier pour quelques aspects du traitement du langage naturel ou de l’apprentissage humain. Il serait souhaitable d’amorcer d’autres actions institutionnelles dans cette direction.
3.3. Centralité de la communication
12Troisième constatation, parmi les trois termes, information, communication et connaissance, dont nous avons dit qu’ils étaient indissociables, ou plus exactement que chacun reçoit un éclairage spécifique de par sa relation avec les deux autres, on remarque aujourd’hui que le terme communication prend une position centrale. En effet, la plupart des thématiques de recherche ont été profondément renouvelées par la présence d’Internet ou par les réseaux mobiles.
13Actuellement, le traitement de l’information se conçoit essentiellement en regard de l’échange d’information et de la distribution des calculs sur plusieurs machines distantes. Le concept de « grille de calcul » en est l’illustration la plus frappante. De même, bien des problèmes de programmation portent sur la répartition de calculs complexes entre différentes machines sur le réseau, ou sur la distribution de composants logiciels qui doivent pouvoir fonctionner sur n’importe quelle machine.
14La connaissance ne peut, elle non plus, être envisagée indépendamment de son accessibilité et de sa répartition sur le réseau. Par exemple, la veille technologique se fait en grande partie à partir de données accumulées sur la toile qu’il faut rassembler et indexer en fonction de besoins spécifiques. Les bases de données ne se conçoivent désormais que distribuées et accessibles à distance, sur des objets mobiles. Les interfaces homme-machine et, plus généralement, les interactions entre hommes et machines ne sauraient s’envisager indépendamment d’un réseau d’ambiance et sans relation avec d’autres objets communiquant. La notion de mobilité apparaît donc centrale aujourd’hui.
15Enfin, tous les problèmes de preuves ou de validation sont envisagés eu égard à l’interconnexion des machines sur les réseaux et à l’incroyable complexité qui résulte de cette interdépendance.
3.4. Thèmes récurrents
16Au regard des contributions reçues et des discussions que nous avons eues, certains thèmes transverses se dégagent comme saillants et novateurs. Ce sont là bien évidemment des perspectives qui demandent à être replacées dans le contexte actuel et qui ne signifient nullement qu’il faut abandonner l’ancien. Ainsi, les questions relatives aux notions de calcul, d’inférence, de modèle ou de représentation demeurent. Mais il semble que, pour les aborder aujourd’hui, il convienne de reformuler un peu les choses. En d’autres termes, il arrive que l’accent soit déplacé et que des questions anciennes cèdent, pour un temps, l’avant-scène à d’autres questions apparemment nouvelles, et éventuellement moins bien formulées.
17Ces déplacements apparaissent centraux, car ils correspondent aux évolutions présentes ; ils témoignent des difficultés rencontrées et des tentatives conduites pour les surmonter. Au surplus les colloques, les rencontres, les débats, une grande part de la vie sociale des scientifiques s’anime autour de ces thèmes. C’est la raison pour laquelle il apparaît nécessaire de les mentionner ici.
18Ces thèmes sont transverses en ce sens qu’ils sont mentionnés plusieurs fois, dans des contributions différentes, portant sur des questions éloignées. Ils sont saillants, car ils font l’objet de beaucoup de manifestations scientifiques. Ils sont neufs, puisque leur statut a considérablement évolué dans les dix dernières années.
Réseau(x)
19Si l’on part du cœur, à savoir de la communication, on a le premier thème : le (ou les) réseau(x), ce qui comprend à la fois la toile et les réseaux privés, avec les différents supports, les réseaux sans fils, les objets communicants, etc.
20Indubitablement, cette thématique est au cœur des préoccupations de la plupart. Qu’il s’agisse de programmation, de preuve ou de validation de systèmes, de recherche d’information, de bases de données, de communication, tout est centré autour du réseau. À partir de cette problématique centrale, quatre thématiques périphériques semblent se dégager : les ontologies, le Web sémantique, la fouille de données et les usages.
Ontologies
21Comme nous l’avons dit, les ontologies sont des terminologies enrichies de relations de synonymies, d’hyponymie et d’hyperonymie entre les termes, voire parfois de processus d’inférence plus complexes. On mentionne les ontologies en représentation des connaissances où elles apparaissent aujourd’hui comme un élément clef, aux dépens de la notion de formalisme de représentation des connaissances. Elles sont vues comme déterminantes en ingénierie des connaissances, pour les bases de données intelligentes, dans le traitement du langage naturel et pour le web sémantique. Notons toutefois que l’accent fort mis aujourd’hui sur la notion d’ontologie n’équivaut nullement à un abandon des problématiques anciennes sur les formalismes de représentation des connaissances ou sur les mécanismes d’inférence. Il semble simplement que les ontologies renouvellent partiellement la façon dont les problèmes étaient posés et qu’elles permettent de les affronter sous un jour différent.
22Soulignons que les enjeux sont d’autant plus importants que les systèmes d’information régissent désormais la vie de toutes les organisations (hôpitaux, administrations, etc.) et qu’ils devraient, à l’avenir, se fonder sur des ontologies. Déjà, les systèmes d’information médicaux de la plupart des pays développés se construisent sur une ontologie unique imposée comme norme.
Web sémantique
23Donner sens à l’information stockée sur la toile et l’enrichir de façon à l’utiliser au mieux de ses besoins, en s’aidant éventuellement de robots virtuels, tel est l’objectif affiché par les tenants du web sémantique. Derrière cette finalité, beaucoup de questions portent sur la représentation, sur la structuration et la recherche des informations, sur les formalismes de description et sur les procédures d’accès d’une part, sur la composition, l’orchestration et la découverte de services disponibles sur la toile d’autre part.
Fouille de données
24Extraire des connaissances utiles à partir de grandes quantités d’information disséminées soit sur la toile, soit dans des entrepôts de données, voici un défi moderne qui répond aux aspirations et aux besoins de beaucoup. Les assurances, les banques, les firmes pharmaceutiques sont les premiers demandeurs. Toutefois, au cours de cette exploitation des données, on risque de se méprendre sur la portée des corrélations observées. Il convient donc d’établir avec certitude les principes logiques et statistiques sur lesquels on peut fonder les procédures d’induction.
25Profitons de cette remarque sur la légitimité des procédures d’induction formelle pour dissiper d’éventuels malentendus en précisant le sens de certains termes : l’inférence, entendue au sens usuel de manipulation d’expressions formelles, doit se distinguer de l’inférence statistique qui est une forme d’induction statistique. Ainsi, si comme nous l’avons déjà dit, l’inférence, en tant que telle, n’apparaît plus au cœur des préoccupations actuelles, en revanche l’inférence statistique et plus généralement toutes les formes de preuves approximatives prennent une part de plus en plus importante tant en intelligence artificielle, pour la modélisation du raisonnement ou pour la fouille de données, qu’en traitement du signal ou dans la théorie de la preuve.
Usages
26Dernier thème référencé régulièrement, en particulier par les concepteurs des réseaux de télécommunication, qui se demandent à quels besoins répondent leurs techniques, ou par les spécialistes des interfaces homme-machine, ou encore par les sociologues de l’innovation : les usages, ou plus exactement, l’étude des usages et des modes d’appropriation des nouvelles technologies par leurs utilisateurs. Deux types d’approches sont plus ou moins confondus lorsqu’on parle d’usage. Les approches du premier type répondent au besoin d’« humaniser » des technologies en recourant à des principes d’ergonomie ou à ce que les Anglo-Saxons appellent les facteurs humains (human factors en anglais), afin d’adapter ces technologies aux capacités des hommes interagissant avec elles. Les approches du second type correspondent à un mode de conception des objets industriels dans lequel on prend en considération l’appréciation des utilisateurs, ou ce que l’on appelle en termes techniques les retours d’usage. Ce terme fait alors implicitement référence à la notion de conception centrée sur l’utilisateur qui porte ses fruits depuis plus de quinze ans dans la réalisation d’interfaces. Bien évidemment, ce mode de conception centré sur l’utilisateur a une incidence directe sur l’organisation de l’entreprise, sur ses circuits de décision et sur la place qu’y prennent les services de recherche et développement.
27À cet égard, soulignons que l’étude des usages est restée relativement marginale en France, en dépit d’une politique assez volontariste des organismes de recherche depuis quelques années. Beaucoup de connaissances existent, mais elles sont difficilement accessibles ; les communautés scientifiques travaillant dans ce secteur demeurent morcelées. Il y a, à cela, des raisons structurelles que l’on tente de surmonter en créant des structures idoines. Mais les résultats ne permettent pas encore d’évaluer le fruit de ces efforts.
3.5. Position de la France
28Au terme de cette synthèse, voici brossée à gros traits quelques remarques sur la recherche dans le secteur Sciences et Technologies de l’Information et de la Communication, en France, telle qu’elle nous est apparue suite aux débats que nous avons eus dans le cadre de la rédaction de cet ouvrage.
29En tout premier lieu, il faut insister sur l’existence d’une constellation de communautés scientifiques qui étudient les technologies de l’information et de la communication. Ces communautés se réunissent régulièrement. Elles nouent des contacts de proximité très étroits entre elles. Leurs échanges et leurs productions témoignent d’une grande vitalité. Des projets nationaux (RNRT, RNTL, RIAM, AGI, RTP...) et européens leur ont permis d’acquérir une visibilité internationale et des contacts industriels. Les entreprises les plus avancées dans le domaine des nouvelles technologies (Xerox, Sony, etc.) ont installé des laboratoires de recherche en France. On a dénombré, fin 2001, plus de 60 « start-up » en activité créées en France par des chercheurs français travaillant dans le domaine des TIC. Il y a donc un certain nombre de sujets de satisfaction.
30Toutefois, pour arriver au plus haut, se faire reconnaître et respecter de tous nos partenaires, en particulier de nos collègues nord-américains, japonais ou australiens, et s’imposer dans les institutions internationales qui fixent les normes d’usage, il convient de valider pleinement les travaux qui sont conduits, avec des expérimentations convaincantes, et d’investir les instances scientifiques internationales.
31Or, dans beaucoup de domaines, la petitesse et la dispersion des équipes spécialisées y font obstacle. C’est du moins ce qui ressort de nos discussions.
32Pour remédier à cet état de choses, il faudrait aider des équipes compétentes, comprenant plusieurs personnes en poste dont des chercheurs ou des enseignants-chercheurs expérimentés, à se structurer et à poursuivre dans une même direction de recherche sur plusieurs années. Aujourd’hui la plupart des équipes, surtout les équipes universitaires associées au CNRS, fonctionnent avec un ou deux permanents et quelques doctorants. De plus, les politiques incitatrices conduites ces dernières années ont parfois eu tendance à disperser les efforts des chercheurs. En effet, la multitude d’appels d’offres, la création de jeunes équipes au sein de laboratoires, le manque de concertation entre les différents programmes nationaux de recherche, la remise en cause des financements avant terme, la quasi-absence d’évaluation a posteriori, tout ceci a eu assez souvent pour conséquence de déstructurer les noyaux existants.
33Il conviendrait donc de renforcer des petites équipes déterminées, avec plus de chercheurs confirmés, et de les inciter à afficher clairement une direction de recherche sur plusieurs années et à la préserver. Pour cela, deux mesures semblent souhaitables.
34La première serait de promouvoir des projets d’équipe avec des financements pluriannuels et des évaluations systématiques. Notons au passage que la création de gros laboratoires de recherche conduit progressivement à une disparition de l’évaluation scientifique : l’évaluation globale des laboratoires ne se fait plus que sur un plan gestionnaire, sans que les projets scientifiques des équipes constituant les laboratoires soient discutés de façon précise.
35Une deuxième mesure passerait par la promotion de financements postdoctoraux. Grâce à eux, des jeunes doctorants auraient la disponibilité requise pour valider pleinement les hypothèses qu’ils ont énoncées dans leurs travaux de thèse, et pour les faire connaître de par le monde.
36Par ailleurs, il conviendrait de structurer la recherche au plan national et européen en constituant des réseaux de compétences.
37Il faudrait aussi conduire une réflexion sur les procédures de validation des travaux scientifiques, sur le statut épistémologique des expérimentations et sur leur coût.
38Enfin, et surtout, on doit centraliser au plan national ou européen les moyens de façon à mettre à la disposition de tous les chercheurs d’une communauté les ressources nécessaires à la validation des outils développés. En effet, comme nous l’avons vu, il arrive souvent que l’investissement technologique nécessaire pour aborder les compétitions internationales, ou simplement pour valider certaines idées, soit tel que des équipes isolées sont découragées devant l’effort à fournir.
Auteurs
Professeur, Université Pierre et Marie Curie (Paris VI) LIP6 – Laboratoire d’informatique de Paris 6, 8, rue du Capitaine Scott, 75015 Paris
Directeur de recherche CNRS, Neurosciences cognitives et imagerie cérébrale LENA – CNRS UPR 640, Hôpital de la Salpêtrière, Paris, 75651 Paris cedex 13
Professeur, Université Paris Sud (Paris XI), LRI – Laboratoire de recherche en informatique, Bâtiment 490, 91405 Orsay cedex
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Communication et connaissance
Supports et médiations à l’âge de l’information
Jean-Gabriel Ganascia (dir.)
2006