Partie 1. Les E3C d’hier à aujourd’hui
p. 15-70
Texte intégral
Cela fait maintenant plus de dix ans que des dispositifs techniques enrichissent les modes de communication : mail, forum, wiki, plate-forme collaborative... Tous ces dispositifs renouvellent sans cesse les questions sur la gestion des informations et au-delà des connaissances, du capital intellectuel, de la mémoire ou de l’intelligence collective, du travail en réseau et collaboratif... Tous ces champs renvoient eux-mêmes, plus ou moins directement, au champ de la communication des savoirs. Plusieurs se sont emparés de ces questions et paradoxalement les travaux en sciences de l’information et de la communication (SIC) restent marginaux alors que l’on admet aujourd’hui que les informations essentielles pour le succès d’une organisation, résident dans les relations (Brown et Duguid, 1991).
S’il est question de relation, nous en verrons dans ce premier chapitre les aspects pragmatiques, sociaux et pédagogiques, sans toutefois nier les aspects psychologiques et cognitifs qui s’y entrecroisent.
De l’EAO aux ENT
L’enseignement assisté par ordinateur
Les années soixante-dix voient l’introduction de l’enseignement assisté par ordinateur (EAO) et des didacticiels dans les espaces de communication des connaissances, c’est-à-dire les classes. Le didacticiel peut être défini comme un ensemble de ressources qui propose une situation d’apprentissage fondée sur l’interaction entre un programme informatique et un utilisateur. Il met en relation des contenus, des situations, une ou plusieurs stratégies d’apprentissage.
Globalement ces produits de l’EAO étaient destinés à beaucoup et adaptés à chacun. En fait, l’éventail des activités possibles était vaste mais chaque système était fermé par un choix de réponses restreint à celles interprétables par le programme. Ils étaient considérés comme des environnements favorisant peu l’initiative de l’élève et très spécialisés dans leurs objectifs pédagogiques. Pour l’EAO, transmettre des connaissances consistait à aller du simple au « complexe » selon une « progression » fixée à l’avance : refaire, relire la consigne, « puisqu’apprendre c’est recommencer l’exercice », et cependant individualiser car « il y a des élèves plus lents que d’autres ». L’apprentissage se faisait suivant une progression linéaire impliquant une interaction à travers les messages dispensés par la machine que l’élève devait être capable d’interpréter. C’est ce que les concepteurs appelaient « la rétroaction » et qui était censée remédier aux erreurs de l’élève. Pendant cette progression, l’élève ne disposait que d’une certaine autonomie au niveau du temps, ce qui correspondait à deux canons pédagogiques : l’individualisation et l’autonomie dans les apprentissages.
L’EAO et les didacticiels n’ont été que des reflets de la méconnaissance des processus, des logiques de l’apprenant et l’accentuation d’une pédagogie impositive centrée sur des procédures et des affirmations pédagogiques en l’absence de toute analyse des connaissances.
Ils mettaient en relation un programme informatique et un utilisateur à travers une présentation de contenus, de situations, d’une ou plusieurs stratégies d’apprentissage. Si l’éventail des activités possibles était vaste, chaque didacticiel était fermé par un choix de réponses restreint à celles représentatives des procédures expertes interprétables par le programme.
L’objectif était ici une individualisation de l’enseignement de type préceptorat dans lequel la progression pédagogique était construite grâce aux entretiens avec les experts du domaine qui permettaient de découper les connaissances afin d’obtenir des leçons, de durée limitée, adaptées au fonctionnement du programme. Ce découpage pédagogique pensait les phénomènes d’enseignement dans ce qu’ils ont de généralisable avec une homogénéisation, a priori, des niveaux des élèves, des modalités de l’apprentissage. D’ailleurs, pour un bon fonctionnement du programme, on pouvait réduire la taille des leçons et donc en augmenter le nombre, afin de couvrir le même enseignement. La stratégie pédagogique reposait sur des principes qui favorisaient la répétition, la correction et le contrôle si bien qu’à la fin de chacune de ces leçons, une évaluation des performances de l’élève était faite. Ceci était d’autant plus aisé que l’informatique permet de systématiser une logique pédagogique centrée sur des démarches, quels que soient les contenus. Elle permet aussi de systématiser les fonctions d’encadrement, d’information, d’éveil et, pour finir, permet de contrôler et d’apprécier les résultats. Assoicée à la logique pédagogique, la progression ne dépendait pas de l’élève ni d’une analyse épistémologique. L’évaluation aboutissait à définir chaque moment de l’apprentissage par la distance (ou le temps) qui le sépare du moment final et caractérise l’apprenant parce qu’il ne sait pas encore.
Dans ce contexte, la progression dans le programme était conçue suivant des a priori qui prévalaient dans l’enseignement programmé : l’élève progresse par étapes successives ; la progression ne peut avoir lieu qu’après l’acquisition de l’étape précédente ; un comportement donné est révélateur d’un apprentissage ; l’apprentissage se limite à la construction et au renforcement de comportements. L’individualisation traduit ces dernières idées et se manifeste par la possibilité : de choisir un contenu donné, de cheminer en fonction des réponses, de laisser un temps variable selon les élèves. Dès lors, l’interactivité individualisée était fondée sur la différence de temps mis pour répondre, et les rétroactions ne pouvaient que confirmer ou infirmer cette réponse en la comparant à celle qui était prévue.
Ce premier constat et le peu de consensus parmi les éducateurs et les experts sur les meilleures techniques éducatives (Rosenberg, 1987) ont été à la source du débat entre les prosélytes d’environnements inscrits dans une approche béhavioriste de l’apprentissage et les partisans d’un apprentissage ouvert sur la découverte et l’autoformation. Les uns pensent que l’ordinateur est essentiellement un outil efficace pour l’entraînement et la répétition des séquences d’enseignement (Curran & Curnow, 1985) ; les autres, qu’il est un support pour médiatiser un environnement dans lequel l’enfant reconstruit des connaissances qui progressivement l’amènent à s’approprier la genèse d’un savoir spécifique (Papert, 1981). Cette séparation était d’autant plus grande, qu’à l’époque, les recherches sur les tutoriels intelligents semblaient être dans une impasse et recherchaient un compromis avec les nouvelles technologies hypermédiées (Leclercq, 1991). Le débat initial était donc ravivé par le fait que la conception de systèmes informatiques capables de cerner les connaissances de l’apprenant faisait naître de nombreuses questions et particulièrement celle d’une solution technique optimale réalisable.
Dès le début des recherches liant apprentissage et informatique, la question cruciale a été celle de la relation « homme-machine » et de l’interaction entre l’utilisateur et la machine. Elle était en effet révélatrice du modèle implicite d’apprentissage implémenté et du découpage qu’elle proposait dans chaque domaine de connaissance. Le problème résidait déjà dans la mise en place d’une interaction qui assure une fonction facilitatrice à l’occasion de la confrontation des représentations internes de l’apprenant aux objets représentés et ainsi favoriser l’apprentissage. Apprentissage qui ne correspondrait pas à l’assimilation passive d’un savoir « tout fait » répondant à des objectifs pédagogiques prédéterminés, mais qui s’inscrirait dans l’élaboration d’outils cognitifs permettant la manipulation de connaissances. Dans ce contexte d’apprentissage informatisé, tout ceci relançait les trois questions fondamentales que Self (1974) avait déjà posées : à qui enseigner ? comment enseigner ? quoi enseigner ?
Environnements intelligents d’apprentissage avec ordinateur
Avec les environnements intelligents d’apprentissage avec ordinateur (EIAO) des années quatre-vingt, on voit apparaître des techniques de l’intelligence artificielle (IA) dans l’EAO afin de prendre en compte des notions issues des sciences cognitives. Le domaine de l’EIAO se situe alors au carrefour de divers champs de savoir : informatique, didactique, psychologie, sciences de l’éducation... Sa problématique générale était de concevoir et de réaliser des outils informatiques avancés pouvant s’insérer efficacement dans des processus d’apprentissage existants ou à mettre en place.
Entre les années soixante-dix et quatre-vingt, se sont développés de nombreux modèles alternatifs (O’Shea & Self, 1983) qui montraient une tendance à s’éloigner du modèle béhavioriste et à se rapprocher du modèle cognitiviste de l’apprentissage. Le choix d’une approche constructiviste dans un cadre général interactionniste semblait s’imposer. L’apprenant construit une connaissance structurée en répondant aux informations et stimuli de l’environnement, il explore son environnement et participe activement à la construction de l’espace, du temps et de la causalité. Dans ce contexte, l’acquisition de connaissances d’un individu était considérée comme le résultat d’un processus complexe qui fait passer l’apprenant d’un état cognitif initial, reflet d’une situation particulière, à un état plus adapté à une autre situation. Le choix de l’interaction avec l’apprenant était encore déterminé à partir d’une interprétation de son comportement, d’un fonctionnement ou d’un dysfonctionnement qui provoquait le choix de la stratégie informatique.
Généralement, la conception d’un système d’EIAO supposait que soit défini un modèle cognitif minimal de l’élève qui réponde à deux fonctionnalités minimales. La première choisit et gère la nature des communications entre le système et l’utilisateur ; la seconde gère le contenu des interventions didactiques (Cauzinille & Mathieu, 1988).
En fait, l’EIAO supposait nécessairement la définition d’un modèle cognitif de l’élève, afin d’individualiser les interventions tutorielles et ne se détachait pas des conceptions pédagogiques (« il faut que le niveau de réussite soit suffisant pour qu’il y ait passage à l’étape suivante »). On déterminait donc en premier l’état initial de l’apprenant, et c’était par rapport à cet état initial que les interventions étaient individualisées. Globalement, on trouvait ici les a priori pédagogiques de l’EAO. Les informations sur la (ou les) représentation(s) de l’apprenant étaient indispensables pour gérer l’interaction apprenant-système et déterminer la nature et le contenu des interventions pédagogiques ou didactiques. Le domaine de connaissances déterminait les aspects qui étaient à privilégier dans le modèle cognitif de l’élève (Wenger, 1987) et ainsi, selon les systèmes, les caractéristiques des modèles cognitifs des apprenants étaient différentes. Ils pouvaient être caractérisés par le repérage des connaissances manquantes, en référence à un modèle expert (Brown, Burton & De Kleer, 1982 ; Clancey, 1987), par des compétences élémentaires, correctes ou incorrectes (Burton, 1982 ; Sleeman, 1982), par des stratégies de résolution (Johnson & Soloway, 1987).
L’élaboration d’un modèle fonctionnel cherchait les conceptions ou les misconceptions de l’élève dans un système global de croyances dans le domaine considéré, mais aussi croyances de l’élève sur sa propre connaissance. On passait donc d’un modèle élève, plutôt de type statique, à un modèle apprenant de type dynamique qui devait représenter l’évolution dans la phase d’apprentissage. Cette nouvelle vision du modèle de l’élève a marqué la différence avec l’EAO. Elle proposait une modélisation générale qui distinguait, dans toute analyse de problème, un espace de la tâche (task environment) et un espace du problème (problem environment). L’espace-tâche était la description objective que peut donner l’observateur extérieur. Il était définissable en termes d’ensemble des états possibles et de transformations de ces états en vue de l’atteinte progressive de l’état final souhaité en termes d’objectifs et de sous-objectifs. L’espace-problème était la représentation subjective du problème par l’individu. Il était fonction de ses connaissances antérieures et de sa compréhension de l’énoncé. Cette approche demandait donc que le problème soit reconnu et posé d’une façon pertinente par rapport à la situation et à la tâche concernée avant qu’on ne tente de le résoudre. Partant de ce constat, il devenait primordial pour l’EIAO de modéliser les représentations que peut avoir un apprenant de l’espace problème. Toutefois, considérer l’apprenant comme agent actif dans l’élaboration de ses connaissances plaçait l’EIAO devant des difficultés considérables lorsqu’il s’agissait de définir un « modèle de l’apprenant » qui serait la représentation pour la machine de celui-ci, à partir de ses caractéristiques et performances passées mémorisées, en vue d’une meilleure adaptation des décisions pédagogiques à un parcours individualisé qui ferait passer l’apprenant de l’état de novice à celui d’expert (Dreyfus & Dreyfus, 1989). Le modèle de l’élève a donc évolué grâce à l’apport des recherches en psychologie et en didactique. On n’observe plus le résultat mais les transformations successives que la connaissance initiale subit avec un nouveau questionnement : celui du diagnostic (Wenger, 1987) qui se réfère à une activité pédagogique qui vise à collecter et inférer des informations sur l’élève ou ses actions.
Pendant cette période, les approches développées, le dialogue homme-machine et plus largement l’interactivité, se fondaient essentiellement sur les bases de la technique informatique (visualisation, changement de couleurs, multifenêtrage...). Il était question d’une relation instrumentale entre l’homme et des machines asservies à sa demande d’information (Sansot, 1985). La plupart des travaux sur ce sujet ne prenaient pas suffisamment en compte les situations dans lesquelles le dialogue était mis en jeu. Par exemple, les logiciels conçus pour une utilisation individuelle étaient utilisés de façon collective (généralement à deux) dans les classes. Dans ces conditions, les contraintes de communication liées à la réalisation de la tâche étaient négligées, les modes de régulation et de contrôle de l’activité effectivement exercés par les élèves dans ces situations de résolution collective n’étaient pas pris en considération. Dès lors, on pouvait se demander si les effets didactiques visés a priori étaient réalisés ? Dans ce contexte, la construction d’une interface et le choix de l’environnement informatique se révélaient être un problème décisif encore présent de nos jours :
Comment construire des situations définies par les connaissances que l’on désire transmettre, ou par celles que l’élève doit reconstruire ?
Quels moyens sont nécessaires à la transmission de ces connaissances ?
Comment définir les critères d’accessibilité aux informations détenues par le système au moment où l’individu a besoin de les utiliser ?
Sous quelle forme (imagée ou verbale, écrite ou sonore) présenter l’information ?
Dans cette course à la modélisation, les sciences cognitives et l’IA ont joué un rôle prépondérant et ont inscrit entre deux pôles les programmes intelligents : les tuteurs intelligents, dans lesquels la machine exerce pleinement un rôle de guidage, et les environnements d’apprentissage informatisés, où la machine était avant tout un outil utilisé par l’apprenant pour résoudre des problèmes. Au quotidien, cette dichotomie ne semblait pas si évidente. En effet, on retrouvait bon nombre de produits informatiques qui ont des caractéristiques, des fonctionnalités de chacune des familles : didacticiels, micromondes et tutoriels intelligents.
Les micromondes
C’est dans les années soixante-dix que Théodore Nelson, avec son projet Xanadu, invente les termes d’« hypertexte » et d’« hypermédia1 » et que Seymour Papert, concepteur du Logo, lance l’idée des « micromondes ».
Avec le projet Xanadu2, Théodore Nelson (1974) désirait mettre en place une base de données à l’échelle planétaire fondée sur le concept d’hypertexte. Cette base de données serait incrémentée par les éléments de connaissance produits par chacun des utilisateurs. En fait, prenait forme dans ce projet, l’idée d’un enseignement coopératif grâce à l’utilisation des réseaux informatiques.
Papert (1981) insistait particulièrement sur l’apprentissage non compétitif et sur l’utilisation de l’ordinateur comme instrument de développement individuel. L’appareil doit être accessible aux enfants comme les crayons, les enfants doivent s’en servir pour dessiner, écrire, barbouiller et il doit être un monde où l’on parle « mathématique », comme en France on parle français. Baigné dans ce monde, l’enfant apprend à manipuler son langage, des systèmes formels et mathématiques. Papert appelle ce type d’apprentissage, où l’enfant apprend spontanément quand il est en contact avec les objets à découvrir, « apprentissage à la Piaget » (1967). L’objectif des Micromondes du type Logo était en fait d’appliquer, dans un environnement informatique d’apprentissage, les thèses piagétiennes sur la construction des concepts chez l’enfant durant la phase des opérations concrètes (Papert, 1981 ; Lawler & Yazdani, 1987). L’idée était ici une construction des connaissances par l’élève à travers ses expériences et un apprentissage dont il est le moteur. L’élève était plongé dans un environnement voisin de la réalité, destiné à lui « apprendre à apprendre » par l’expérience ; il devait découvrir lui-même les solutions au problème posé par interaction avec l’environnement. Cette approche laissait à l’élève la possibilité de créer et de manipuler des objets transitoires. Ceci lui devait lui permettre de relier les apprentissages intuitifs et les apprentissages formels (Papert, 1987). Le micromonde était donc un monde virtuel pour l’action créatrice sur des objets de cet environnement commun, à la fois, à des objets formels de la discipline et à des objets plus concrets de l’expérience. La notion de micromonde reposait sur les capacités de conception de l’utilisateur, il ne s’agissait pas d’observer, mais d’agir et de construire à partir de modèles généraux d’apprentissage. C’était donc une représentation sur ordinateur d’un sujet d’étude spécifique qui devait permettre à l’élève d’acquérir des connaissances factuelles dans un certain domaine disciplinaire. L’apprenant testait des hypothèses en modifiant certains paramètres et observait à l’écran les effets produits par la simulation sur ordinateur. Les micromondes ont été construits pour faciliter l’exploration d’un domaine par l’élève qui pouvait lui-même inspecter la structure de l’environnement plutôt que simplement observer ses performances.
Parallèlement, au début des années quatre-vingt-dix, les techniques hypermédias3 (Godinet, http) ont permis aux micromondes de posséder les caractéristiques autorisant un apprentissage par l’exploration. Le premier intérêt des apports des hypermédias a résidé dans la possible complexification croissante de l’activité de l’élève en faisant porter l’activité sur tous les aspects d’un domaine de connaissance et en confrontant l’élève à des environnements de complexité croissante.
Le second intérêt a résidé dans l’élargissement possible du mode de dialogue élève-machine. En effet, l’utilisation d’un hypermédia se faisait en utilisant une interface de manipulation directe sur des objets, ce qui offrait un mode de communication ou d’évolution dans le micromonde plus analogique que le mode analytique lié à un langage de commande. La manipulation des objets a été une notion centrale dans l’apprentissage via les micromondes. En effet, l’élève pouvait, lui-même, évaluer si les résultats obtenus correspondent ou pas à ses attentes, à ses prévisions. La machine assurait ainsi une fonction de médiation entre le représentant et le représenté et à ce titre le micromonde pouvait jouer un rôle actif pour la réorganisation des modes de représentations.
Les systèmes tutoriel intelligent
Les systèmes tutoriel intelligent (STI ; Frasson, 1991) proposaient de modéliser une relation triangulaire entre l’élève, le tuteur et l’expert (Hartley & Sleeman, 1973). Le modèle de l’élève représentait l’apprenant du point de vue de la psychologie cognitive. « Pour savoir à qui enseigner », le système doit avoir un certain nombre d’informations sur l’élève, pas l’élève en général mais l’élève particulier qui se trouve face à lui, il doit reconnaître les connaissances du domaine dont dispose l’élève. Le modèle tuteur représentait globalement la théorie d’apprentissage privilégiée. « Pour savoir quelles stratégies employer en réponse aux informations recueillies par le modèle de l’élève », le système doit avoir un certain nombre d’informations sur comment enseigner. Ce modèle disposait de stratégies de pédagogiques qui choisissaient, planifiaient, les activités présentées à l’élève, de stratégies fondées sur l’organisation des connaissances de la discipline et sur des modèles psychologiques. Enfin, le modèle expert du domaine représentait les connaissances reconnues. « Pour savoir quoi enseigner », le système doit disposer de connaissances expertes.
Divers autres modèles généraux se sont plus ou moins écartés de ce modèle, par exemple : O’Shea et Self (1983) y ont ajouté l’histoire de l’élève ; Anderson (1985) a remplacé le modèle de l’élève par une bibliothèque d’erreurs possibles ; Wenger (1987) a repris les trois modèles en leur donnant une perspective de communication dans laquelle, le domaine était l’objet, l’élève était le récepteur, le pédagogue expert gérait l’aptitude à la communication et l’interface caractérisait la forme de la communication... À ce modèle triangulaire, d’autres auteurs ont introduit la notion d’environnement (Sleeman & Brown, 1982 ; Frasson, 1991 ; Mandl, 1988...). Cet environnement constituait l’ensemble des ressources dont l’utilisateur disposait pour interagir avec le STI : des outils, des jeux, des situations proches des connaissances de l’apprenant, des simulations, des générateurs de graphiques, des disques optiques, des systèmes de gestion de la parole, etc.
Enfin, l’interface-utilisateur a été définie comme le moyen de communication entre l’homme et le système informatique. On l’a appelé interface homme-machine, interface homme-ordinateur ou interface usager (Meinadier, 1991). L’interface est la structure visible du programme que manipulent les usagers, elle recouvre l’ultime couche d’une application, celle par laquelle l’interactivité avec le logiciel est proposée. Son ergonomie est rapidement devenue primordiale car il ne s’agissait pas seulement de savoir avec quelle police ou quelle couleur présenter des informations, mais bien de savoir quelle information il fallait présenter à tel instant ou dans telle ou telle tâche.
D’une « interface de surface », limitée à la manipulation d’objets à l’écran, on est passé à une « interface d’environnement » qui s’intéressait aux « sens » des actions de l’utilisateur. Hutchins, Hollan et Norman (1986) ont tenté d’incorporer le sens d’une action dans un langage d’interface qui planifiait l’intention d’un utilisateur : si l’apprenant rencontre des problèmes de sens pour manipuler les objets à l’écran, alors on peut dire qu’un faible niveau d’interaction a été conçu dans l’interface.
Une interface intelligente devrait être une entité médiatrice entre deux sujets qui possèdent une compréhension incomplète de chacune des communications (Salter, 1988).
Ces évolutions ont été au centre des recherches sur l’interaction élève-machine (IEM). Elles se divisaient en deux sphères conceptuelles qui définissaient ce qu’est une « bonne » IEM (Bento, 1990) : une IEM qui traite en priorité de la routine de travail liée aux interfaces et une IEM en rapport avec la tâche, qui présente une connaissance pendant que l’apprenant est dans une interaction pédagogique avec l’interface.
La réalisation d’un tuteur intelligent nécessitait donc quatre modules : un modèle de la matière qui représentait la connaissance à apprendre du point de vue d’une discipline, un modèle de l’apprenant qui représentait l’apprenant du point de vue de la psychologie cognitive, un modèle du tuteur qui représentait la théorie d’apprentissage privilégiée, une interface appropriée qui permettait la communication entre le système et l’apprenant.
On retrouvait ici l’essentiel de l’EAO auquel on ajoutait « l’expertise pédagogique » qui tentait d’appréhender l’élève à partir des connaissances factuelles et opératoires de l’élève, sa stratégie d’apprentissage et son centre d’intérêt (Nicaud & Vivet, 1988 ; Self, 1987). Ce constat a donné naissance aux programmes de résolution de problèmes ou tuteurs intelligents qui effectuent toutes les tâches décrites plus haut, sans qu’elles aient été explicitement prévues par l’auteur (Quéré, 1991). Pour mieux comprendre cette différence : le didacticiel aura à sa disposition toutes les réponses fausses repérées dans la population cible et les messages à fournir dans chaque cas ; le STI aura à sa disposition une connaissance des raisonnements erronés qui conduisent aux réponses fausses et la possibilité de reconnaître l’utilisation de ces raisonnements par un élève particulier. À partir de ces deux points, il devrait pouvoir engendrer des explications individualisées.
À nouveau, c’était la question de l’individualisation d’un dialogue élève-machine qui se retrouvait au cœur des recherches. Déjà dans les années quatre-vingt, une interprétation des messages de l’utilisateur était faite sous la forme de graphe conceptuel (Sowa, 1984) et dix plus tard, on assistait à l’apparition d’une nouvelle orientation dans l’élaboration d’architectures des EIAO : une architecture fondée sur une représentation des connaissances associant un hypermédia et un tutoriel (Leclercq, 1991). L’hypermédia serait alors une interface qui favoriserait la transformation d’une connaissance grâce à une collaboration élève-machine favorisant l’apprentissage.
Apparaissent alors les tutoriels intelligents hypermédiés. Ces tutoriels ont porté leur intérêt sur des aspects liés à l’interface. Ici les commandes n’étaient plus accessibles par des menus mais par la manipulation d’objets de l’interface. Ces objets avaient alors le statut d’information et celui de commandes (statuts qui étaient distincts dans un tutoriel classique) dans une optique de coopération de deux environnements (le STI et l’hypermédia) et d’un guidage pédagogique de l’utilisateur par le système tuteur (Ritter & Djamei, 1991). L’hypermédia associé à des techniques de gestion de l’information était considéré comme la forme de représentation et d’accès à la connaissance.
Un tutoriel intelligent hypermédié était donc l’intégration dans un même environnement informatique d’un outil hypermédia et d’un outil de type STI. Ce type d’environnement adapte sa façon de présenter les connaissances en fonction d’une notion de profil de l’utilisateur. On retrouvait là, les trois fonctions pédagogiques qui sont : l’encadrement, l’information et l’éveil. En fonction des objectifs pédagogiques, les aides s’effectuaient sous la forme d’explications, de cours (faits de démonstrations et d’exercices), de suggestions sur les actions à entreprendre, de reformulations des énoncés, d’informations sur les connaissances acquises et sur celles qu’il restait à acquérir pour arriver à l’objectif pédagogique donné (Ritter & Djamei, 1991).
Environnements d’apprentissage informatisé
Bien qu’il soit difficile aujourd’hui d’établir une chronologie précise de l’évolution des relations entre l’apprentissage et les avancées technologiques, on admettra que la notion d’environnements d’apprentissage informatisé (EAI) soit apparue à la même époque.
Pour la première fois, ce ne sont pas les techniques novatrices et ce qu’elles permettaient de faire qui ont été le moteur de l’évolution mais bien ce que les chercheurs et praticiens ont fait des techniques du moment appliqué à une nouvelle approche des situations d’apprentissages : « l’environnement ».
L’environnement d’apprentissage est alors défini comme un lieu réel ou virtuel dans lequel l’apprenant utilise un ou plusieurs systèmes interagissant dans un but commun : l’apprentissage. D’ailleurs, le passage d’« Enseignement » à « Apprentissage » recentre la problématique de la construction d’un savoir par l’apprenant plutôt que sur la transmission du savoir par l’enseignant. Parallèlement on s’éloigne des conceptions individuelles de l’apprentissage dans lesquelles les didacticiels (EAO) et tutoriels (EIAO) parlaient à tous et à chacun.
Les environnements informatisés sont alors fondés sur la métaphore de la « salle de classe » qui définit un lieu et une durée qui organisent des activités (Wilson, 1996) fondées sur l’exploration, l’initiative et la liberté de choix. L’environnement d’apprentissage devient « l’espace d’interactions » (Dillenbourg & Mendelsohn, 1992) qui peut se décrire de deux façons : soit en tant qu’espace des interactions, soit en tant qu’interaction entre deux espaces, celui des représentations et celui de l’action. Cette idée d’espace d’interaction est particulièrement liée à la vision collaborative de l’apprentissage et au rôle que joue la communication dans la compréhension des situations qui sont étudiées par les recherches du moment (cf. Dillenbourg et al., 1996). En effet, que ce soient les connaissances, les énoncés de problème, les propositions de solutions... tous les moments de la vie d’un tel espace relèvent d’un consensus social partagé à un moment donné du contexte sociohistorique (Resnick, 1991). Deux approches sont alors mises en avant, la première approche socioconstructiviste, est issue du courant piagétien ; la seconde, du courant vygotskien.
Les perspectives structurales du conflit sociocognitif et de la genèse de l’intelligence ont pour origine les travaux de Doise, Mugny, Perret-Clermont et Carugati (Doise & Mugny, 1981 ; Doise, Mugny, & Perret-Clermont, 1975 ; Perret-Clermont, 1976 ; Mugny, Doise, & Perret-Clermont, 1976 ; Mugny, 1985). Pour ces auteurs, la genèse de l’intelligence, dans le cadre des stades et sous-stades décrits par Piaget, relève de l’interaction dans laquelle le « conflit » joue un grand rôle. Toutefois, c’est la nature de ce dernier et des processus par lesquels il est générateur de progrès, que la théorie du « conflit sociocognitif » se démarque de la théorie piagétienne. L’interaction avec autrui fournit des informations qui aident dans l’élaboration d’une nouvelle réponse, ce qui se produit notamment dans les couples avec des niveaux de connaissances différents, surtout lorsqu’un des deux partenaires est capable de fournir des directives opératoires (cf. Agostinelli, 1994, 1999a).
Avec cette théorie, les informations différentes données par les individus (que l’on réduit à leur dimension cognitive par le terme de « sujet ») pendant l’interaction sont déterminantes du progrès. Elles sont génératrices d’un processus de conflit sociocognitif qui provoque un double déséquilibre : le déséquilibre interindividuel entre deux sujets que leurs informations opposent ; le déséquilibre intra-individuel, du fait de la prise de conscience d’une autre information, incite à « douter » de ce que l’on pensait « exact ».
Toutefois, il convient de ne pas réduire le problème de l’apprentissage à un problème cognitif intra-individuel. C’est bien la nature fondamentalement sociale de l’activité (et particulièrement celle de résolution de problèmes) qui oblige les sujets à négocier leurs points de vue afin de parvenir à un accord. C’est donc un processus de négociation qui est le moteur de l’apprentissage.
Les perspectives vygotskiennes s’intéressent à la dynamique existante entre les interactions sociales et les modifications cognitives individuelles. C’est le processus individuel d’intériorisation de l’activité sociale qui conduit à l’apprentissage. Cette position modifie donc le regard que Ton porte dans l’espace d’apprentissage, ce n’est plus le processus individuel de construction des connaissances qui est favorisé mais les relations interindividuelles qui conduisent à l’apprentissage. La notion centrale est « la zone proximale de développement » (Vygotski, 1985). Cette zone définit un espace d’apprentissage potentiel spécifique à chaque individu, c’est-à-dire une zone cognitive dans laquelle les apprentissages seront possibles compte tenu de ses connaissances et compétences in situ.
Avec cette théorie, les capacités humaines sont des constructions sociales (cf. Schneuwly, 1986 ; Schneuwly & Bronckart, 1985) et le développement des « processus mentaux supérieurs » ne peut pas être envisagé indépendamment des situations d’interactions entre l’activité et le milieu. Les apprentissages relèvent donc d’une dynamique ternaire des relations entre un individu, une activité et les autres, au cours d’interactions. Les connaissances sont socialement élaborées et médiatisées grâce au langage et aux autres systèmes de signes servant à représenter. Les processus de socialisation s’accomplissent au moyen d’interactions médiatisées par le langage car il a une fonction organisatrice fondamentale, tant du point de vue de l’attribution de sens par l’individu à une situation que de la racontabilité de cette situation.
Au cours d’activités socialement partagées, l’individu produit, en coopération avec d’autres, ses connaissances en utilisant des outils pour agir. L’action de l’individu sur le monde qui l’entoure n’est jamais immédiate, mais médiatisée par des objets spécifiques socialement élaborés, produits des expériences des générations précédentes est par lesquels, entre autres, se transmettent et s’élargissent les expériences possibles. Les outils se trouvent entre l’individu qui agit et le monde ; ils modifient son fonctionnement, le guident, affinent et différencient sa perception des situations vécues.
Ces deux approches ont donc fortement orienté les espaces d’apprentissage, qu’ils soient virtuels ou non. Globalement elles reposent la question de l’efficacité des apprentissages instrumentés avec un ordinateur : pour être efficace, l’ordinateur n’est-il pas condamné à être utilisé d’une façon collective et non d’une façon individuelle ? Ce questionnement est d’ailleurs favorisé par la mise en réseau des ordinateurs4. Le réseau est un outil qui laisse penser qu’à un certain moment, les connaissances seront partagées par un processus de communication collaboratif (Bowers & Benford, 1991 ; Amigues, & Agostinelli, 1992 ; Agostinelli, 1994 ; Baker, 1995 ; Roschelle & Teasley, 1995).
Cette nouvelle approche de la collaboration assistée par ordinateur (Computer Supported Cooperative Work) se retrouve sous différentes appellations : computer-based learning environment (Salomon, 1992), computer enhanced learning environment et technology-intensive learning environment (Salomon, 1994), ou encore, enriched learning and information environment (Goodrum, Dorsey & Schwen, 1993) ; elle pose également la question du statut de l’ordinateur. Celui-ci est-il un médium entre les utilisateurs pour favoriser la réalisation de la tâche, un moyen pour faciliter une activité collective, une modalité de travail pour des utilisateurs seuls ou à plusieurs en interaction avec la machine ? Corollairement, les questions fondamentales et pratiques soulevées ici, lorsqu’on veut promouvoir une activité médiée par les TIC, sont donc de savoir à quel niveau de l’activité interviennent les outils. Comment utiliser cet effet de partage, de répartition, de l’information sur l’activité des utilisateurs ? Que doivent faire les utilisateurs de ces contraintes de partage afin d’améliorer leur action, leur activité ?
Pour ces questions, le courant retenu est celui de la technologie collaborative (Roschelle, 1992, 1996 ; Roschelle & Teasley, 1995). La collaboration est le processus qui consiste, d’une part à résoudre un problème à plusieurs, et d’autre part, à construire et maintenir une représentation commune du problème. Elle se définit donc par rapport à un objectif attendu et à la construction d’un sens commun (Schütz, 1964-1987). Cette mise en commun demande d’avoir accès aux mêmes informations (à l’écran) mais ne demande pas pour autant que les individus partagent la même compréhension du problème ou des situations. En revanche, elle demande de pouvoir introduire et accepter de nouvelles connaissances à la représentation commune du problème dans un processus qui ne se limite pas à une coopération (division du travail) mais implique une interaction des systèmes cognitifs en présence et la construction dynamique d’une représentation commune. Cette construction favorise une régulation des points de vue tant personnels que collectifs, de ce qu’il y a à faire et comment le faire.
Parallèlement, plus on accorde de l’importance aux différences des connaissances mises en œuvre, plus les notions de cognition située et distribuée inspirent les recherches sur les EAI, mais aussi les pratiques pédagogiques en classe ou à distance. C’est en fait une double influence qui met en avant les perspectives de la cognition située : d’une part, une approche anthropocentrée de l’action dans la communication homme-machine (Suchman, 1987), et d’autre part, une approche de la compréhension du langage naturel en IA (Winograd & Flores, 1986).
Les perspectives de la cognition distribuée sont issues des travaux de l’anthropologie cognitive nord-américaine (Hutchins, 1995a, b) qui s’intéressent aux relations de l’homme et de la technique à travers l’approche structurante de la conception, notamment des interfaces (Hutchins, Hollan, & Norman, 1986). Cette approche qui dépasse une posture contemplative d’appréhension, aborde les caractéristiques d’une cognition située et incarnée (embodied) dans son contexte d’apparition. C’est-à-dire qu’elle considère la cognition en ce qu’elle a de « distribué » entre individus et éléments (objets) de la situation.
L’émergence des théories dites « situées » s’est également déclinée dans l’apprentissage/enseignement situé (situated learning, Lave, 1988). L’apprentissage est une fonction de l’activité, du contexte et de la culture dans lesquels il se produit, il est situé. L’interaction sociale est prépondérante, elle implique les apprenants dans une « communauté de la pratique » qui incarne certaines croyances et comportements à saisir. Pendant que le débutant ou le nouveau membre de la communauté se déplace de la périphérie de cette communauté à son centre, il devient plus actif et engagé dans la culture et par conséquent assume le rôle de celui qui sait, celui qui a plus de pratique. Ce processus est « naturel » plutôt que délibéré, il relève de la participation périphérique légitime (legitimate peripheral participation, Lave & Wenger, 1990).
Les approches situées sont donc à la croisée des sciences sociales et des sciences cognitives. Leurs intérêts pour les EAI résidaient donc dans l’alternative qu’elles représentaient aux modèles d’analyse de l’action déterminée par les instruments cognitifs dont l’individu dispose en propre et par les caractéristiques de la tâche à exécuter. C’est-à-dire qu’elles se sont attachées à développer une conception « située » de la notion d’action, qui d’un côté, insiste sur la détermination de l’action par différents facteurs situationnels, mais d’un autre, limite le rôle fonctionnel des « plans d’action » et la modélisation des « bonnes stratégies de l’individu », et remet en cause la modélisation de représentations symboliques internes du « modèle de l’expert » comme référence des activités cognitives.
Elles ont également accru l’importance du rôle de l’interface, de l’espace dans lequel les individus manipulent des informations et des objets. L’interface n’est plus envisagée comme un médium permettant l’accès aux représentations symboliques internes du modèle de l’expert, elle devient un outil de construction par l’apprenant des représentations externes indispensables à la résolution d’un problème. L’utilisateur doit avoir le sentiment de manipuler un « modèle du monde », voire d’y participer, plutôt que de conduire une conversation avec un partenaire. L’interface doit également « forcer » l’utilisateur à transformer sa vision du monde (représentations et connaissances) afin qu’il traduise ses intentions en actions à l’interface (Hutchins, Hollan & Norman, 1986). Le courant de l’action située a donc contribué à mettre en avant l’importance d’objets singuliers tels que les outils matériels, le contexte, les situations... Il montre également que le processus d’apprentissage au sein d’une communauté est un processus d’enculturation du groupe et que l’authenticité du contexte (social et matériel) influence le processus de collaboration et d’apprentissage. Les connaissances imbriquées dans les objets manipulés sont aussi importantes que la connaissance des individus qui les utilisent. Ils déterminent d’ailleurs, en grande partie, les processus de résolution de problèmes (Zang & Norman, 1994).
Ce sont les approches situées et distribuées qui nous permettent aujourd’hui d’envisager l’apprentissage comme un processus d’entrée dans une communauté de pratiques, dans une culture professionnelle (Koschmann, 1996) à travers un processus collaboratif qui amène les individus à devenir membres d’une communauté de connaissances et de pratiques.
La formation à distance
Les contours du phénomène
Entre l’enseignement traditionnel et l’auto-apprentissage, la formation à distance (FAD) a toujours entretenu des rapports difficiles avec les systèmes éducatifs. En est-elle un complément, un palliatif ou une réelle alternative ? Quelle que soit l’option envisagée, on peut constater que les dispositifs de FAD sont fortement liés à la mission des organisations dans lesquelles elle s’intégre. Du modèle « séminaire online » pour l’enseignement supérieur au modèle « multimédia » des encyclopédies pour tous, en passant par le modèle « enseignement éclaté » pour la formation continue professionnelle, toutes les modalités de FAD ont pour ambition de proposer une mise en relation personnalisée avec les savoirs. Il est maintenant évident que les nouvelles technologies de l’information et de la communication (NTIC) ont bouleversé les usages de production, de publication et de mise à disposition de ces savoirs. Les zélateurs ont prôné la distribution et le partage très rapide, en « temps réel » à l’échelle mondiale, alors que les autres ont regretté la prolifération de sources d’émissions entraînant peut-être une surcharge d’information. Toutefois, c’est bien l’émergence de nouveaux outils utilisant les NTIC qui facilitent les nouveaux modes d’accès aux savoirs. L’Internet, avec ses serveurs d’informations, dit « World Wide Web », sont les moteurs d’une évolution qui peut apparaître comme une rupture épistémologique dans les sciences de l’enseignement. Les acteurs du système éducatif sont en effet confrontés à une mutation des modes d’accès aux savoirs qui dissocie l’acte d’enseigner et l’acte d’apprendre de l’association espace-temps et qui demande que de nouveaux modes d’appropriation et de nouvelles capacités intellectuelles soient développés afin de maîtriser cette rapide expansion technologique.
Dès lors, peut-on encore parler de formation ou d’enseignement à distance ? De toute évidence, on ne peut plus l’envisager comme cela était entendu il y a seulement une dizaine d’années. La fad, qui était alors une volonté individuelle et s’opposait à l’enseignement traditionnel, devient aujourd’hui, avec l’apport des technologies d’information et communication éducatives (tice), un outil de la formation en présentiel. Quoi qu’il en soit, une définition largement admise veut que la fad soit une activité de transmission et d’apprentissage de connaissances mises en œuvre en dehors d’une présence physique du formateur et du formé dans un même lieu tout au long de la formation (Glikman, 1994). Au cours des années quatre-vingt-dix, l’expression « enseignement ouvert » a largement été utilisée pour définir la fad et laisse penser qu’elle en est un synonyme. Il est vrai que la multiplicité des « universités ouvertes » qui offrent un enseignement à distance, n’a pas contribué à éclairer le débat. En effet, le terme « ouvert » désigne plus des établissements5 qui accueillent tous ceux qui veulent s’y inscrire et n’est pas un trait distinctif des systèmes d’enseignement à distance (Kaye, 1988).
Nous dirons donc que la fad peut utiliser le concept d’enseignement ouvert dans la mesure où trois caractéristiques sont mises en œuvres (Kaye, 1988 ; Glikman, 1994) :
le dispositif a recours aux médias (presse écrite, la radio et la télévision) comme élément majeur de l’apprentissage ;
le dispositif permet un affranchissement des contraintes spatiales et temporelles propres aux dispositifs dans lesquels l’apprentissage se fait en présence d’un enseignant ;
le dispositif utilise cet affranchissement comme facteur favorisant l’autonomie dans le processus d’apprentissage.
En plus de ces trois caractéristiques, la FAD relève de six autres aspects (Kaye, 1988) :
la séparation entre enseignant et enseigné. Contrairement à l’enseignement en présentiel, dans lequel le mode de transmission des savoirs est fondé sur la mise en œuvre et l’animation de situations par l’enseignant, la FAD repose avant tout sur la mise en relation de l’enseigné avec les connaissances au travers des situations préparées ;
le rôle pédagogique de l’établissement. Dans l’enseignement traditionnel, l’enseignant assure l’activité pédagogique et les enseignés se retrouvent autour de lui. Avec la FAD, c’est l’établissement qui assure l’activité pédagogique. Ce n’est plus un individu qui conçoit les situations mais toute une équipe (spécialistes du domaine, rédacteurs...) ;
la pédagogie a largement recours aux médias. Toutes les fonctions pédagogiques habituellement mises en œuvre par l’enseignant sont médiatisées par des outils : imprimé, écran d’ordinateur, cassette vidéo... ;
la communication est bidirectionnelle entre l’enseigné et son « tuteur ». Pour ne pas se limiter à une fonction « envoi de disquettes », la FAD fait largement appel à des personnes relais que l’étudiant pourra solliciter. Ce tuteur qui n’est pas associé à l’élaboration des matériels pédagogiques, est chargé de commenter les productions de l’étudiant ;
les échanges sont naturels entre étudiants. On connaît l’importance des interactions et du tutorat entre pairs, c’est pourquoi, la FAD organise des « programmes de contact » dans lesquels les étudiants d’un même cours peuvent se rencontrer et échanger des points de vue ou travailler sur des problèmes particuliers ;
le modèle de production industriel organise la préparation et la distribution des matériels pédagogiques. La formation devient alors un produit dont il faut assurer la conception, la promotion, et la distribution.
rappel chronologique
La fad n’est pas un phénomène nouveau, ni local (Kaye, 1988). On peut dire qu’elle voit le jour en même temps que les services postaux au xixe siècle et qu’elle est institutionnalisée à Berlin en 1856 avec l’institut Toussaint et Langenescheidt spécialisé dans l’enseignement des langues (Dieuzeide, 1985, 1994). En France, c’est en 1939 qu’est créé le premier service d’enseignement par correspondance qui n’est autre aujourd’hui que le Centre national d’enseignement à distance (CNED6). Au cours des années, la fad a rapidement étendu sa mission de la scolarité obligatoire à l’enseignement supérieur, mais également à la formation professionnelle continue. Aujourd’hui, les systèmes d’éducation et de formation fonctionnent différemment d’un pays à l’autre, mais tous sont confrontés à une demande croissante de formation et à un besoin de renforcement des appareils éducatifs et dans ce contexte, la fad offre de nombreuses ressources d’avenir pour l’éducation (Perriault, 1996). Toutefois, héritière d’a priori pédagogiques mais aussi technologiques, on la pense plus souple et plus apte à individualiser l’enseignement. Pour Perriault (1996) mais aussi pour le discours communément admis, sa mise en œuvre au moyen de services interactifs online, qui fait largement appel aux NTIC, peut permettre de rénover les méthodes d’apprentissage et la pédagogie. Elle améliore ainsi la qualité du processus éducatif. Sans vouloir nier l’importance des tice, il nous semble difficile de réduire les problèmes d’enseignement et d’apprentissage à des problèmes d’information et de communication.
■ Les années 1960 ou le temps des écrits
Avant et pendant les années soixante, l’essentiel de la FAD est assuré sous la forme de cours par correspondance. Les échanges de documents écrits entre formateurs et formés sont assurés par les voies postales. Quelquefois, elle est relayée par les technologies du moment : les émissions de radio ou de télévision, les disques ou les bandes audio, parfois le téléphone. Lorsqu’ils s’adressent à des adultes, dans le cadre d’enseignements dits « postscolaires » ou « extrascolaires », ces cours issus de cursus structurés et reconnus conduisent souvent à des validations institutionnelles. Durant cette période, la FAD se positionne comme une alternative aux faiblesses du système éducatif. C’est à l’initiative du Premier ministre Georges Pompidou que la « commission Domerg » (1963) lance un grand plan d’extension des moyens audiovisuels d’enseignement dont l’objectif gouvernemental est de pallier les déficiences du système éducatif. Vers la fin de cette période, l’informatique est essentiellement administrative et fonctionne sur de gros systèmes (IBM CDC Xerox), toutefois, on voit apparaître une première génération de concepteurs qui s’intéresse aux besoins de formation. C’est l’époque de la mise en informatique des théories béhavioristes et de l’enseignement assisté par ordinateur (EAO) qui pensent l’enseignement à travers ce qu’il y a d’observable dans la gestion des parcours d’apprentissage. Dans ce contexte, l’intégration de l’ordinateur dans l’enseignement est facilitée par un consensus pédagogique assez large. Par exemple, l’intérêt des élèves pour l’utilisation de l’ordinateur qui perdure dans le temps n’est pas un effet de mode (Depover, 1987). Celui-ci autorise une progression au rythme de chacun, l’absence d’un sentiment de culpabilité en cas d’erreur, la présence d’un feed-back rapide et significatif. On sait actuellement qu’en matière d’apprentissage, les choses ne sont pas aussi simples.
■ Les années 1970 et les expériences institutionnelles
Les années soixante-dix voient naître la formation professionnelle continue (loi de juillet 1971) et l’expression « formation à distance » (Cornier et al., 1976). Le législateur lui donne un cadre juridique et les moyens financiers de se développer. Le 1 % de la masse salariale allouée à la formation par les entreprises est un moteur formidable d’expansion. Parallèlement, pour renforcer l’efficacité des systèmes éducatifs, perçus comme faiblement performants, l’éducation explore les possibilités des différents médias, télévision, radio, film, cassettes audio... et on les qualifie rapidement de « technologies éducatives » ou de « techniques modernes d’éducation » (Glikman, 1989). C’est le temps de la mise en place des centres de ressources tels que l’INRDP7 ou l’OFRATEME8 qui deviendront le CNDP9 (1976) et des systèmes multimédias qui font une large place à la radio et la télévision. On voit également le lancement de gros dispositifs de fad tels que l’Open University en Angleterre, la Télé-Université au Québec ou en France, la R.T.S. (Radio-Télévision Scolaire), mise en place par l’institut Pédagogique National (IPN) pour le compte du ministère de l’Education nationale. Les émissions de la R.T.S. s’adressent aussi bien aux élèves qu’aux enseignants mais aussi à une large population de téléspectateurs adultes. Ces années sont aussi l’époque des grands projets dans le monde : en Asie avec l’Université centrale par la radio et la télévision en Chine (1979) ou l’Université ouverte Sukhothai Thammirat (1978), en Amérique latine avec l’Universidad Nacional de Educación a distancia au Costa Rica (1970)...
C’est avec le développement des théories constructivistes que la deuxième génération de concepteurs tente de développer des mini-ordinateurs utilisés en temps partagé. Cette conception de l’apprentissage associée aux techniques de l’intelligence artificielle donne naissance au concept « d’environnement réactif » qui propose aux utilisateurs de tester leurs connaissances dans des domaines définis, c’est l’époque des systèmes experts.
L’influence institutionnelle favorise une période de recherche où le développement technologique joue un rôle important dans la convergence technologique de plusieurs domaines : l’audiovisuel, la microinformatique, les télécommunications, l’électronique, la bureautique et l’édition (Aiglin & Scamps, 1993). C’est donc ce développement technologique qui a propulsé les industriels de l’informatique et des réseaux vers la conquête du marché grand public, privé et institutionnel. La recherche de nouveaux besoins favorise l’émergence des mass media. Les aspects multifactoriels qui influencent les relations entre les sources de message, les producteurs de messages et la diffusion mass médiatique et les publics, donnent naissance à de nouveaux contenus qui sont encore traités actuellement pour être véhiculés par l’Internet et les réseaux (Cartier, 1997).
■ Les années 1980 et la vague informatique
Aboutissement logique de la montée en charge des années soixante-dix, cette période voit se développer des matériels générant de nouvelles demandes. Dans l’enseignement, on passe progressivement des nanoréseaux aux réseaux locaux, de l’usage des CD-Rom à celui du multimédia pour arriver aujourd’hui à l’Internet. C’est donc avec l’arrivée en force des technologies informatiques qu’apparaissent de nouveaux outils et de nouvelles structures pour la FAD. Les médias traditionnels cèdent peu à peu la place aux hypertextes, aux hypermédias et au multimédia. Cet engouement médiatique durera jusqu’en 1994 et préparera l’arrivée de l’Internet et du Web. C’est l’époque des micro-ordinateurs, de l’électronique grand public, et de l’émergence d’une nouvelle « industrie du contenu » (Cartier, 1997). Cette industrie du contenu touche profondément la FAD car les contenus proposés via l’outil informatique local ou online, doivent tenir compte de nouvelles variables : ils deviennent interactifs et prennent une forme dialoguée. Les informations et les connaissances ne sont plus proposées sous la forme de bases de données consultables mais sous la forme d’un environnement ouvert et modifiable. Le médium ordinateur entre dans le processus de transmission avec un écran qui devient un élément du message. À la fin des années soixante-dix, la société Apple commercialise les premiers ordinateurs personnels qui institutionnaliseront les icônes, le multifenêtrage, la souris, etc. Ces avancées technologiques issues des recherches de Xerox autoriseront rapidement des contenus qui ne soient plus des défilements de textes ou d’images à l’écran, mais de nouvelles formes de penser la transmission des connaissances. On passe peu à peu d’une question de stockage vers des questions d’organisation et de signification des divers médias utilisés. La grande variété des objets (images, sons, texte, vidéos...) hiérarchisés possède des fonctions spécialisées et des connexions non linéaires qui les mettent en interaction. Ce sont donc des systèmes complexes pouvant être lus, écoutés, vus, suivant de multiples parcours d’exploration qui permettent à chaque utilisateur de se construire une représentation personnelle, pertinente et fonctionnelle de l’objet qui l’intéresse (Agostinelli, 1996).
■ Les années 1990 et la primauté du logiciel
La mondialisation des marchés de l’information et de la connaissance créée par la mondialisation des autoroutes numériques, favorise l’émergence de services deformation online (Perriault, 1996). La FAD n’échappe pas au phénomène et perd peu à peu son « monopole » d’instance de formation. Les nouveaux termes utilisés témoignent de la vigueur de cette industrie émergente. Toutefois, ces services demeurent rudimentaires et se limitent le plus souvent à du texte, sans image ni son. L’accès aux ressources éducatives multimédias, disponibles notamment sur Internet, reste encore trop compliqué et onéreux pour la majorité des utilisateurs potentiels (Task Force, 1996). Ces années voient la structuration du secteur de l’édition favorisée par une absence de politique institutionnelle cohérente et, on doit le dire, les faiblesses de la recherche dans ce domaine. Ce contexte génère une nouvelle « donne » dans les conditions de développement des produits de formation qui préparent l’arrivée de l’Internet et la primauté des éditeurs et des vendeurs de communication. On assiste d’ailleurs à un curieux glissement notionnel qui tend à réduire les problèmes d’enseignement à des problèmes de communication. Le CNED se lance (1993-1994) dans une politique volontariste d’intégration des vidéotransmissions interactives (VTI) parmi ses supports de formation à distance avec pour concept celui du direct transmis par satellite associant exposé et dialogue entre le public et les intervenants. Cependant, l’évaluation des usages de formation montre l’importance de la préparation des outils et des supports et la VTI dont on pensait qu’elle pourrait effacer les distances ne prend toute sa valeur que relayée sur place par un médiateur et intégrée dans une démarche cohérente de formation (Duchaine & Bellet, 1994).
■ Les années 1995 et la déferlante Internet
L’extension du world wide web assure l’interface entre une industrie numérique qui conçoit, produit, gère et diffuse de l’information et des connaissances. Elle répond ainsi aux besoins d’une société, à une culture naissante de la formation personnelle et à distance. Les contenus deviennent à la fois des objets culturels organisant ainsi la vie du cyberespace mais aussi des objets trophiques du réseau dont les « méga-majors » ont bien identifié le marché. Pour certains, c’est même le marché du siècle (Cartier, 1997) ou selon Bill Gates, « LE marché ultime ». Il est vrai qu’il représente la possibilité de vendre des ressources informationnelles avec pour devise « Anyone, Anywhere, Anytime » (Cartier, 1997). Dans cet esprit, se développent des services en ligne qui, s’ils ne peuvent encore être qualifiés de fad, affichent ouvertement leur ambition de couvrir une demande d’auto-formation. Le nombre de ces abonnements aux États-Unis10 a connu un taux de croissance de 87 % en 199511 et plusieurs services similaires ont été lancés en Europe en 1995 : America On Line Europe12 (Bertelsmann-AOL), Grolier Interactive13 (Matra-Hachette), Europe On Line14 (Burda-AT & T), Infonie15 (Infogrames), T-On Line16 (Deutsche Telekom), Italia ou UK On Line17 (Olivetti) ; on peut ajouter à ces prestataires les multiples services éducatifs proposés gratuitement sur le World Wide Web (Task Force, 1996).
En France, de nombreux organismes proposent de la fad ou des activités associées. L’Association française du télétravail et des télé-activités (aftt18) propose un site sur la téléformation ; le programme fore19 propose une formation professionnelle à distance relayée dans les régions par les chambres de commerce ; le Réseau d’activités à distance20 propose des informations à caractère économique, technologique et social ; le Conservatoire national des arts et métiers21 (CNAM) de Versailles organise de nombreuses formations sur l’Internet. Des expériences de terrain sont également en cours : classe virtuelle et de nouveaux types d’apprentissage dynamique qui reposent sur la mise en place de forums de discussion22 ou d’enseignement à distance pour optimiser l’accompagnement d’élèves (niveau scolaire) en grosses difficultés de santé23. Cette liste n’est bien sûr pas exhaustive.
Quels domaines de recherche ?
Comme nous l’avons vu dans le rapide historique, la FAD possède une longue pratique issue de l’enseignement par correspondance. Celle-ci a toujours cherché à intégrer les technologies du moment (Kaye, 1988) et actuellement, ce sont les technologies de l’information et de la communication. D’un point de vue théorique, toutes ces pratiques se sont largement inspirées des conceptions psychopédagogiques développées par les institutions de formation en présentiel. On connaît les limites de telles approches dans les relations savoir-enseigné-enseignant et c’est pourquoi la problématique actuelle s’articule davantage autour de questions propres à la gestion, l’apprentissage ou la communication au sein de relations atemporelles et distantes. On retrouve également les questions de la médiation informatique d’enseignement ou des réseaux de télécommunication. Dans ces deux contextes, on retrouve les vertus supposées des technologies appliquées à l’éducation et à la formation (Agostinelli, 1994) : une plus grande qualité des apprentissages grâce à l’individualisation, à la flexibilité (la bonne formation, au bon moment, à la bonne personne, au bon endroit) et au mode pédagogique mieux adapté (learning by doing)... Les nombreuses études sur la communication et la FAD ont plus été centrées sur la conception des outils, de nouveaux produits, qu’au plan théorique ou expérimental afin d’apprécier l’efficacité de ces derniers (Dessus, Lemaire, Baillé 1997).
Si les premières recherches en FAD remontent aux années trente, c’est dans les années soixante que l’on trouve les premiers travaux spécifiques d’une recherche disciplinaire (Holmberg, 1990) qui identifie quatre axes pour FAD : (a) l’administration de la formation ; (b) l’apprentissage ; (c) la communication ; (d) le développement national et international.
■ L’administration de la formation à distance
Les recherches sur l’administration de la formation à distance s’intéressent : (a) aux contraintes spécifiques qui s’imposent à une institution lorsqu’elle a choisi ses modèles de conception et de diffusion ; (b) aux relations qu’entretiennent les modèles organisationnels de l’institution et les modèles privilégiés pour l’apprentissage ; (c) à l’impact des caractéristiques de gestion sur la conception et la production des activités ; (d) aux divers modes d’organisation de la fad ;(e) à la gestion des processus de conception ; (f) à « l’impact » économique de la FAD (Holmberg, 1990). D’autres auteurs développent des problématiques plus globales (Rumble, 1986 ; Paul, 1990) qui posent la question des politiques, des modes de gestion, des relations et de la cohérence entre les opérations de management et celles d’enseignement ou de recherche.
■ L’apprentissage en formation à distance
Les études sur les situations d’apprentissage cherchent à comprendre les relations entre les caractéristiques des apprenants, celles du matériel pédagogique (documents et contenus) et celles du contexte dans lequel se déroule l’apprentissage à distance. Dans ces études, les caractéristiques des apprenants à distance sont souvent associées à un problème de marketing (Holmberg, 1990). La question souvent soulevée est celle des abandons et des réinscriptions (Dion, Demers & Bertrand, 1994 ; Sauvé & Fawcett, 1992 ; St Pierre & Olsen, 1991). Les recherches portent ici essentiellement sur comment favoriser la rétroaction et la motivation. D’autres recherches se sont intéressées aux supports et au matériel de cours (St Pierre & Olsen, 1991) avec, pour double objectif, celui du choix de la méthode la mieux adaptée aux transmissions des connaissances et celui d’organiser la mise en œuvre des connaissances proposées par les activités de formation. L’approche de ces objectifs est généralement envisagée par l’analyse des activités nécessaires à l’acquisition de connaissances (Mayer, 1987 ; Deschênes et al., 1992 ; Valcke & Lockwood, 1993 ; Martens & Valcke, 1995). D’autres recherches se sont intéressées aux caractéristiques des textes pédagogiques (Gagné, 1991 ; Waller, 1987 ; Marland, 1989). D’autres encore se sont attachées aux relations pédagogiques en termes de fréquence des contacts ou de rapidité des corrections (Rekkedal, 1985 ; Sung, 1986 ; Taylor, 1986).
■ La communication en formation à distance
L’essentiel des recherches sur la communication et la FAD s’intéresse à l’impact des médias en termes d’interaction entre les connaissances à transmettre, l’apprenant et le contexte (Kozma, 1991). C’est sur cet axe que l’on retrouve les nombreuses recherches en psychologie cognitive relatives à l’utilisation et la compréhension de textes qui sont directement transférées à la FAD (Gagné, 1995). On trouve aussi ici de nombreux travaux sur l’utilisation de l’ordinateur (cf. LICEF24). Toutefois, les principaux résultats de ces études ne permettent pas d’affirmer que l’utilisation de nouveaux médias opère une influence significative sur la communication ou l’apprentissage (Dessus, Lemaire & Baillé, 1997).
Le développement national et international
Les travaux sur le développement national et international et la FAD montrent son importance stratégique, économique et culturelle (Pagney, 1982), tant du point de vue des modèles de développements (Boudon 1986), que du rôle des gouvernements sur les politiques éducatives, ou des coopérations internationales (Nord-Sud, Nord-Nord et Sud-Sud). L’émergence des nouveaux blocs économiques avec des marchés prometteurs devient d’une grande importance (cf. AUPELF-UREF25) et tous les jours, de nouveaux venus questionnent la FAD (Perriault, 1997) : les opérateurs de télécommunication avec les visioconférences via le réseau national de la recherche RENATER26 ou les vidéotransmissions interactives transmises par satellites (Agostinelli, 1999), les serveurs ad hoc sur Internet, ou par exemple la Fédération inter-universitaire d’enseignement à distance, (FIED27) en France, ou encore les ONG telles que l’international Council for Education (ICDE28). À ces propositions utilisant les réseaux informatiques viennent s’ajouter les chaînes à caractère éducatif telles que la BBC Further Education29, la Cinquième30 ou les chaînes culturelles comme Arte31 fondées sur le principe des mass media (Perriault, 1997). Ces nouveaux partenaires s’associent dans des consortiums tels que le Consortium Humanities qui rassemble les trente plus anciennes universités européennes, le Groupe de Coimbra, le European Open University Network (EOUN), les universités à distance européenne, etc. Dans certains de ces partenariats, comme le Consorzio Nettuno qui réunit vingt-deux universités italiennes et les Instituts polytechniques de Milan et Turin, figurent également les médias de masse (la RAI) et les télécommunications (Telefonica).
L’infrastructure, non programmée, de ces dispositifs dessine sur la carte de l’Europe un axe allant du Nord au Sud (Perriault, 1997). Un premier pôle est le site d’émission d’Uppsala en Suède, le second se trouve près de Londres : Milton Keynes, avec l’Open University, en France le CNED sur le site du Futuroscope à Poitiers, enfin, le quatrième est à Rome avec le Consorzio Nettuno. Cette infrastructure évolutive où d’autres sites peuvent se raccorder, autorise potentiellement la couverture interactive de l’Europe pour la transmission des connaissances (Perriault, 1997).
Ce développement rapide résulte principalement de trois impulsions : (a) la politique de l’Union européenne, qui depuis 1986 a lancé des programmes en ce sens, tels que COMETT32, DELTA, LEONARDO33, SOCRATES34, etc. ; (b) la technologie actuelle des NTIC ; (c) la maîtrise croissante de ces nouvelles technologies par le public. C’est ce dernier point qui rend l’avenir si prometteur. En effet, cette maîtrise croissante de NTIC autorise toutes les initiatives, au niveau des gouvernements, des universités des pays membres, mais aussi bien chez un inspecteur d’académie que chez un proviseur de lycée (Perriault, 1997).
Les communautés virtuelles
Créée en 1958, l’Advanced Projects Research Agency (ARPA) qui devait à l’origine s’intéresser à la recherche spatiale, s’oriente, à la création de la National Aeronautics and Space Administration (NASA), vers la recherche fondamentale. En 1962, le département Information Processing Techniques Office est mis en place au sein de l’ARPA pour animer un programme de recherche en informatique qui a pour ambition le développement d’un réseau d’ordinateurs interconnectés permettant à chacun d’accéder rapidement aux informations et programmes.
Dès l’origine, l’ordinateur est donc envisagé comme un outil de communication et de partage des ressources : c’est le « Galactic Network » (Licklider, 1962). Ce réseau galactique a constitué la première communauté sociotechnique. Les membres de cette communauté online reconnaissent l’importance de l’interaction homme-ordinateur pour mettre en avant la qualité et l’efficacité de la résolution à plusieurs des problèmes humains. Ils sentent l’impact du raisonnement à plusieurs et de la coopération sur leur travail et savent l’utiliser pour régénérer leurs efforts... (Licklider & Taylor, 1990-1968, p. 30-31).
Une des premières expériences faisant interagir des gens à travers des techniques informatiques a été le projet Habitat de Lucasfilm35. Ce jeu de rôle est considéré aujourd’hui comme le premier pas vers les existences virtuelles et les avatars36 ou doubles symboliques des internautes dans l’espace virtuel. Cette communauté de joueurs dans le cyberspace d’un environnement partagé se définit davantage par les interactions entre participants que par la technologie. Ce sont les possibilités d’interactions qui modèlent le monde dans lequel évoluent les personnages. Ces interactions favorisées par la nature évolutive des mondes virtuels tirent autant des profits de l’informatique que des autres domaines scientifiques qui s’entrecroisent dans le quotidien (Morningstar & Former, 1990). Aujourd’hui,
« ces communautés se constituent sans contrainte de temps et d’espace. Elles ne sont pas basées sur le voisinage physique ou la proximité géographique, mais sur les connivences intellectuelles, sur le rapprochement des passions. Les communautés virtuelles sont fluides, métaphoriques. Elles rapprochent les personnes intéressées par le libre partage des idées et des informations, dans les domaines les plus divers. Ceux qui y participent tissent des liens affectifs ou professionnels, ils échangent, collaborent et s’entraident. Ils bâtissent des complicités actives, bien "réelles", à travers d’innombrables échanges virtuels » (Rheingold, 1995, p. 1)...
« Elles sont des regroupements socioculturels qui émergent du réseau lorsqu’un nombre suffisant d’individus participe à ces discussions publiques pendant assez de temps en y mettant suffisamment de cœur pour que des réseaux de relations humaines se tissent au sein du cyberespace. » (Rheingold, 1995, p. 6)
« Grâce aux réseaux numériques, les gens échangent toutes sortes de messages entre individus et au sein de groupes, ils participent à des conférences électroniques sur des milliers de sujets différents. Ils ont accès aux informations publiques contenues dans les ordinateurs participant au réseau, disposent de la puissance de calcul de machines situées à des milliers de kilomètres, construisent ensemble des mondes virtuels purement ludiques – ou plus sérieux –, constituent les uns pour les autres une immense encyclopédie vivante, développent des projets politiques, des amitiés, des coopérations... » (Lévy, 1994, p. 9).
Les communautés virtuelles sont donc issues des outils informatiques de communication. Elles exploitent un ensemble d’avancées techniques matérielles et logicielles destinées à permettre à un ou plusieurs utilisateurs d’interagir de la façon la plus naturelle possible dans des situations de communication caractéristiques de la réalité quotidienne.
C’est en cela que ces communautés sont dites virtuelles. La technique autorise une réalité à ce qui n’existe qu’à l’état de possibilité dans la vie de tous les jours. La communauté créée n’a pas d’existence physique, elle est dite virtuelle car elle nous permet une construction cognitive du monde qui entretient des relations concrètes avec des espaces hors réseau. Ainsi une communauté virtuelle est plus qu’un espace caractérisé par un environnement de travail comme nous avons pu les voir aux différentes époques de l’utilisation des TIC dans la communication des connaissances. Cet espace est plus qu’une représentation d’un sujet d’étude spécifique ou d’un « monde » didactique intentionnel et reconstruit, il est un espace social virtuel, un espace où se développent de nouvelles activités sociales de production de connaissances.
Les blogs
Les blogs ne sont pas, à proprement parler, des outils de communication des connaissances. Ils sont des « carnets de bord », des diarismes proposés par un « animateur » qui poste (met en ligne) une ou plusieurs fois par jours des billets d’humeurs, des coups de tête et de cœur, des informations quotidiennes sur sa ville, ses thèmes d’intérêt...
À l’origine, vers 199537, le blog (ou weblog ou carnet Web ou blogue ou weblogue) n’était pas un outil de publication mais plutôt un type de publication, une chronique de la vie quotidienne dans la ville de Montréal (Gemme, 1995). C’est cet aspect de banalisation du quotidien qui est intéressant pour les E3C car elle remet à nouveau en question le statut des technologies. C’est-à-dire, qu’à nouveau, nous devons nous questionner sur comment les TIC viennent s’inscrire dans un environnement particulier et parmi des pratiques préexistantes dans un contexte de la vie quotidienne. Dans cette perspective, les blogs sont à appréhender comme faisant partie intégrante de la vie quotidienne, ils viennent s’y intégrer en même temps qu’ils transforment les nouvelles formes de relations et de regroupements socioculturels.
Aujourd’hui, même si d’autres usages existent, le blog se caractérise par un réseau de liens, de permalink qui l’institutionnalise comme phénomène communautaire dont le principe fondamental repose sur le partage d’informations et sur la contribution de chacun à alimenter les discussions en ligne, en donnant son opinion et en fournissant le cas échéant des informations complémentaires (Blood, 2002). Toutefois, pour ses utilisateurs, le blog dépasse ce qu’il contient, il est un moyen de donner corps à une personne dans un espace virtuel qui se surimpose au réel (Fievet & Turrettini, 2004 ; Fievet, 2005). C’est un « logiciel social » (Shirky, 2003) qui définit et circonscrit une communauté électronique dans laquelle l’individu revendique son statut de membre tout en affirmant une démarche individuelle de publication d’opinions. C’est un compromis entre la page personnelle à laquelle personne ne répond, et le forum de discussion où tout le monde parle à égalité.
Techniquement, cette volonté de relier les hommes s’appuie sur des plates-formes d’édition clé en main, proposées par plusieurs éditeurs. Les techniques proposées autorisent l’archivage des données d’une façon « transparente » pour l’individu, elles autorisent ainsi une très grande flexibilité et facilité d’édition. Le blog est un content management System (système de gestion de contenu, CMS38) qui permet de créer facilement un site de publication et de l’alimenter en quelques clics, sans avoir à se préoccuper de la technique. Globalement, la diffusion d’information se résume techniquement à saisir un titre, un message et à appuyer sur un bouton pour être aussitôt lisible sur le Web. Ainsi les webloggeurs peuvent agréger leurs contributions en ligne et alimenter leurs rubriques continuellement sans passer par un webmaster.
Ce ne sont donc pas les connaissances, comme nous les avons discutées plus avant, qui sont l’objet des blogs mais plus une « intelligence collective » (Levy, 1994) et une capacité accrue d’échange et de conversation via le maillage de commentaire et de renvois hypertextes. La résolution de problèmes communs se concrétise ici par les conversations que l’individu actif engage avec les lecteurs. Les solutions émergent après confrontation des idées, des points de vue.
Toutefois ils sont significatifs des situations de conflit sociocognitif. Des travaux récents s’intéressent aux commentaires qui suivent les billets des blogs (Pledel, 2006). Ces travaux montrent que les commentaires conversationnels sont inséparables d’actions situées et d’une communication de sens commun qui dépend de règles de fonctionnement que se donnent les individus dans une situation particulière, avec une activité conduite par un but et des conditions.
Ces commentaires sont révélateurs des phases de déstabilisation et de restructuration de connaissances fonctionnelles et des interactions liées. Ils montrent également que les effets d’apprentissage sont plus faciles dans une communauté où les individus se connaissent que sur une plate-forme à forte audience qui mélange de nombreuses affinités et opinions différentes. Ainsi, contrairement à ce que Ton pourrait penser, ce n’est pas sur les sites où la délibération d’opinions diverses et adverses est forte que l’on trouve le plus de marques d’apprentissages (Pledel, 2006).
Les Wikis
Les Wikis peuvent être envisagés comme un système d’extension communautaire. Si, dans le blog, les informations sont diffusées par une personne et commentées par tous, avec le Wiki, tous les membres de la communauté peuvent s’exprimer en proposant des informations et en modifiant les pages visibles sur le Web. L’ambition n’est plus ici le partage d’opinions mais bien le transfert et le partage de connaissances, de savoirs et de savoir-faire39. Le Wiki repose sur une approche participative qui fait disparaître la technique derrière l’usage relationnel qui en est fait.
Un Wiki est donc un site Web dynamique dans lequel chacun peut créer ou mettre à jour une page principalement hypertextuelle. Chaque page d’un site Wiki propose un lien d’édition sur lequel tout visiteur peut cliquer pour modifier, ajouter ou supprimer ce qu’elle contient. Un dispositif de mémorisation automatique des pages permet de sauvegarder l’historique des modifications et autorise un retour à une version précédente. C’est un Content Management System de site Web qui fonctionne comme un glossaire, avec une page par mot (ou idée). Sur chacun de ces mots, les visiteurs essaient d’en faire le tour ensemble et lorsqu’ils ne sont pas d’accord, ils utilisent alors la page pour en discuter, et recherchent un consensus avec des notions fortes de reconnaissance et de respect des opinions d’autrui. La page ainsi obtenue peut être envisagée comme l’expression d’un collectif ou d’un individu en son sein entraînant une responsabilité individuelle et des interconnexions sociales ; la technique devient alors une aide à l’interaction humaine (Agostinelli, 2006).
En ce sens, on peut admettre que chaque page, ou proposition d’édition, constitue une agrégation des savoirs individuels par la réunion d’informations distinctes en un tout homogène. Ce tout est alors intégré dans un système transversal psycho-technico-social de fabrication de l’information. Celui-ci a comme valeurs le partage, la mutualisation et le collaboratif avec pour corollaire une multiplicité des échanges. Ces valeurs structurent naturellement la compréhension mutuelle vers une explicitation consensuelle d’une information socialement construite et collectivement validée qui amalgame connaissances, expertise et voix du plus grand nombre. L’enjeu du Wiki ne serait donc pas cognitif mais relationnel, social, marqué par « la domination technicienne du social » (Latouche, 2004). Dès lors, que peut-on attendre d’un tel outil qui « offre la connaissance et le partage en ligne (Jesdanun, 2004) mais aussi une mémoire et une aide pour capter, conserver et partager un capital jusqu’ici sous-exploité : les savoir-faire des collaborateurs, les retours d’expérience et la connaissance implicite » (Delsol et al., 2005)40 ?
Le partage repose ici sur un dispositif large d’incitations, laissé à la discrétion des participants. Au-delà des informations, il peut dépendre des aspirations sociales et/ou cognitives et/ou informationnelles. Les informations se rapportent à une communauté d’êtres humains. Le partage traduit une ambition forte : celle de faire participer les individus au patrimoine informationnel de la communauté en les enrichissant individuellement et collectivement grâce à une navigation plus aisée. À ce titre, le Wiki doit retenir toute notre attention car, lorsqu’on tente de définir les fondements communicationnels du partage, il convient de s’interroger sur ce qui « motive » les individus et les communautés à l’utiliser :
Comment révéler le besoin de distribuer des informations avec l’espoir que celles-ci favoriseront en retour une amélioration personnelle du contrôle différé des thèmes discutés ?
Comment rééquilibrer, à leur avantage, le partage de l’information entre les sites fondés sur des politiques propriétaires (sites de la presse électronique, des revues scientifiques...) et ceux fondés sur des logiques d’open source41 et de créative commons42 ?
Comment penser un dispositif contractuel « facultatif », ouvert à tous, où l’intérêt est aléatoire et résulte soit d’une adéquation entre un point de vue personnel et celui le plus communément admis, soit des performances de l’outil ?
Quoi qu’il en soit, et quelles que soient ces motivations, force est de constater que la richesse informationnelle du Wiki traduit l’importance des incitations de partage qui parviennent à rendre cohérent un dispositif qui, pourtant, mobilise des fondements techniques et sociétaux divers.
Les environnements numériques de travail
Les environnements numériques de travail (ENT) ou « bureaux virtuels » dépassent largement le cadre d’un espace communicationnel destiné à l’apprentissage. C’est un dispositif global qui, à travers les réseaux de télécommunication, fournit à un individu un accès à un ensemble intégré de ressources et de services numériques en rapport avec son activité. Si l’ENT n’offre en lui-même qu’un nombre restreint de services de base, son rôle annoncé est d’intégrer des services à haute valeur ajoutée : travail collaboratif, vie scolaire et étudiante, mise à disposition et gestion de ressources numériques, bureau numérique, etc. Il cherche à les présenter de manière cohérente, unifiée, personnalisée, et personnalisable à chaque utilisateur.
C’est l’établissement scolaire qui est l’espace de référence fonctionnel de l’ENT et il s’adresse à l’ensemble des individus, élèves, étudiants, personnels, exerçant une activité dans un établissement d’enseignement.
C’est le point d’entrée unique pour accéder au système d’information de l’établissement et à l’ensemble des ressources et services numériques dont chaque usager (élève, enseignant, parent d’élève et personnel administratif) a besoin dans le cadre de son activité quotidienne (SDET, 200343). Par exemple, au collège comme à la maison, chaque élève a ainsi la possibilité d’accéder, par Internet, à un espace personnel sécurisé, à partir duquel il peut consulter son cahier de texte, son agenda, ses notes ou encore les exercices envoyés par les professeurs ; les enseignants, quant à eux, disposent des outils d’administration pédagogique pour gérer des groupes de travail et suivre les travaux des élèves...
L’ENT peut donc se définir comme l’extension virtuelle d’une communauté éducative ou, du moins, le lieu de rencontre de communautés institutionnelles ou non, formelles ou informelles, reconnues par l’institution et/ou leurs pairs : l’établissement scolaire, la circonscription primaire, la discipline enseignée, les parents...
Cette ambition de relier les technologies et la vie scolaire n’est pas neuve. Déjà en 1985, le plan « informatique pour tous44 » ouvrait la voie aux technologies d’information et communication éducatives (TICE). En mars 2003, le ministère de l’Éducation nationale, de l’Enseignement supérieur et de la Recherche et les collectivités territoriales ont renouvelé leur volonté de donner aux enseignants et aux élèves une structure d’échange et de bonnes pratiques en vue d’une généralisation des ENT.
Les enjeux annoncés ici recouvrent trois aspects : l’usage des TICE lié aux apprentissages, la gestion des établissements et l’offre de services.
Conformément au PAGS145, l’usage des TICE passe par l’apprentissage des outils et l’améliorant du service aux usagers : « Les espaces numériques de travail faciliteront les apprentissages tant pour la formation initiale que la formation continue. » (Mayeur, 2003, p. 42)
Les ENT participent à la rénovation de l’enseignement et de la vie universitaire, « ils renforcent l’autonomie des établissements par la maîtrise de ses services TIC dans l’espace de son autonomie, en cohérence avec son projet d’établissement » (Mayeur, 2003, p. 42).
La diversité des besoins et des usages dans les établissements se traduit par la coexistence d’un grand nombre de logiciels hétérogènes, les ENT cherchent donc à rationaliser cette offre de services TIC.
En conclusion, les ENT sont, comme souvent avec les TIC, des outils destinés à plusieurs et adaptés à chacun quels que soient son statut ou ses fonctions. Ce qui pose la question, toujours d’actualité dans plusieurs champs scientifiques (en communication, en didactique, en psychosociologie), de savoir quels sont les outils matériels et cognitifs à mettre au service des enseignants, pour enseigner et au service des élèves, pour apprendre.
Les communautés virtuelles d’apprentissage
Le passage par les blogs, les Wikis et les ENT nous ramène aux communautés. En effet, toutes les pratiques des TIC, et particulièrement ces trois espaces, contribuent à la construction d’une définition plus fonctionnelle des communautés et sur la manière dont elles se greffent progressivement à notre quotidien dans la communication des connaissances. En effet, les activités « enseignement-apprentissage », qu’elles soient virtuelles ou non, sont généralement pratiquées par des personnes réunies en communautés professionnelles qui partagent le même « langage » et les mêmes compétences à des niveaux de fonctionnalités différents. Grâce à ce background commun, les expériences faites par l’un d’entre eux peuvent être comprises et interprétées par les autres. Si l’on accepte cet a priori sommaire, on voit bien où se situe l’enjeu du débat visant à savoir si les communautés virtuelles sont des espaces de communication des connaissances.
Défendre le caractère « éducatif » d’une communauté virtuelle questionne l’importance des modèles disciplinaires dans les apprentissages. C’est avant tout questionner la façon de produire socialement des connaissances avec la prise en compte du fait que les connaissances ne sont qu’un fait humain, c’est-à-dire, le résultat d’une activité cognitive de l’homme, d’un fait culturel. Les connaissances en tant que fait culturel résultent du contexte d’apparition et des pratiques sociales d’interaction en réseaux. Elles sont ancrées dans une culture qui leur donne un sens dans un monde particulier, elles prennent leur forme dans les traditions, les outils et les manières de penser de la culture Bruner (1996). Les connaissances ne sont simplement que des interprétations acceptées par un consensus social à un moment donné du contexte sociohistorique (Resnick, 1987) dans lequel est impliquée la communauté. L’apprentissage est donc par définition ici, un fait social (Vygotski, 1997 ; Bandura, 1986) et l’acquisition de connaissances passe par un processus qui va du social (connaissances interpersonnelles) à l’individuel (connaissances intrapersonnelles). En d’autres termes, une connaissance peut être subjective et propre à un individu, ou objective et commune à un groupe. La connaissance objective est intériorisée et reconstruite par les individus durant leur apprentissage pour laisser place à une nouvelle connaissance subjective. Dans cette optique, les interactions sociales sont essentielles et la participation devient un synonyme d’apprentissage et de construction identitaire (Wenger, 1998). La communauté d’apprentissage serait donc une entité virtuelle où se négocient et s’échangent les significations entre les participants à partir du double aspect participation-réification dans le processus de construction identitaire qui résulte de la négociation des significations au cours de l’action des communautés de pratiques (Wenger, 2005).
Dans une « communauté de pratique » (Wenger, 2005), les individus travaillent ensemble et sont amenés à concevoir des solutions locales aux problèmes rencontrés dans leurs pratiques professionnelles. Plus les individus partagent leurs connaissances, leurs expertises, plus ils apprennent ensemble. Cet apprentissage collectif informel issu des pratiques sociales reflète à la fois l’évolution des savoir-faire et des relations interpersonnelles qui contribuent à créer le langage commun nécessaire à la compréhension et l’accomplissement des tâches.
En résumé, la communauté d’apprentissage peut être envisagée comme groupe de personnes qui se rassemblent pour acquérir des connaissances grâce à des scénarios d’apprentissage fondés sur quatre caractéristiques : les échanges ont une forme narrative ; l’inférence est favorisée par une culture commune ; la co-construction de l’expérience personnelle ; l’apprentissage est fortement situé et contextualisé (Dillenbourg, Poirier, & Caries, 2003). Elle est également envisagée comme des espaces de communication, « lieux d’expression de processus de négociation et de construction de sens, au cours desquels se construisent de nouvelles connaissances » (Grosjean, 2005, p. 275). « Ainsi, c’est la dynamique des interactions qui est au cœur du processus de construction des connaissances » (Grosjean, 2005, p. 276) et lorsqu’on s’intéresse aux communautés, c’est bien « ce que font » les personnes avec les TIC et non « ce que permettent de faire » les technologies (Agostinelli, 2003) qui est mis en avant : ce sont les organisations humaines et les interactions sociales qui caractérisent la communauté. D’ailleurs, « le membre d’une communauté doit se familiariser avec les règles de participation et d’apprentissage de la communauté. La microculture n’est bien sûr pas le seul domaine d’apprentissage. Une infinité de savoirs sont partagés dans ces communautés » (Dillenbourg, Poirier, & Caries, 2003, p. 1446 ).
Les E3C d’aujourd’hui
L’évolution de la relation pédagogique soulève un problème crucial. Le besoin psychologique de faire partie d’une communauté est un besoin fondamental pour tous (Sarason, 1974). C’est aussi un sentiment d’appartenance, le sentiment que les membres peuvent agir les uns sur les autres ainsi que sur le groupe dans son entier (Mc Millan & Chavis, 1986), le sentiment partagé que les besoins des membres se rencontreront.
En effet, il est ontologique de vouloir appartenir à une communauté (Sarason, 1974), à un groupe structuré et clos pour une bonne évolution de son identité. C’est ce que l’anthropologie a étudié sous la notion d’ethnie et d’appartenance. L’individu a besoin d’appartenir à un groupe, d’être reconnu comme membre qui lui donne un ancrage et une identité personnelle (Garfinkel, 1967). Dans le cas des espaces éducatifs partagés, la communauté se fonde sur l’idée d’un improbable accord sur la mise en situation des connaissances à acquérir. C’est la difficulté d’arriver à un accord qui est constitutive des situations de communication des connaissances et de la revendication de chacun à parler au nom des autres. Cette revendication est ce qui définit le compromis, et la communauté est donc, par définition, revendiquée, pas fondatrice.
Communauté et espace communautaire
Définir la notion de communauté n’est pas simple. Comme toutes les relations humaines, c’est avant tout un jeu d’interactions, d’actions et de comportements, qui prennent du sens en fonction des attentes et intentions des individus qui la constituent, compte tenu du lieu et de l’époque à laquelle ils vivent.
Un des premiers usages du mot est celui de communauté taisible. C’était un groupement de parents qui descendent tous d’une même souche masculine. Ils vivent dans une maison commune, sous l’autorité d’un chef reconnu qui administrait la propriété commune. Ce regroupement ne formait qu’une seule famille, et de ce fait, la coutume avait tiré une conséquence juridique sur la communauté de biens. Elle admettait que, de plein droit, ces associés de fait contractent entre eux une société civile qui se formaient sans contrat exprès. Généralement, cette communauté se constituait au décès du chef de famille afin de maintenir l’indivision de l’héritage et à la vie commune entre les descendants et leurs familles. Issues des coutumes paysannes du xvie siècle, ces communautés se sont particulièrement développées dans les périodes d’insécurité politique et économique. Elles constituaient des alliances pour faire face aux dangers et pour mieux supporter les charges quotidiennes de l’époque.
De ce point de départ, on peut déduire deux types de définitions non opératoires. Des définitions générales : une communauté est une unité structurale d’organisation et de transmission culturelle et sociale (Polanyi & Arensberg, 1975) ; une communauté est une collectivité dont les membres sont liés par un fort sentiment de participation (Hillery, 1981). Avec ces deux définitions, la communauté forme un tout qu’il convient d’étudier de l’intérieur pour comprendre ce qu’il y a de commun entre le sentiment de participation et de transmission qui lient les membres des communautés virtuelles et celui qui lie les paysans du xvie siècle ?
Les communautés virtuelles sont des regroupements socioculturels qui émergent du réseau lorsqu’un nombre suffisant d’individus participe à des discussions publiques pendant assez de temps en y mettant suffisamment de cœur pour que des réseaux de relations humaines se tissent au sein du cyberespace (Rheingold, 1995). C’est donc un ensemble d’individus détenant des informations et liés entre eux de telle sorte que l’ensemble est compétent pour intervenir selon des règles de communication partagées et les valeurs de chacun des membres. C’est le groupe qui organise les échanges et règle la vie collective, de façon à satisfaire toutes les fonctions de la vie sociale (transmission culturelle et sociale ; sentiment de participation, de reconnaissance, d’appartenance...). Seuls ou reliés à des communautés plus complexes, les échanges assurent la subsistance cognitive et informationnelle de l’individu. Au quotidien, ce sont les actions fondées sur les attentes, les valeurs et croyances, et un sens partagé par le groupe qui résolvent les problèmes auxquels les membres de la communauté sont confrontés. À l’opposé de la communauté villageoise, stabilisée sur un territoire restreint, et soudée par les liens de parenté et de voisinage, la communauté virtuelle devrait penser les relations en perpétuelle redéfinition, d’une société hétérogène dans des espaces différenciés dans lesquelles la proximité géographique n’est plus nécessaire pour des relations communautaires. La technologie permet aux relations primaires d’être amplifiées et maintenues par-delà de plus larges espaces géographiques. Ces communautés immatérielles se rapprochent d’un « style de vie » qui trouve son essence dans le partage de valeurs générationnelles et culturelles, largement répandues par les médias et notamment par le développement d’Internet.
Il faut donc poser la définition des communautés virtuelles d’une façon différente, en introduisant les outils qui lui donnent des contraintes et des possibles : les technologies d’information et de communication. Dès lors, une communauté n’est plus seulement un phénomène qui concerne les rapports de l’homme et son environnement communicationnel, économique ou politique. La définition ne peut plus s’attacher à la seule description de ses composantes (le réseau, les internautes, les informations et le temps), mais doit analyser les relations dans le système socio-cognitivo-communicant, les effets qu’elles exercent les unes sur les autres et entraînant la pérennisation de la communauté. Ici, le membre et la communauté « ne font qu’un » et si le besoin de se reconnaître comme membre, comme « appartenant à », s’inscrit si fort non seulement dans la même quête culturelle de l’homme que dans le même besoin biologique, mécanique et électronique de l’espèce (de Rosnay, 1995), alors, on peut concevoir que l’interaction membre-communauté devient nécessaire au développement des schèmes organisationnels essentiels de l’espèce, mais aussi que l’interaction membre-communauté est également nécessaire au développement des schèmes conceptuels premiers de la communication dans ces organisations humaines. L’objectif est ici de décrire et de comprendre les processus de désorganisation et de réorganisation qui affectent aussi bien les espaces de communication que les individus et les groupes qui les « habitent » en référence à une « écologie humaine » (Clarke, 2001). Avec les TIC, la notion de communauté dépasse donc un quelconque fonctionnement intra-muros, limité par des frontières et des localités. Elle se rapporte davantage à un système de relations sociales qui fait intervenir les identités et les intérêts communs, une volonté collective. Elle a un caractère dynamique qui la fait évoluer simultanément aux cultures, connaissances, usages et pratiques qui peuvent se synthétiser en quatre aspects (Granovetter, 1973) : la durée de la relation, l’attachement et l’implication dans la relation, le niveau d’intimité, la nature de la réciprocité de cette relation.
La durée et donc le temps comme espace de vie peut être un élément de compréhension de la construction d’une relation sociale. Le temps des communautés ne peut donc pas être structuré linéairement. Pour nous, les échanges et la communication inscrivent le temps dans le temps mais demandent aussi à chacun des membres de se penser en présence de tous les autres, c’est-à-dire en relation. Relater cette relation demande de mettre à jour les diffractions des intérêts, de constater que l’ontologie induite par la communauté se déconstruit sous la poussée des membres qu’elle a ignorés, dévalués ou partiellement écartés.
L’attachement et l’implication comme niveau d’engagement entre les membres de la communauté, c’est-à-dire, les relations que le membre tisse avec cette organisation humaine en termes d’implications qui seraient à la fois un moteur de la motivation et une conséquence de la satisfaction (Thévenet, 2000).
L’intimité implique un niveau fort d’engagement, une liaison étroite entre les participants. Pour nous, ce sentiment fait pénétrer l’individu dans l’intimité des thèmes les plus insolites ou des plus « habités ». L’intimité des lieux faciliterait-elle les confidences ? Aujourd’hui, les pages d’une communauté virtuelle mêlent privé et public, portraits et dossiers, elles expriment souvent le parfum d’une époque et un air du temps. Elles créaient une complicité dont nous, les internautes, sommes nécessairement exclus. L’objectif des membres de la communauté n’est pas de couvrir un thème de façon « objective », ils préfèrent tisser des liens personnels. Ni interrogateur, ni partisan, le membre cherche dans l’échange l’intimité des idées, la voracité des relations d’où se dégage un sentiment très actuel d’absence d’illusion entremêlée de liens reconstructeurs.
La réciprocité caractérise une relation sociale. Pour Granovetter (1973), elle signifie que toutes les parties inscrites dans les rapports sociaux tirent un bénéfice mutuel de l’interaction. Pour nous, à l’opposé de l’échange où chacun cherche son intérêt, la réciprocité produit des valeurs éthiques entre les partenaires. Ces valeurs et la réciprocité se combinent pour former des relations antagonistes : l’agir et le subir. La réciprocité apparaît ainsi comme le régulateur par lequel chacun redouble la finalité inhérente à « l’agir » sur la pensée du groupe et par la finalité inhérente au « subir » les contraintes et possibles de la communauté.
En conclusion de cette approche non exhaustive de la notion de communauté, nous pourrions retenir que la communauté dépasse largement sa perspective purement locale. Cette notion recouvre tous les types de relations caractérisées à la fois par des liens affectifs étroits, profonds et durables, par un engagement de nature morale et par une adhésion commune à un groupe social (Nisbet, 2000). Ici, la notion de communauté est fondée sur une conception de l’homme qui envisage celui-ci dans sa totalité plutôt que dans chacun des rôles qu’il peut occuper dans l’ordre social. Or, envisager une communauté comme une totalité est certes intéressant, mais nous limite dans une vision globale qui amalgame les caractéristiques, les intentions, les usages... Ce n’est donc qu’une étape dans la connaissance des phénomènes étudiés. Lévi-Strauss (1968), Murdock (1972) ont élaboré, à partir d’observations ethnologiques, des outils conceptuels qui permettent d’analyser les règles de parenté et la cohérence d’une structure sociale globale, résultants de l’imbrication de plusieurs sous-structures : familiale, de parenté, politique...
Communauté de pratiques et espace sémiopragmatique
La notion de « communauté de pratiques » est introduite par Lave et Wenger (1990). Leur concept de Légitimité Peripheral Participation (LPP) introduit la notion de communauté de pratique permettant des relations entre des « nouveaux » et des « anciens » membres, dans le cadre d’un apprentissage relevant toujours d’un processus d’échanges hautement socialisés entre les acteurs. En effet, pour cette notion, étroitement liée aux théories de l’action (Vygotski, 1985), le social constitue la source du développement conceptuel individuel car il est à la fois le résultat de l’interaction individu-culture mais aussi le processus même de l’interaction. Il constitue aussi, l’organisation de l’activité commune et l’appropriation individuelle. Ici le social se trouve relié à l’activité. L’individu ne peut s’approprier les situations et les informations (objets, connaissances...) sous-tendues que s’il est actif. Cette appropriation des éléments culturels, qui appartiennent au monde (même local), n’est pas d’une part réductible à des objets matériels et d’autre part, n’a de perspective que de les utiliser en tant qu’outils pour un processus d’intériorisation aboutissant à la maîtrise individuelle de sa pensée propre.
L’activité est l’ensemble des « événements » de l’individu en situation. Ces événements, pour être qualifiés d’activité, doivent être significatifs pour l’individu mais aussi pour les autres, c’est-à-dire « racontables » ou « commentables » par lui (ou eux). Cette activité (qui peut être quotidienne) relève d’une logique localement négociée à l’intérieur d’un groupe constitué. Elle peut être plus ou moins stabilisée entre un déterminisme autonome et structurant et des demandes sociales qui les ajustent afin d’agir sur les situations rencontrées et reconnues. De plus, en considérant l’action comme un processus d’auto-organisation, elle relève principalement de la façon dont un individu va utiliser les ressources matérielles ou immatérielles du milieu pour accomplir une action, mais aussi des circonstances matérielles et sociales. Ces circonstances doivent également être pertinentes au collectif, aux interactions, aux relations intersubjectives dans le partage d’une matérialisation de la connaissance (Lave, 1988). C’est ici la volonté de mettre la cognition dans l’accomplissement de l’action. La connaissance n’est pas un élément antérieur ou préexistant, elle est dans l’action. C’est-à-dire que l’individu analyse en contexte ce qui se passe de l’intérieur même de la situation, de l’intérieur même de l’accomplissement de l’action.
Parallèlement, ce type d’approche insiste fortement sur le contexte dans lequel sont situés la communication des connaissances et l’apprentissage. C’est le contexte qui permet de construire du sens (Suchman, 1987) et c’est à travers le contexte dans lequel se situe l’action que se conditionnent les façons de comprendre et de réaliser les activités humaines. En d’autres termes, c’est dans un environnement se rapprochant le plus d’une véritable situation professionnelle que le débutant acquiert les connaissances, les habiletés et les attitudes requises dans la pratique. Le problème est ici de savoir de quelles natures sont ces connaissances, et de savoir également comment elles fonctionnent pour organiser l’activité. Ces approches dites situées permettent également d’envisager le concept élargi de contexte qui inclut les objets et les machines (Conein & Jacopin, 1994). L’action située se définit alors par une organisation qui émerge in situ de la dynamique des interactions (Conein & Jacopin, 1994). Cette dynamique résulte de deux processus : le premier demande une compréhension mutuelle des actions de l’autre ; le second demande la perception d’indices provenant directement de l’environnement. Cette conception du contexte met l’accent, dans le premier cas, sur la compréhension et la communication, et dans le second cas, sur la perception et l’espace, comme si les interprétations différentes des effets de contextualisation variaient en fonction du rôle joué dans le contexte par le langage ou par les matériaux utilisés.
L’action est donc indissociable du contexte, de ses circonstances, de la compréhension, de la communication et du savoir mutuel qui impliquent un partage d’intention et la compréhension d’une action dans ses interactions avec son contexte. Si l’action peut être objectivement décrite, l’action située nous dit aussi comment l’individu reconstruit le milieu pour réaliser ce qu’il a à faire. Cette approche est particulièrement intéressante pour expliquer les situations complexes de communication via les communautés virtuelles dans lesquelles l’intentionnalité est partagée entre « l’émetteur et le récepteur ». En effet, elle autorise la mise en relation des interactions sociales et l’utilisation des dispositifs technologiques et sémiotiques sophistiqués.
Ainsi, qu’il s’agisse d’un contexte de dynamique des groupes, de management de projet, de travail collaboratif ou coopératif, la sémiopragmatique nous donne plusieurs informations sur la construction des espaces partagés de communication puisqu’elle s’attache à leurs caractéristiques communicationnelles et à leurs usages.
Elle considère la forme et le sens des E3C à travers les effets pratiques que nous pensons pouvoir être produits par notre esprit, traversé lui-même par un champ culturel et social d’interprétants.
Les E3C s’inscrivent ainsi dans une problématique propre à la « sémiopragmatique », c’est-à-dire dans une démarche qui tente de comprendre comment fonctionne la relation affective espace-apprenant en plaçant « la pragmatique au poste de commande de la production de sens et d’affects » (Odin, 1983, p. 67).
Dans les années soixante, deux courants ont fait émergence : le premier est celui de la sémiologie de la communication et le second de la sémiologie de la signification.
Sémiologie de la communication : C’est un courant de la sémiologie qui voit dans l’intention de communiquer, le critère fondamental et exclusif de la sémiologie. En conséquence c’est le signe, dans lequel l’intention de communiquer est clairement affichée, qui sera l’objet de la sémiologie. En fait, cette conception, à la fois très restrictive quant au champ et très vague quant à ses limites (comment apprécier objectivement une intention ?) mériterait plutôt le nom de « signalétique » (Marty, 1999). C’est ce qui correspond aux systèmes de signes explicites et univoques, que nous utilisons couramment en cours, à titre d’exemples : code de la route, drapeaux, blasons, etc. Ces signes deviennent explicites par les fonctions qu’ils remplissent pour notre société et pour laquelle ils sont construits, mais aussi parce qu’ils sont d’une façon univoque liés à leurs objets.
Sémiologie de la signification : Dès que l’on dépasse la notion de signe, on entre dans le champ de la signification. On s’intéresse ici à ce qui se produit dans l’esprit d’un interprète quel qu’il soit, lorsqu’il perçoit une chose et que c’est une autre chose qui est présente à son esprit. Il s’agit bien de significations au pluriel et d’une sémiologie qui permet de les décrire. Elles sont le fait d’acteurs sociaux particuliers, de moments au sens philosophique, d’une dynamique sociale.
Dans les années quatre-vingt, c’est l’énonciation qui devient le centre privilégié d’intérêt sémiotique. Sur le plan théorique, deux conceptions différentes de l’énonciation semblent dominer. Dans l’une, elle est considérée comme une composante non linguistique, liée à l’acte de communication, dans l’autre, comme une instance linguistique présupposée par l’existence même de l’énoncé. En d’autres termes, dans la première, l’énonciation est en dehors du champ de la linguistique, par la distinction qu’elle opère entre langue et parole, mais aussi par la prise en compte du sujet énonciateur qui en fait une instance de mise en discours autonome de la théorie du langage. Elle est alors définie comme une instance médiatrice qui aménage le passage entre la compétence et la performance, entre les structures sémiotiques virtuelles et les structures réalisées sous forme de discours. Dans la seconde, l’énonciation est considérée comme une composante de la communication. Elle s’intégre dans l’acte illocutionnaire par lequel un locuteur s’adresse à un allocutaire. Ce sont les implications sémantiques de l’acte de parole, dans sa dimension sociale aussi bien qu’individuelle, qui sont envisagées.
En intégrant l’énoncé dans une situation de communication qui à la fois l’englobe et le spécifie, la démarche pragmatique élargit le champ d’investigation de la linguistique « traditionnelle » et ouvre des perspectives nouvelles.
Aujourd’hui la conception dominante est celle d’une co-construction du sens dans laquelle il est essentiel de rapprocher représentation matérielle et représentation mentale, image et modèle mentaux, d’où l’importance de l’articulation entre une sémiotique des représentations et une théorie psychologique de celles-ci.
En cherchant à comprendre le fonctionnement de diverses représentations matérielles, la sémiotique s’articule à la psychologie cognitive et à la didactique. La première s’intéresse aux représentations mentales et à la façon dont est codifiée l’information en mémoire, la seconde s’intéresse à la représentation des connaissances et à la validité de celle-ci. Ni l’une, ni l’autre ne peuvent ignorer les mécanismes à l’œuvre dans les représentations figurées et la façon dont celles-ci sont lues, comprises et utilisées par les apprenants (De Corte, 1993 ; Baillé & Maury, 1993).
Dès lors, nous comprenons bien la nécessité de prendre en considération, dans la création des E3C, le potentiel interprétatif (capacités inférentielles) de l’internaute-apprenant, par rapport au « monde représenté » et aux usages qui lui sont attribués. En effet, le sens d’une œuvre découle tout autant de sa création que de sa réception (Eco, 1972 ; Ricoeur, 1986) et il en est de même pour les E3C.
Le concepteur d’espace prépare un ensemble de signes en fonction du message qu’il a l’intention de délivrer et du contexte qu’il anticipe. Il ne fait que produire un potentiel signifiant. L’attribution d’un sens est le fait de l’internaute-apprenant en situation effective.
Ainsi, nous nous apercevons que les différents espaces, malgré des contextes de production très différents, ont en commun d’orienter le travail d’inférence de l’internaute-apprenant en développant des stratégies communicationnelles qui intègrent, au sein même du matériau « pédagogique », certains scénarios interprétatifs. Par exemple, dans l’apprentissage des langues vivantes sur le Net, l’internaute apprenant cherchera-t-il à entendre prononcer les mots à certains moments de son parcours, pour faire sens dans le cadre des choix qu’il met en œuvre ? Ainsi le concepteur doit-il prévoir des parcours différenciés, intégrant la voix dans le scénario d’apprentissage...
Les différentes stratégies utilisées dans les E3C (la forme, la couleur, le jeu d’écritures, l’utilisation de la vidéo, le son synchrone ou non, la participation...) ont pour effet de remettre en cause la croyance en un sens fini, un sens unique de l’espace. C’est l’internaute-apprenant, tout au long de sa navigation, qui lui donne sens, le construit. Ainsi la toile n’est-elle pas une feuille de papier figée mais bien un objet dont le sens se construit à partir des stratégies communicationnelles mises en œuvre par les concepteurs. Le rôle du concepteur consiste dès lors à mettre à jour les indices qui orientent la lecture interprétative de l’espace.
Ainsi, il nous est possible d’analyser les modes d’interprétance des E3C en prenant en compte les aspects sémiologiques (étude de l’espace tel qu’il se présente), pragmatique (la relation de l’utilisateur à l’espace) et psycho-cognitif (les connaissances co-construites).
La sémiopragmatique nous permet ainsi d’articuler plusieurs modalités comme la spatialité, la texture et le chromatisme tirés du traité du signe visuel (dans lesquelles sont produits des percepts élémentaires intégrant et organisant les stimuli), le rapport entre le code et le message dans les mécanismes mêmes de la perception qui fondent les modalités de production des signes. Elle situe la relation analogique entre l’icône et le modèle perceptif de l’objet et non entre la représentation et l’objet représenté.
La sémiopragmatique des E3C est donc à la croisée de la sémiopragmatique de l’image, du texte et du paratexte, de l’hypermédia, de l’audio visuel, du multimédia mais aussi des significations. Elle met ainsi en avant l’importance des médiations à travers toute la navigation et tout particulièrement dans son cheminement psycho-didactique.
Dans la théorie générale des paratextes, c’est le degré d’iconicité qui aura la fonction d’axe de classification sur une échelle continue. Par exemple, Moles (1981) propose douze degrés progressifs47 et une classification générale des formes de schématisation, des plus analogiques aux plus abstraites. Pour cet auteur, « le schéma est le produit d’un acte de communication [...]. Par là il suggère un parallélisme avec le langage dont il possède toutes les caractéristiques : des signes, un vocabulaire, une syntaxe, une logique, une intelligibilité » (Moles, 1981, p. 102).
Cette classification traduit le degré de ressemblance et d’analogie entre la représentation et le sujet réel représenté. Cette classification progressive part des représentations les plus concrètes, les plus figuratives (iconicité), c’est-à-dire du degré de réalisme maximal, pour aller vers les représentations les moins ressemblantes, au degré d’abstraction de connaissances plus élevé, comme les langages naturels et les langages artificiels. C’est la grandeur inverse de l’abstraction, autrement dit « la quantité de réalisme, d’imagerie immédiate contenue dans la représentation » (Peraya, 1998).
C’est cette classification qui apparaît, de manière implicite, dans le cadre de l’analyse de la dimension perceptive des espaces, que nous développons au chapitre suivant. Quelle perception avons-nous des graphiques, schémas, histogrammes, dessins et autres paratextes lorsqu’ils arrivent sur la toile ?
Au-delà des paratextes, l’image occupe une place très importante dans les E3C et plus encore le rapport qu’elle entretient avec le texte. Dans ce rapport, Barthes (1964) voit deux types de fonctions : la fonction d’ancrage qui sert à fixer le sens et la fonction de relais, qui sert à fournir des sens complémentaires. Il faut alors adjoindre à ces fonctions les notions de dénotation et de connotation. La dénotation se définit comme la signification fixée, explicite et partagée par tous. La connotation renvoie, quant à elle, à une masse de sens, plus ou moins importante, qui tourne autour du sens immédiat et officiel.
Ce sont des sens supplémentaires et instables, qui s’ajoutent au premier, en le déformant ou en le complétant et qui émergent de manière variable chez les individus selon leur expérience et leur culture. Cette distinction reste, aujourd’hui, un outil pertinent dans l’analyse des E3C.
Ainsi, l’analyse sémiopragmatique s’adapte-t-elle bien à la conception des espaces partagés de communication, comme à celle des sites. Elle les considère à travers la sémiologie et la sémiotique dans l’articulation entre signifiants et signifiés, et la pragmatique dont les études sont centrées sur la relation et le contexte, et plus particulièrement ici, sur les effets produits en pratique.
Communauté d’apprentissage et espace psycho-didactique
En regard de ce que nous venons de présenter, nous réduirons la communauté d’apprentissage à son activité. C’est-à-dire, une communauté où l’activité principale est la construction des connaissances. Plusieurs approches peuvent être envisagées, et dire aujourd’hui que l’on se situe dans le constructivisme ne suffit plus. Nous ancrerons donc notre approche de la construction des connaissances dans les courants :
du socioconstructivisme qui fixe les règles d’une vie commune faite de dépendance mutuelle et que les processus d’acquisition des connaissances ne peuvent se comprendre sans faire référence au sens et aux valeurs sociales associées aux symboles comme moyen de communication (Vygotski, 1978 ; Bruner, 1986, 1991) ;
de l’activité qui postule que la pensée n’est pas un ensemble discret d’actes cognitifs désincarnés. Elle situe la pensée dans la pratique quotidienne et affirme que les actions sont toujours insérées dans une matrice sociale composée d’individus et d’artefacts. L’activité accorde une importance majeure aux processus de médiation (Leontiev, 1981, Engeström, 1993) ;
de la cognition distribuée qui considère l’individu comme faisant partie d’un système fonctionnel incluant son environnement matériel et social. L’enseignement et l’apprentissage sont étudiés dans un contexte d’environnements réels (Hutchins, 1995, a & b ; Greeno, Collins & Resnick, 1996). L’affordance se réfère au « perçu » et aux propriétés fonctionnelles qui proposent uniquement comment « les objets » pourraient probablement être utilisés (Pea, 1993). Enfin, l’apprentissage se réfère à des phénomènes impliquant étroitement l’apprenant et son milieu : les environnements physiques et sociaux participent à la cognition en tant que véhicules de la pensée, et pas uniquement comme source d’information ou comme supports matériels des productions d’un individu ; les apprentissages ne résident pas que « dans la tête d’un individu », mais elles influencent aussi sous la forme de modification de l’environnement (Perkins, 1985).
de la cognition et de l’action situées qui met en évidence le caractère opportuniste et improvisé de l’action. L’accent est mis sur l’ancrage matériel et social, sur le rôle fondamental joué par les facteurs contextuels et les mécanismes de production d’intelligibilité mutuelle entre acteurs (Suchman, 1987). L’apprentissage s’organise autour d’une « participation périphérique légitime » (legitimate peripheral participation) avec laquelle l’apprenant n’acquiert pas un ensemble de connaissances abstraites qu’il pourra ensuite transférer et réappliquer dans des contextes ultérieurs ; il apprend à faire en étant engagé dans un processus de réalisation, avec des conditions adaptées d’une participation périphérique légitime, c’est-à-dire quand il participe à la pratique effective d’un individu « qui sait déjà » (Lave & Wenger, 1990).
L’approche didactique
L’approche didactique étudie le processus de transmission-appropriation de connaissances spécifiques et les caractéristiques des situations dans lesquelles ce processus est mis en jeu. À ce titre, elle est susceptible de déterminer le « savoir enseigné » mis en jeu dans une situation donnée. Cette approche distingue le savoir enseigné, défini par la réalité des pratiques d’enseignement, du « savoir savant » produit par les experts. Dès lors, l’étude des connaissances mises en jeu dans les E3C ne peut se mener indépendamment de l’étude des conditions qui règlent ce jeu. Elle nous fournit ainsi un moyen de définir les fonctions que ces différentes connaissances sont amenées à remplir selon les situations. Fonction d’outil ou d’objet pour apprendre, contrôler un résultat, valider une hypothèse...
Elle permet en outre de définir les connaissances qui peuvent être transmises et celles que l’élève doit (re)construire. Par exemple, en physique on peut s’intéresser à la description qualitative d’une situation technique (comment fonctionne un circuit électrique) ou à la formalisation de cette situation (formalisation mathématique des relations entre les concepts) ou encore combiner ces deux aspects. Dans chacun des cas, même si des connaissances sont communes, les fonctions qu’elles remplissent sont différentes. Partant, celles des outils hypermédias, qui assurent leur mise en œuvre – tant sur le plan de la transmission que sur celui d’aide à l’activité de construction de l’élève – le sont également. Ainsi, dans nos exemples, les outils techniques choisis dans chacune des deux premières situations ne peuvent se transférer dans la troisième uniquement sur la base d’une combinaison cumulative. Dans chaque cas, le choix opéré dépend de la pertinence de l’analyse de la situation que l’on peut faire.
L’approche psychologique
Les recherches en psychologie cognitive ont souvent rejoint le point de vue didactique. En effet, elles se sont fréquemment détournées de théories générales qui mettent l’accent sur les structures et supposent un développement normatif et linéaire pour étudier des modèles locaux de fonctionnement cognitif des individus engagés dans telle ou telle activité. Elles accordent ainsi une importance particulière aux caractéristiques des situations dans lesquelles les procédures et les fonctionnements cognitifs s’élaborent et s’exercent. Dans cette perspective, il importe de pouvoir mener, à l’instar des psychologues du travail, une analyse de la tâche et une analyse de l’activité. La première rend compte des contraintes de réalisation, des contenus et du but prescrit tandis que la seconde décrit les moyens et les stratégies utilisés par les sujets. Cette distinction sera illustrée à travers la mise au point d’une tâche de détection des pannes dans un circuit électrique.
Si l’analyse de la tâche et celle de l’activité se mènent dans un rapport dialectique, elles ne sont en aucun cas réductibles l’une à l’autre. Cette distinction permet d’éviter l’écueil d’une confusion pédagogique courante entre le but prescrit et le but effectivement poursuivi par l’apprenant. Ceci débouche sur un problème théorique de taille : la dévolution de la situation à l’apprenant et le rôle des outils dans cette dévolution, selon la représentation que l’individu se fait de cette situation.
Caractère contextualisé des processus d’apprentissage
Toutes ces approches insistent sur le caractère contextualisé des processus d’apprentissage. Elles soulignent que la structuration des connaissances se construit à travers des pratiques socialisées qui définissent la communauté d’apprentissage comme des environnements médiatisés sociotechniques d’apprentissage. C’est-à-dire qu’ils donnent les outils techniques et conceptuels des connaissances humaines du moment pour amplifier les interactions coopératives.
La notion de communauté d’apprentissage se caractérise maintenant par l’évolution des modèles de transmission de connaissances préétablies et admises qui donnent lieu à un schéma linéaire d’apprentissage vers un schéma de médiation fonctionnelle, dans lequel les artefacts et les organisations sociales dans la communication des connaissances (Agostinelli, 2003) sont considérés comme des œuvres humaines faisant l’objet d’une communication culturelle socialement organisée qui aide les individus à créer et maintenir la solidarité du groupe, à sensibiliser les individus au partage du travail et à constituer des modes de pensée qui sont à la fois partagés et négociables (Meyerson, 1995).
L’intérêt d’envisager l’espace didactique est avant tout l’idée que l’espace d’une communauté d’apprentissage n’est pas un espace naturel. C’est un espace d’actions et de conflits, de stratégies et de décisions développées par les membres autour des connaissances mises en jeu.
Dans cet espace, les connaissances ne sont pas là par hasard, elles ne sont pas neutres et leur acquisition n’est ni automatique, ni transparente. Les situations proposées mettent en relation, a minima, un apprenant et une connaissance ; elles ne peuvent donc pas être dénuées d’intention. Elles ont la responsabilité de choisir et d’articuler des informations d’origines nécessairement différentes pour autoriser une activité cognitive d’un individu, c’est-à-dire solliciter sa base de connaissances afin qu’il puisse apprécier sa fonctionnalité et éventuellement la modifier : apprendre, c’est modifier fonctionnellement la représentation que l’on a d’un objet.
Cette responsabilité est le fondement du paradoxe didactique : laisser à l’apprenant la maîtrise du traitement d’une information dont « d’autres » lui ont dit qu’elle serait pertinente pour lui. Dès lors, cette communauté n’a de réalité que s’il y a présomption entre les membres de quelque chose à savoir et de la présence de quelqu’un qui sait que ce savoir est là mais surtout qui sait comment on peut y accéder. C’est d’ailleurs pour cela que les situations sont proposées autour de deux fonctions : transmettre le savoir et acquérir le savoir. L’espace didactique est donc un lieu d’intentions qui légitime les conditions et les contraintes d’une communication des connaissances.
Conclusions et questions
Plusieurs questionnements et perspectives peuvent être envisagés à la fin de cette partie :
au niveau des usages :
Ces prêts à enseigner ou à apprendre sont-ils spécifiques des pratiques, c’est-à-dire issus des usages effectifs et non supposés ou prescrits par le dispositif ?
À quel niveau de l’activité d’enseigner ou d’apprendre les ressources proposées interviennent-elles ?
Si les ENT sont intéressants du point de vue de leur observation, c’est qu’il est nécessaire de saisir leur réalité en tant qu’objets partagés et partageables, comme possibles supports référents d’une pratique commune.
au niveau des outils de communication
Quelle est la prédisposition de tels dispositifs à structurer la communication ?
Comment se répartissent les tâches entre l’utilisateur et les outils techniques proposés dans la diffusion de l’information, l’acquisition de connaissances... À quel niveau des fonctionnalités de la communication interviennent ces outils ?
au niveau des concepts
Globalement le concept central de tels dispositifs est celui de la médiation des connaissances. Les enjeux maintes fois évoqués sont toujours aussi difficiles à cerner et retournent deux questions toujours en débat :
D’une part, la question de l’interaction homme-machine qui renvoie aux approches de la médiation par l’outil et à la confusion permanente entre l’instrumentation technique d’une action humaine et sa mise en œuvre effective par l’action des individus.
D’autre part, la question de l’identification des processus interindividuels ou collectifs d’appropriation des instruments de communication qui renvoie aux pratiques induites par l’usage des TIC.
Dans le cadre du partage des connaissances, ces pratiques sont révélatrices d’une activité cognitive et des modes de contractualisation qui se construisent entre acteurs individuels ou collectifs.
Ce premier chapitre, non exhaustif, demande un éclairage conceptuel des différentes questions qu’il soulève. Ainsi dans la deuxième partie, nous introduisons la notion de partage dans la construction de connaissances communes à travers les discours culturels et l’apprentissage collaboratif.
Notes de bas de page
1 http://www.educnet.education.fr/dossier/hypermedia/historique.htm
2 http://www.culture.gouv.fr/culture/actualites/conferen/tasca-2001/extraits-nelson.htm
http://www.ibiblio.org/pioneers/nelson.html
3 Le coup d’envoi aux hypermédias était donné par la décision de la compagnie Apple de donner à chaque usager, à l’achat d’un micro-ordinateur Macintosh, une version du logiciel HyperCard utilisant le langage HyperTalk (Bill Atkinson). C’était un environnement dans lequel la barrière entre programmation et hypertexte disparaissait. Il permettait de réaliser des documents non linéaires et peut être considéré comme une des premières implantations grand public du concept d’hypertexte.
4 Au début de 1995, plus de 100 pays reliés à l’Internet regroupaient 30 millions d’utilisateurs, dont 90 000 en France. Source : Internet Society, mai 1995.
Le développement d’Internet en Europe : dès janvier 1995, le nombre de machines pour 100 000 habitants dépasse 500 pour les pays qui s’affirment dans le peloton de tête de la socialisation d’Internet : Islande (1755), Finlande, Norvège, Suisse (723), Pays-Bas et Danemark (522). La France, au 11e rang, n’atteindra ce seuil que deux ans et demi plus tard, http://barthes.ens.fr/atelier/geo/historique-internet.html
5 Open University : http://oubs.open.ac.uk/
Télé-Université du Québec : http://www.teluq.uquebec.ca/
6 6 http://www.cned.fr/
7 Institut national de recherche et de développement pédagogique.
8 Office français des techniques modernes d’éducation.
9 Centre national de documentation pédagogique : http://www.cndp.fr/
10 Ces grands réseaux offrent des services de soutien à domicile pour les élèves : Homework Helper sur Prodigy, Academie Assistance Center sur America On Line...
11 Information Market Observatory (IMO), Commission européenne, février 1995. Les abonnements des particuliers aux services en ligne ont cru de 87 % aux États-Unis en 1995 selon une étude de l’Electronic Information Report.
12 http://www.aol.fr/
13 http://www.grolier.fr/
14 http://www.kellogg.nwu.edu/student/gma/intl/ebc/overview.htm
15 http://www.infonie.fr/
16 http://www.telekom.de/
17 http://www.nettuno.it/
18 http://www.aftt.net
http://www.aftt.net/aftt/etw97/etwl011.htm : site de la conférence « apprendre en réseau, apprendre autrement », qui s’est tenue le 10 novembre 1997 dans le cadre de la semaine européenne du télétravail.
19 http://www.fore.agropolis.fr :
20 http://www.reseau.org/rad
21 http://www.cnam-versailles.fr
22 http://194.183.214.213 – blemaire@club-internet.fr
23 http://www.insa-lyon.fr/People/IF/lF/sdelouis
24 http://206.167.88.162/francais/index.html
25 http://www.aupelf-uref.org/
26 http://www.education.gouv.fr/actu/develo504b.htm
27 http://www-icdl.open.ac.uk/icdl/database/europe/france/federati/inst/
28 http://www.cned.fr/Presentation/ICDE.htm
29 http://www.bbc.co.uk/education/fe/index.htm
30 http://www.lacinquieme.fr/
31 http://www.sdv.fr/arte/ftext/flindex.html
32 http://www.geoinfo.tuwien.ac.at/events/COMETT/comorg.html
33 http://europa.eu.int/en/comm/dg22/leonardo.html
34 http://www.univ-lille1.fr/socrates/
35 L’habitat de LucasFilm (http://www.lucasfilm.com/) a été un des premiers jeux de rôle en ligne. Créé par Randy Farmer et Chip Morningstar (1985), il était diffusé par Quantum Link et fonctionnait sur l’ordinateur « commodore 64 ».
36 Un avatar est une représentation graphique à l’écran d’un internaute. Dans certains systèmes de chat ou de forum, l’utilisateur choisit d’apparaître sous la forme d’un homme, d’une femme ou encore d’un animal.
37 On attribue généralement l’apparition de la notion de blog au journal personnel de Brigitte Gemme : Montréal, soleil et pluie. MSP est une chronique écrite chaque matin sur tout, surtout sur rien, sur le quotidien, l’ordinaire, le temps qui passe, http://www.er.uqam.ca/nobel/rl7010/msp/
38 Les contenus ne sont pas ici des connaissances disciplinaires, elles sont des informations en tous genres se rapportant à une entreprise ou une organisation. Pour avoir une définition de « contenu » sur le Web : http://www.google.fr/search?hl=fr&lr=&defl=fr&q=define:Contenu&sa=X&oi=glossary_definition&ct=title
On réunit le plus souvent en un même outil la gestion des contenus et la gestion de la restitution de ces contenus. En anglais, ce sont les notions de Content Management d’une part, et Content Delivery d’autre part.
Les outils CMS les plus simples mêlent volontairement ces deux fonctions : leur objectif est spécifiquement de gérer des contenus destinés à constituer un site Web, et leur fonctionnement est sensiblement simplifié par cette association. Au sens strict pourtant, il convient de distinguer gestion de contenu et publication : la gestion de contenu consiste à bâtir et administrer une base des contenus, cela sans présager de l’usage qui sera fait de ces contenus. Ces contenus pourront servir à construire un site Web, mais peut-être aussi plusieurs sites Web différents, alimentés par la même base et présentant des sélections de contenus différentes, ou bien différents sites répondant à des chartes graphiques différentes. Mais ces contenus pourront aussi être restitués sur d’autres médias : servir à la construction d’un catalogue papier, par exemple. Ou bien même la base des contenus peut être construite dans une perspective de knowledge management, sans finalité de publication. La fonction de publication, quant à elle, consiste à restituer une sélection de contenus issus du référentiel, sur un média particulier, par exemple pour élaborer un site web (Bertrand & Chentouf, 2006, p. 17-18).
Dans l’offre de produits de CMS (Content Management Systems), on peut donc distinguer d’une part les produits orientés vers la seule gestion d’un site Web, simples, prêts à l’emploi, aux possibilités d’extension généralement limitées, d’autre part les produits plus haut de gamme, qui permettent de construire un véritable référentiel de contenus au niveau de l’entreprise, de définir les processus de gestion associés, et de décliner la restitution de ces contenus sur une variété de médias. Aujourd’hui, le premier domaine, celui des CMS intégrés, est totalement conquis par les produits issus de l’open source, tels que Cofax, PhpNuke, Mambo, Typo3 ou Spip (Bertrand & Chentouf, 2006, p. 4-5).
39 Le Wiki a été une réponse technique à un besoin d’échange de connaissances et de savoir-faire de la communauté des développeurs informaticiens. Le premier Wiki a été développé par Ward Cunningham en 1995, pour recueillir les « façons de régler un problème » en informatique.
40 Ces deux exemples sont significatifs de « l’état d’esprit » qui entoure les Wikis. Le lecteur trouvera sans difficulté de nombreux exemples du type :
– « Net. Portai 2004,... dispose dorénavant d’un wiki, une solution simple de collaboration permettant de créer et de partager de véritables bases de connaissances en entreprise. » http://www.mediapps.com/nportal/upload/fr/home/cpwiki.html
– « Le wiki est un support collaboratif de plus en plus utilisé en entreprise car il propose une communication plus posée et plus constructive que les e-mails et les messageries instantanées. » (Dupin L., 24 avril 2006, Les logiciels de wikis tentent de percer en entreprise, ZDNet France) http://www.zdnet.fr/entreprise/management-rh/collaboratif/0,50007183,39341858,00.htm
41 http://www.linux-france.org/article/these/osd/fr-osd.html
42 http://creativecommons.Org/licenses/by-nc-sa/2.0/fr/
43 Schéma directeur des espaces numériques de travail. Projet de version 1 soumis à appel à commentaires du 17/03/2005.
http://www.educnet.education.fr/chrgt/SDET.pdf
44 Le plan « informatique pour tous » est lancé le vendredi 25 janvier 1985, par M. Laurent Fabius, Premier ministre, et Messieurs Gaston Defferre, ministre d’État, chargé du Plan et de l’Aménagement du territoire, et Jean-Pierre Chevènement, ministre de l’Éducation nationale.
45 Programme d’action gouvernemental pour la Société de l’Inform@tion : ministère de l’Éducation nationale, de la Recherche et de la Technologie – Archives 1997-1999. http://www.education.gouv.fr/réalisations/communication/samra.htm
46 http://tecfa.unige.ch/tecfa/teaching/stafl1/textes/Dillenbourg03.pdf
47 12 L’objet lui-même ;
11 Les modèles multidimensionnels de l’objet ;
10 Les schémas multidimensionnels réduits ou augmentés ; les représentations anamorphosées à l’aide de systèmes optiques ;
9 La photographie ou projection réaliste sur un plan ;
8 Le dessin et la photographie détourée ;
7 Le schéma anatomique ou de construction ;
6 La vue éclatée ;
5 Le schéma de principe électrique ou électronique ;
4 L’organigramme ;
3 Le schéma de formulation ;
2 Le schéma en espaces complexes ;
1 Le schéma de vecteurs dans les espaces abstraits.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Espaces communs de communication de connaissances : E3C
Ce livre est diffusé en accès ouvert freemium. L’accès à la lecture en ligne est disponible. L’accès aux versions PDF et ePub est réservé aux bibliothèques l’ayant acquis. Vous pouvez vous connecter à votre bibliothèque à l’adresse suivante : https://0-freemium-openedition-org.catalogue.libraries.london.ac.uk/oebooks
Si vous avez des questions, vous pouvez nous écrire à access[at]openedition.org
Référence numérique du chapitre
Format
Référence numérique du livre
Format
1 / 3