Chapitre 4. Explication « en comment » d’enfants de 6 ans : les relations temporelles et sémantiques entre les unités linguistiques et gestuelles
p. 83-121
Texte intégral
Introduction
1Les données que nous proposons d’analyser dans ce chapitre font partie du projet PAMEALE1 pour lequel nous avons collecté un corpus de 60 explications du type « comment » d’enfants francophones natifs âgés de 6 ans. L’exploitation de ces données a déjà donné lieu à différentes analyses concernant la production gestuelle et langagière de jeunes enfants (Mazur-Palandre & Lund, 2012a, 2012b, 2016a, 2016b), en particulier sur l’effet du contexte de production sur les pratiques langagières. À partir de ces travaux, nous avons développé une collaboration avec une équipe d’un autre projet scientifique (ANR no 0178-01), ayant des questions de recherche et des corpus similaires aux nôtres (traitant notamment des explications en « comment »). Ce nouveau cadre de recherche nous a permis d’enrichir nos analyses en travaillant sur ces deux corpus d’explications d’enfants : un corpus d’explications dites « instructionnelles » et un corpus d’explications dites « procédurales ». Pour ces travaux, nous nous sommes tout particulièrement interrogées sur la façon dont les contraintes pragmatiques de deux types d’interactions explicatives influencent à la fois l’organisation des éléments syntaxiques des propositions et les gestes des enfants (Mazur-Palandre, Lund & Colletta, 2014, soumis). Ces différents travaux nous ont amenés à porter notre attention sur les liens sémantiques et temporels entre les gestes et le langage verbal. Nous en présentons les analyses dans le présent chapitre.
Cadre théorique
Gestes et langage
2Le concept de multimodalité introduit par Adam Kendon dans les années 1970 sous-entend que la production et la compréhension du langage implique une dimension coverbale : geste et langage seraient deux systèmes intégrés fonctionnant ensemble. Une version forte de la multimodalité (Kita, 2000 ; Kita & Özyürek, 2003) consiste à considérer :
- le geste comme contributeur de la conceptualisation du message (à son stade précoce, préverbal) et de sa formulation ;
- le geste comme possédant une fonction communicative ;
- le mécanisme de commande du geste comme correspondant à une étape précoce du processus langagier ;
- l’existence d’une influence mutuelle entre geste et unité linguistique lors de l’élaboration du message et ce, dans le but de communiquer en adaptant ces choix au contexte de production.
3Kita et Özyürek (2003) proposent un modèle de production langagière et gestuelle (basé sur le modèle de production langagière de Levelt, 1989) intégrant ces différents aspects et insistant sur le lien fort entre, d’une part, le contexte de production et les choix gestuels et linguistiques et, d’autre part, les modules de production gestuelle et les modules de production langagière qui sont liés et s’influencent.
4Ainsi, geste et langage sont à percevoir comme un système commun et sont utilisés en collaboration (Kendon, 2000 ; McNeill, 1992, 2000 ; McNeill & Duncan, 2000). Ces deux unités – geste et langage – sont alors dites « sémantiquement et temporellement synchrones » (Kendon, 2000 ; McNeill, 1992 ; McNeill & Duncan, 2000) : les gestes seraient automatiquement réalisés en même temps que les unités linguistiques auxquelles ils sont associés tout en ayant également le même sens que ces unités linguistiques. Néanmoins, si les gestes expriment la même idée sous-jacente que l’unité linguistique, cela ne les empêche pas d’introduire des aspects différents de cette même idée (McNeill & Duncan, 2000). Néanmoins, certains chercheurs montrent que le début du geste (Butterworth & Beattie, 1978 ; Hadar & Butterworth, 1997 ; Morrel-Samuel & Krauss, 1992) ou même le « stroke » (Schegloff, 1984) peuvent être produits avant l’unité linguistique à laquelle il est lié et que cette asynchronicité temporelle s’accompagne également d’une différence de sens (Bergmann, Aksu & Kopp, 2011). Ces derniers démontrent que, quand le geste est temporellement synchrone avec le langage, il a le même sens que le langage alors que, si geste et langage sont temporellement asynchrones, ils ne sont pas sémantiquement similaires : le geste apporte un complément d’information au langage.
5Nous aborderons ces questions de l’alignement temporel et sémantique des gestes et de la parole, et à partir des analyses quantitatives et qualitatives conçues pour être complémentaires (tout comme Tellier, à paraître, dans ce même ouvrage et Demaizière & Narcy-Combes, 2007 en didactique ou encore Bavelas, 1995). Afin de préciser nos questions de recherche, nous passons en revue les travaux sur la relation entre geste et langage dans une perspective développementale.
Lien geste/langage dans une perspective développementale
6Plusieurs études montrent que le geste joue un rôle important dans l’acquisition et le développement du langage précoce. Un système intégrant gestes et langage est construit très tôt et s’explicite par le biais de production de messages combinant des unités gestuelles et linguistiques (entre autres, Capirci, Iverson, Pizzuto & Volterra, 1996 ; Goldin-Meadow & Butcher, 2003). La dimension coverbale et multimodale des messages évolue au cours du développement linguistique de l’enfant selon les différentes étapes de l’acquisition du langage (entre autres, Alibali, Evans, Hostetter, Ryan & Mainela-Arnold, 2009 ; Colletta, 2004 ; Colletta, Pellenq & Guidetti, 2010 ; Morgenstern, soumis).
7Au fur et à mesure que les enfants grandissent et évoluent, ils développent leurs capacités linguistiques en utilisant, par exemple, des structures syntaxiques plus complexes comme la subordination non finie ou la construction passive (entre autres, Jisa, Chenu, Fekete, Omar & Saidi, 2008 ; Jisa, Reilly, Verhoeven, Baruch & Rosado, 2002). Le répertoire des gestes évolue également : les enfants produisent des gestes de plus en plus variés ; par exemple, les gestes discursifs vont se mettre en place peu à peu et plus tardivement que les gestes représentationnels (ou concrets) (entre autres, Colletta, 2004 ; Colletta & Pellenq, 2005, 2009) et les gestes sémantiquement redondants à la parole vont être de moins en moins produits (Alibali, Evans, Hostetter, Ryan & Mainela-Arnold, 2009). Les travaux de Guidetti, Fibigerova et Colletta (2014) montrent également que, le répertoire gestuel des enfants se développe au fur et à mesure qu’ils grandissent : ils produisent moins de gestes représentationnels et de plus en plus de gestes non représentationnels, en particulier des gestes discursifs et de cadrage. Les auteurs associent cette utilisation progressive des gestes discursifs au développement et à la mise en place de la cohésion du discours.
8De plus, les enfants développent progressivement la capacité d’adapter leur message linguistique (Berman, 2004, 2005 ; Berman & Ravid, 2009 ; Mazur-Palandre, 2015) et leur comportement gestuel (Colletta, 2004 ; Colletta, Pellenq & Guidetti, 2010 ; Mazur-Palandre, Colletta & Lund, 2014) selon le contexte. Les enfants produisent, par exemple, plus de sujets sous forme lexicale (La petite fille s’est perdue versus il y a une petite fille, elle s’est perdue) dans les textes expositifs que dans les textes narratifs (Mazur-Palandre & Jisa, 2013) et des gestes concrets2 plus dans des productions de type description et narration que dans des productions de type explication (Colletta & Pellenq, 2005). Les compétences pragmatiques des enfants varient également en fonction du contexte (Mazur-Palandre, Colletta & Lund, 2015).
9Les études se concentrant sur le lien sémantique entre les gestes et le langage chez l’enfant révèlent que certains gestes peuvent apporter des informations différentes de celles véhiculées par le message linguistique (Church & Goldin-Meadow, 1986 ; Perry, Breckinridge Church & Goldin-Meadow, 1988 ; Perry, Breckinridge Church & Goldin-Meadow, 1992). Les résultats de ces études sont cohérents avec l’étude de Bergmann, Aksu et Kopp (2011). En effet, cette inadéquation sémantique entre le geste et le langage semble se produire lorsque les enfants apprennent quelque chose de nouveau et apparaissent comme un indicateur de la connaissance qui est en cours de transformation. Perry, Breckinridge Church et Goldin-Meadow (1992) concluent que les gestes jouent un rôle dans la mémorisation des nouvelles informations dans l’élaboration du savoir ainsi que dans le traitement cognitif de l’information dans l’environnement.
10Si certaines études sur la production langagière et le geste chez les enfants se concentrent sur le décalage sémantique entre les deux unités, peu finalement observent les aspects à la fois temporels et sémantiques. Les travaux de Pine, Lufkin, Kirk et Messer (2007) révèlent qu’un tiers des gestes produits par des enfants de 6 ans (N = 21, âge moyen : 6,5 ans, allant de 6,0 à 7,75 ans) produisent des informations différentes de celles exprimées dans leur production verbale : 69 % des gestes produits ont la même information que la production verbale, mais 31 % apportent des informations différentes. La majorité des gestes sont sémantiquement alignés sur la parole, ce qui est conforme aux conclusions de l’étude de Bergmann, Aksu et Kopp (2011) concernant la production gestuelle et langagière d’adultes. Enfin, les analyses de Pine, Lufkin, Kirk et Messer (2007) montrent également que 3 des 21 enfants participant à leur étude produisent des gestes temporellement asynchrones aux unités linguistiques auxquelles ils sont associés, c’est-à-dire qu’ils font les gestes avant d’introduire l’information sous forme linguistique. Leurs résultats montrent également que 6 des enfants communiquent des informations uniquement avec des gestes, sans recours à la forme linguistique. Pour finir, ces auteurs concluent également que les gestes jouent un rôle fonctionnel dans la planification du message (Pine, Lufkin, Kirk & Messer, 2007).
11Toutes les études citées ci-dessus tendent à mieux comprendre la relation entre les gestes et la parole dans les productions d’enfants, mais aucune n’observe à la fois les liens temporels et sémantiques entre les deux unités, comme l’ont fait Bergmann et ses collaborateurs pour une population adulte (2011). C’est ainsi l’objectif de ce chapitre.
Explication « en comment »
12L’explication a été choisie comme type de texte à produire dans notre étude dans la mesure où elle apparaît comme un contexte linguistique dans lequel nous pouvons saisir les compétences linguistiques mobilisées dans la production de la langue. L’explication apparaît très tôt dans le développement de l’enfant ; dès 18 mois, l’enfant est capable de produire des conduites, que Veneziano et Hudelot (2002) qualifient d’« explicatives/justificatives » (Colletta & Pellenq, 2005, 2009 ; Colletta, Simon & Lachnitt, 2005). À cet âge, les explications de l’enfant, qui sont construites sans connecteur (« parce que » est produit seulement vers 3 ans en moyenne) s’assimilent davantage à des justifications.
13Pour produire une explication, l’enfant doit être capable : d’envisager que son interlocuteur a des états internes différents de lui ; de décontextualiser le langage ; d’envisager que le langage peut modifier les états internes d’autrui, qui peuvent être différents des siens et de produire un discours cohésif et cohérent (Colletta & Pellenq, 2005, 2009 ; Hickmann, 1987, 2003 ; Veneziano & Hudelot, 2002). Ces compétences ne se mettent en place que progressivement (Colletta & Pellenq, 2005, 2009 ; Traxler & Gernsbacher, 1995 ; Veneziano & Hudelot, 2002) : ce n’est pas avant 10 à 11 ans que l’enfant devient capable d’assurer la cohésion et la cohérence d’une production (Mazur-Palandre, 2009 ; Schneuwly, 1988) ; de plus, l’appréciation et la prise en considération du non-partage de la référence avec un destinataire ne seraient effectives qu’à partir de 9 ans et continueraient d’évoluer au moins jusqu’à 11 ans (Favart & Passerault, 1996).
14Le choix de l’explication comme tâche linguistique à observer s’argumente ainsi par le fait que ce type de séquence linguistique évolue selon les compétences acquises par l’enfant et que, de 2 ans à 11 ans et connaît une importante évolution (Colletta, Simon & Lachnitt, 2005). Tenter de comprendre l’évolution de l’explication entre ces deux périodes du développement est un réel enjeu psycholinguistique. Un deuxième argument est que l’explication implique deux objectifs essentiels au développement linguistique des enfants : se faire comprendre et adopter un comportement détaché de la situation d’énonciation immédiate (Colletta, Simon & Lachnitt, 2005 ; Veneziano & Hudelot, 2002). Enfin, le troisième argument est l’aspect pédagogique de l’explication dans la mesure où celle-ci est l’un des médias de l’apprentissage (Colletta, Simon & Lachnitt, 2005).
15L’explication est une thématique d’autant plus intéressante qu’elle est difficile à définir. En effet, si les chercheurs ayant travaillé sur l’explication s’accordent à dire qu’elle s’organise autour d’un explanandum (phénomène ou comportement à expliquer) et d’un explanans (cause, raison, motif = ce qui explique) (Colletta, 2005 ; Colletta & Pellenq, 2009 ; Lund, 2003 ; Veneziano & Hudelot, 2002 ; Veneziano & Sinclair, 1995), ils ne nient pas que la polysémie du mot « expliquer » en fait un concept difficilement définissable. L’explication peut répondre à trois questions : « qu’est-ce ? », « comment ? », et « pourquoi ? » (Grize, 1990). Alors que la majorité des travaux sur l’explication se concentre sur les explications en « pourquoi » (Colletta, 2004, 2005 ; Colletta & Pellenq, 2005, 2009 ; Veneziano & Hudelot, 2002 ; Veneziano & Sinclair, 1995), cette présente étude se focalise sur l’explication en « comment » qui peut alors prendre différentes formes : enseigner, expliciter, analyser, décomposer en éléments, raconter, décrire, exposer, développer, résumer, schématiser, rendre simple un objet ou une situation complexe, montrer, construire des réalités sociales, préciser des phases, détailler, comparer (Grize, 1980 ; Gülich, 1991 ; Antaki, 1994 ; Lund, 2003). Le type d’explication en « comment » observé est celle dont le but est d’enseigner, dans la mesure où des enfants doivent expliquer à des paires comment jouer à un jeu vidéo. Toutes les explications élicitées par le biais de notre protocole appartenaient à cette catégorie.
16Une autre originalité de notre étude réside dans le fait que nos populations d’enfants, desquelles nous solliciterons une explication de manière expérimentale (voir protocole), seront organisées en dyades dans la mesure où le contexte d’apparition de l’explication est la situation dialogique et que les enfants sont plus motivés à réaliser une tâche lorsqu’il s’agit de le faire avec un pair plutôt qu’avec un adulte (Hudelot, 2008 ; Labov, 1980). La formation des dyades doit se faire en fonction de la « sélection naturelle » afin d’avoir un maximum de matière à travailler : les amis sont en effet plus enclins à parler que des individus se connaissant peu (Bernicot, Laval & Ervin-Tripp, 2002) et le travail collaboratif en dyade est une situation relativement écologique dans la mesure où les enfants à l’école ont l’habitude de travailler à deux.
Questions de recherche et hypothèses
17Comme indiqué précédemment, peu nombreuses sont les études qui observent les trajectoires développementales de la relation sémantique et temporelle geste-langage (on peut citer tout de même les travaux de Church & Goldin-Meadow, 1986 ; Perry, Church & Goldin-Meadow, 1988 ; Perry, Breckinridge Church & Goldin-Meadow, 1992) et celles sur les liens temporels entre ces deux unités (on peut citer néanmoins, Pine, Lufkin, Kirk & Messer, 2007). Ainsi, le but de ce chapitre est d’observer les liens sémantiques et temporels entre gestes et langage chez l’enfant de 6 ans francophone natif, lors d’une tâche d’explication, et ce en nous demandant : si gestes et langage chez l’enfant sont sémantiquement alignés et temporellement synchrones pour une population d’enfants et si non, si certains types de gestes sont plus à même de se différencier sémantiquement de l’unité linguistique à laquelle il est rattaché et temporellement asynchrone ; dans ce cas est-ce que les gestes apportent des informations supplémentaires ? Et enfin, est-ce que les gestes sémantiquement différents de l’unité à laquelle ils sont rattachés et temporellement asynchrones apparaissent dans des contextes linguistiques spécifiques, par exemple pendant une pause ou une marque de travail de formulation telle que la répétition ?
18Étant donné que les gestes et le langage sont généralement alignés sémantiquement et temporellement synchronisés, nous postulons que la plupart des gestes, pour une population d’enfants, sont alignés sémantiquement et temporellement synchronisés avec la proposition à laquelle ils sont associés (H01-A ; question de recherche a) et qu’il existe une relation entre les deux valeurs : les gestes et la parole de l’enfant sont alignés sémantiquement lorsqu’ils sont synchronisés temporellement (H01-B).
19Notre deuxième hypothèse (H02 ; question de recherche b) s’appuie sur les résultats décrits précédemment (Bergmann, Aksu & Kopp, 2011 ; Pine, Lufkin, Kirk & Messer, 2007). Nous postulons que les explications des enfants de 6 ans comportent également des gestes qui sont asynchrones temporellement avec l’unité linguistique à laquelle ils sont associés (démontrant ainsi l’existence de gestes intervenant avant ou après la parole associée).
20Enfin, si notre hypothèse H02 est confirmée et qu’ainsi les enfants produisent des gestes asynchrones, nous proposons d’étudier les contextes d’apparition de ces gestes, et nous postulons donc que ces types de gestes apparaissent dans des contextes spécifiques, que les données rendront explicites (question de recherche c).
Méthode
21Dans cette section, après avoir décrit plus explicitement le protocole expérimental de l’étude, nous présentons le codage des gestes.
Protocole expérimental
22Dans la section ci-dessous, après avoir présenté les participants de notre étude, nous proposons une description de la procédure et des jeux joués par les participants (c’est-à-dire le stimulus incitant à la production de deux explications par individu). Enfin, chacune des différentes phases de la procédure est décrite plus en détail.
Participants
23Pour cette étude, nous avons collaboré avec trois écoles du Nord Isère (130 élèves). Tous les enfants de CP de ces établissements ont rempli un questionnaire à partir duquel une sélection s’est faite. Tous les enfants sélectionnés sont des francophones natifs, droitiers, non bilingues, ne présentant pas de troubles du comportement et d’apprentissage. Parmi ces écoliers, 60 ont participé : 30 filles et 30 garçons (tableau 1).
Tableau 1 - Âge des individus
Moyenne d’âge | Écart-type | Éventail |
6.6 ans | 0.47 (soit 4,7 mois) | [6.04 – 7.04] |
24Les individus ont bien entendu tous participé avec l’autorisation de leurs parents et sur la base du volontariat. La collecte des données a été faite durant les heures de classe à l’intérieur des établissements scolaires.
Procédure
25Il a été décidé d’analyser les pratiques langagières de jeunes enfants en situation de résolution de tâche. Deux types de tâche ont été réalisés : un jeu vidéo de chiffres et un jeu vidéo de spatialité. L’expérimentation a été réalisée en dyades constituées par les instituteurs, qui étaient les plus à même de choisir les enfants sachant travailler ensemble. Les instituteurs assignaient à chaque enfant de la dyade un rôle : « enfant-instructeur » ou « enfant-apprenant ». L’expérimentation comporte trois phases.
- Phase 1. Formation de l’enfant-instructeur : il se forme au jeu (avec le minimum d’aide des expérimentateurs afin de ne pas influencer ses choix linguistiques et gestuels ; les expérimentateurs ont des consignes strictes à respecter). Une fois le jeu réalisé, l’expérimentateur va chercher l’enfant-apprenant.
- Phase 2. Explication de l’enfant-instructeur à l’enfant-apprenant : l’enfant-instructeur explique le jeu à l’enfant-apprenant.
- Phase 3. Réalisation du jeu par l’enfant-apprenant sous le regard de l’enfant-instructeur : après la phase d’explication, l’enfant-apprenant réalise le jeu sous le regard de l’enfant-instructeur qui peut venir en aide à son camarade.
L’expérimentation s’est déroulée en deux périodes (semaine A et semaine B). Lors de la semaine A, les dyades ont réalisé un premier jeu et la semaine suivante un second jeu (l’ordre des jeux a été contrebalancé).
Jeux
26Chaque enfant a joué à deux jeux : un jeu de chiffres (la course aux nombres) et un jeu de spatialité (le casse-briques)3. Le jeu de chiffres implique concentration, observation et connaissances numériques. L’enfant est face à une zone contenant 9 cartes. Sur chacune des cartes, il peut y avoir des chiffres (de 1 à 9) et des formes (billes, bonbons, cerises, crayons et points). Le jeu comporte 4 niveaux présentant 4 grilles différentes ainsi que des énoncés différents (6 énoncés par grille). Un exemple de grille et d’énoncés est présenté dans la figure 2, à gauche.
27Ce jeu a plusieurs énoncés possibles (le logiciel en énonce 6 à chaque niveau) : « Trouve 9 billes », « Choisis 8 bonbons », « Cherche 9 points », « Trouve l’image qui contient le moins d’objets », « Montre 8 billes », « Quel chiffre vient après le 7 ? », « Où est le chiffre 7 ? », « Indique 8 points, 6-7-8 et ensuite ? », « Cherche 9 cerises ». Le but du jeu est de retrouver le paquet d’objets ou le chiffre correspondant à l’énoncé. Si l’enfant pointe la bonne carte, le logiciel propose un autre énoncé. Si l’enfant échoue, le logiciel propose la même phrase jusqu’à ce que l’enfant trouve la solution. Si l’enfant ne réussit pas le niveau (à savoir donner 6 bonnes solutions avant d’arriver à 6 mauvaises solutions), le même niveau est proposé.
28Le jeu de spatialité implique concentration et réflexes (figure 2, à droite) ; le joueur doit renvoyer une balle à l’aide d’une raquette. Plus le temps passe, plus la balle accélère. On joue avec la souris. Il faut cliquer pour démarrer le jeu. Les briques à détruire sont de quatre couleurs (figure 2) : les briques blanches se détruisent dès le premier coup ; les briques jaunes se détruisent dès le premier coup et distribuent des bonus (ajout d’une balle supplémentaire, allongement de la raquette) et des malus (rétrécissement de la raquette, accélération de la balle) ; les briques vertes deviennent blanches au premier coup et disparaissent au deuxième coup ; les briques rouges deviennent vertes au premier coup, blanches au deuxième coup et disparaissent au troisième coup. Le jeu a deux niveaux : dès que l’enfant a terminé le premier, le second s’affiche.
Détail des phases
29L’expérimentation comporte trois phases.
- Phase 1. Formation de l’enfant-instructeur (figure 4) ;
- Phase 2. Explication de l’enfant-instructeur à l’enfant-apprenant (figure 5) ;
- Phase 3. Réalisation du jeu par l’enfant-apprenant (figure 6).
30Pour les deux dernières phases, deux conditions sont réalisées : une première où les enfants se voient (ils sont en face-à-face) et une seconde où les enfants ne se voient pas (ils sont séparés par un rideau). Sur les 60 enfants ayant participé, 30 ont produit les explications (ce sont les enfants-instructeurs), les 30 autres remplissant les rôles des enfants-apprenants. Sur les 30 enfants-instructeurs, 15 ont fait leur explication des deux jeux en face-à-face et les 15 autres ont leur explication des deux jeux en ne voyant pas leur camarade. Les enfants-instructeurs pouvaient débuter soit par l’explication du jeu de chiffres soit par celui de spatialité : l’ordre était contrebalancé. Les explications des enfants, tous jeux et conditions confondus, étaient de 55,1 secondes en moyenne ; la plus courte durait 18 secondes, et la plus longue 142 secondes. Le tableau 2 présente la durée des explications selon le type de jeu expliqué.
Tableau 2 - Durée des explications
Explication du jeu de spatialité | Explication du jeu de chiffres | |
Durée moyenne | 61,20 secondes | 48,90 secondes |
Intervalle | 18-142 secondes | 23-98 secondes |
31Le tableau 3 donne une vision de la longueur des explications en nombre de clauses (ou de propositions). En moyenne, les explications du jeu de spatialité comportent 13,03 clauses et celles du jeu de chiffres 11,27 clauses.
Tableau 3 - Nombre de propositions par texte
Explication du jeu de spatialité | Explication du jeu de chiffres | |
Nombre moyen de propositions | 13,03 | 11,27 |
Intervalle | 4-42 | 4-24 |
32Durant la phase 1, l’enfant-instructeur se forme au jeu. Le matériel utilisé est un miroir, un PC portable et une caméra (figure 2). Un miroir, situé derrière le PC, pour avoir une image de face de l’enfant, est utilisé en plus de la caméra afin de capter le plus de gestes possibles.
33Sur la figure 2, nous pouvons donc voir l’enfant-instructeur en train de jouer au jeu vidéo. Le miroir permet de bien capter ses mouvements de tête.
34Durant la phase 2, l’enfant-instructeur explique le jeu à l’enfant-apprenant. Cette phase est réalisée sous les deux conditions (figure 3). Le matériel utilisé est constitué d’un miroir, d’une caméra, d’un rideau (pour la condition sans visibilité). L’ordinateur est toujours en place mais les enfants ne s’en servent pas. C’est à cette seconde phase que cette présente étude est dédiée.
35Sur la figure 3, nous pouvons donc voir à gauche deux enfants en face-à-face en train de parler (condition avec visibilité) ; à droite, les deux fillettes sont séparées par un rideau et ne peuvent se voir (condition sans visibilité).
36Durant la phase 3, l’enfant-apprenant joue au jeu. L’enfant-instructeur a consigne d’intervenir, s’il l’estime nécessaire, pour aider son camarade. Cette phase est réalisée sous les deux conditions (figure 4). Le matériel utilisé est constitué d’un miroir, de deux caméras, d’un rideau (dans la condition rideau), l’ordinateur (utilisé par l’enfant-apprenant) ainsi qu’un écran (dans la condition rideau – destiné à l’enfant-instructeur pour qu’il suive en direct le cours du jeu de l’enfant-apprenant).
37Sur la figure 4, à gauche, nous pouvons donc voir que les deux enfants sont côte à côte, et toutes les deux face à un même ordinateur : l’enfant-apprenant joue au jeu vidéo sous l’œil averti de sa camarade (condition avec visibilité) ; à droite, les deux garçons sont séparés par un rideau, ne peuvent se voir et l’enfant-instructeur peut voir ce que fait son camarade par le biais d’un écran d’ordinateur connecté au portable, ce qui permet une duplication de l’écran (condition sans visibilité).
Codage
38Le codage et la transcription des données ont été faits sous ELANTM (<http://www.lat-mpi.eu/tools/elan/>). Avant de pouvoir travailler nos vidéos sous ce logiciel, un premier traitement a été nécessaire. Les vidéos ont toutes été découpées, sous Adobe Première Pro, selon les phases de l’expérimentation. Pour la phase 3 de l’expérimentation, deux caméras étaient utilisées ; il a donc été utile de synchroniser les deux vidéos. Ensuite, le son des vidéos a été extrait. Ainsi, nous avions les deux fichiers utiles à ELAN : un fichier vidéo et un fichier son. Le travail sous ELAN s’est déroulé en deux phases : une phase de transcription et une phase de codage.
Quand un mouvement est-il considéré comme un geste ?
39Pour le présent travail, les gestes ont été codés. Pour identifier les unités gestuelles qu’il s’apprête à annoter, le codeur prend en compte deux principaux critères, le mouvement et l’emplacement, auxquels il attribue une valeur entre 0 et 2 (tableau 4). Un troisième critère est celui de la configuration – ce dernier n’est utilisable que pour les gestes concrets (apportant des informations sur des objets, des lieux, des trajectoires, des actions, des caractéristiques du monde concret (Colletta & coll., 2009). Le mouvement est identifié comme un geste lorsque la somme des valeurs attribuées pour les deux premiers critères est strictement supérieure à 2 (Colletta & coll., 2009). Le critère de la configuration ajoute 1 ou 2 points aux gestes concrets selon son degré de précision dans la représentation d’une forme.
Tableau 4 - Identification d’un geste
Critères | Échelle | Codage |
Mouvement | Repérable (bonne amplitude) | 2 |
Peu repérable | 0 | |
Entre les deux | 1 | |
Emplacement | Dans l’espace frontal du locuteur | 2 |
Sur un côté (peu ou pas repérable par l’interlocuteur) | 0 | |
Entre les deux | 1 | |
Configuration | Correspond à une forme précise | 2 |
Correspond à une forme imprécise | 0 | |
Entre les deux | 1 |
40Le geste peut être divisé en trois phases de gesticulation : préparation, « stroke » et rétractation (McNeill, 1992). Il s’agit ici du geste dans sa globalité, unité intégrant ces trois phases. Seuls, les gestes des mains et de la tête sont pris en considération ; les mouvements des jambes ou du tronc n’ont pas été pris en considération et les gestes autodirigés, tel le mouvement consistant à se mettre les cheveux derrière les oreilles, ont été exclus.
Codage des types de gestes
41Au cours des dernières décennies, plusieurs typologies de gestes ont été développées selon les objectifs des recherches, les disciplines ou encore le type de population observé (Kendon, 1987, 2000, 2004). Kendon note que les aspects ou les dimensions du geste mis en évidence dépendent des objectifs de l’enquête des chercheurs. En effet, en général, des décisions stratégiques sont prises par ces derniers lors de la collecte et de l’analyse de données qui permettent (ou gênent par inadvertance) de répondre aux questions de recherche. Dans ce chapitre, un intérêt tout particulier est accordé aux gestes coverbaux concrets, qui regroupent deux types de gestes : les gestes représentationnels et les déictiques, dans la mesure où, premièrement, ces types de gestes sont ceux qui apparaissent le plus précocement dans le développement de l’enfant ; les enfants commencent par les gestes déictiques (de pointage), suivis par les gestes représentationnels, puis apparaissent peu à peu des gestes discursifs et où, deuxièmement, le codage de ces types de gestes et leur association à leur unité linguistique, de par leur nature, réduit les cas problématiques et les erreurs. Nous nous basons sur la grille élaborée par Colletta, Capirci, Cristilli, Goldin-Meadow, Guidetti et Levine (ANR Multimodality Research Project 2005-2009), qui ce sont eux-mêmes inspirés des travaux de Colletta (2004), Cosnier (1993), Kendon (2004), McNeill (1992), Özçalişkan et Goldin-Meadow (2004).
42Le geste représentationnel (1) peut associer différentes parties du corps représentant (mimant) un objet concret ou une idée.
(1) Un geste représentationnel <et av/ et et> et c’+est un bout d(e) bois [Dyade 04, jeu de spatialité, condition de non-visibilité] Lorsque la jeune fille dit <et av/ et et> et c’+est un bout d(e) bois, elle réalise un mouvement horizontal avec les deux mains représentant le morceau de bois. |
Le geste déictique (2) correspond à un geste de pointage vers un référent présent lors de la situation d’énonciation ou indiquant sa direction.
(2) Un geste déictique en+fait <t(u) as> t(u) as un bâton // aussi (il)+y+a une balle // et (il)+y+a plein de briques // <tu (as) et euh avec le> avec ça // et ben <tu tu> tu cliques sur le bâton / [Dyade 02, explication du jeu de spatialité, condition en face-à-face. Pendant l’oralisation de « avec ça », le jeune garçon pointe la souris avec son index. |
43Les gestes concrets ont ainsi également été décrits selon le lien sémantique et temporel qu’ils entretiennent avec la proposition à laquelle ils sont associés. Les analyses de Streeck (1995) concernant les liens sémantiques et temporels entre geste et langage dans des productions d’adultes, montrent que les gestes sont synchronisés avec les propositions. En nous basant sur ces travaux, chaque geste concret a été associé à une proposition selon un critère spécifique : la relation sémantique. En outre, nous avons observé la coordination temporelle entre les deux unités.
Codage du lien sémantique entre gestes et parole
44Dans ses travaux, Iverson (1999) montre que les gestes peuvent entretenir différents liens sémantiques avec le langage. Ainsi, ils peuvent être totalement redondants avec la parole ; Iverson (1999, p. 1135) donne l’exemple suivant :
(3) « you go down the stairs » / « tu descends les escaliers » Phrase accompagnée d’un geste qui descend représentant l’inclinaison de l’escalier. |
Les gestes peuvent également apporter (en anglais, le verbe « to supplement » est utilisé par l’auteur) une information supplémentaire. Parmi ceux-ci sont différenciés :
- les gestes qui donnent plus d’informations que le message oral ; Iverson (1999, p. 1135) donne l’exemple suivant :
(4) « And there’s the doors outside » / « Et il y a les portes à l’extérieur » Phrase accompagnée d’un geste s’orientant vers la droite puis d’un geste de la main plate s’orientant vers la gauche. |
- les gestes qui sont complémentaires du message oral ; Iverson (1999, p. 1135) donne l’exemple suivant :
(5) « Then it goes under the bridge » / « Ensuite, ça va sous le pont » Phrase accompagnée par un geste balayant en avant puis allant vers la droite en suivant une diagonale. |
Nous inspirant de ces travaux, nous avons défini trois catégories de liens sémantiques entre les gestes et la parole.
- les gestes qui entretiennent une relation de redondance avec le message verbal : l’information apportée par le geste est identique à l’information linguistique avec laquelle elle est en relation (exemple, hochements de tête accompagnant une réponse « oui », ou expression faciale décrivant l’ignorance en disant « Je ne sais pas »). Cette relation ne concerne pas les gestes représentationnels, dans la mesure où, selon McNeill (1992) ou Kendon (2004), l’information apportée par le geste représentationnel, en raison de ses propriétés imagistiques, donne toujours plus d’informations que la composante linguistique. On peut citer l’exemple 6 de l’enfant qui dit « deux » tout en levant deux doigts. Nous les nommerons les gestes redondants.
(6) Geste redondant et i(l) faut // qu(e) tu la rattrapes // et si t(u) en as deux // (il)+y+a des bonus qui tombent // après <si si> (il)+y+en+a // <qui qui qui> qui en fait deux [Dyade 08, explication du jeu de spatialité, condition sans visibilité] Le message verbal « et si t(u) en as deux » est accompagné d’un geste des deux doigts, l’index et le majeur, formant le chiffre 2. Le geste donne une information totalement similaire au message verbal. De plus, ce geste est réalisé pendant la clause à laquelle il est associé « et si t(u) en as deux » il s’agit donc d’un geste synchrone. |
- les gestes qui donnent plus d’informations que le message verbal : les informations fournies par le geste ajoutent des informations au message verbal, mais celles-ci ne sont pas essentielles pour comprendre le message. Le geste rend le message plus précis, grâce à ses propriétés imagistiques. Par exemple, la production de gestes durant l’élaboration d’une trajectoire fournit des informations supplémentaires sur l’emplacement, la taille, etc., d’un objet, par exemple, auquel le locuteur se réfère durant un message verbal. En dessinant la forme de l’objet en question, le locuteur peut, par exemple, donner en même temps des informations sur ses dimensions. Nous les nommerons « gestes supplémentaires » (exemple 7).
(7) Geste supplémentaire D’accord tu vois Anaïs // tu as un écran // et tu as une balle // [Dyade 01, explication du jeu de spatialité, condition sans visibilité] Ce message verbal est accompagné d’un geste indiquant la taille et la forme de la balle. Le geste donne une information supplémentaire à la parole mais non essentiel à la bonne compréhension du message verbal. De plus, ce geste est réalisé pendant les clauses « D’accord tu vois Anaïs // tu as un écran » ; il s’agit donc d’un geste asynchrone anticipant la proposition à laquelle il est associé sémantiquement « et tu as une balle ». |
- les gestes qui complètent le message verbal : l’information fournie par le geste apporte un complément d’information nécessaire à la bonne compréhension du message verbal. En d’autres termes, le geste désambiguïse le message, comme cela peut être le cas de la déixis. Exemple : le geste de pointage accompagnant un adverbe de position comme « ici » ou « là ». Dans ce cas, le geste de pointage vise à identifier un objet / un lieu non nommé explicitement dans le message verbal. Nous les nommerons « gestes complémentaires » (exemple 8).
(8) Geste complémentaire Et avec ça et ben <tu tu> tu cliques sur le bâton // et la balle <elle doit> elle doit aller en haut [Dyade 02, explication du jeu de spatialité, condition en face-à-face. Le message verbal « Et avec ça et ben <tu tu> tu cliques sur le bâton » est accompagné d’un geste déictique : le locuteur pointe l’objet qui correspond à « ça ». Le geste donne une information essentielle à la bonne compréhension du message : sans ce geste déictique, on ne comprend pas quel est le référent associé au pronom démonstratif « ça ». De plus, ce geste est réalisé pendant la clause à laquelle il est associé <« Et avec ça et ben <tu tu> tu cliques sur le bâton », il s’agit donc d’un geste synchrone. |
Codage du lien temporel entre gestes et parole
45Les gestes peuvent entretenir différents liens temporels avec le langage (Coletta, Kunene, Venouil, Kauffman & Simon, 2009). Ainsi, un geste peut être synchrone ou asynchrone avec la proposition à laquelle il est associé. Les gestes synchrones se produisent simultanément avec la proposition à laquelle ils sont associés. Les gestes asynchrones peuvent quant à eux être de deux types : ils peuvent anticiper la proposition ou la suivre (par exemple, Coletta, Kunene, Venouil, Kauffman & Simon, 2009 ; McNeill, 1992, 2000 ; Schegloff, 1984).
46Dans nos données, nous avons trouvé des gestes synchrones et des gestes qui anticipent les propositions auxquelles ils sont associés. Deux types de gestes qui anticipent la proposition à laquelle ils sont associés ont été relevés dans les données : en premier lieu, les gestes qui anticipent totalement la proposition (à savoir que le geste commence, perdure et s’achève avant même que la proposition ne soit verbalisée), ensuite, les gestes qui commencent avant la proposition et s’achèvent durant la proposition à laquelle ils sont associés. Ainsi, dans cet article, nous entendons par gestes asynchrones, des gestes qui se produisent avant les propositions associées.
Méthode des juges
47Dans la mesure où notre système de codage a été développé initialement pour des études antérieures analyses (Mazur-Palandre & coll., 2014 ; Mazur-Palandre & Lund, 2012a, 2012b, 2016a, 2016b), les analyses de fiabilité ont été effectuées sur un plus grand ensemble de gestes que ceux sur lesquels nous nous concentrons ici. La première étape de codage consistait à décider quand un mouvement était un geste. Après cette décision, un premier codeur a catégorisé tous les gestes selon leur nature : étaient-ils déictiques, représentationnels, de cadrage, discursifs, interactifs, énonciatifs ou performatifs ? Dans cet article, nous ne présentons que des analyses concernant les gestes concrets : déictiques et représentationnels.
48Afin d’établir une fiabilité concernant l’identification des gestes selon leur nature, nous avons utilisé la méthode d’accord inter-juge. Le travail du premier codeur a été mis en relation avec le codage d’un second codeur. Ce dernier a travaillé sur une partie des données, codant les explications de six dyades, et ce dans les deux conditions de production (en face-à-face et sans visibilité) et les explications des deux jeux. Ce deuxième travail de codage représente 26,8 % des gestes (82 gestes sur 305). L’accord entre les codeurs était de 91 %. Aucune analyse de fiabilité systématique n’a été faite pour la reconnaissance des gestes car ils n’étaient pas nombreux et l’observation informelle du corpus vidéo ne révélait aucun geste manqué.
49Chacun de ces gestes a ensuite été codé en fonction de leur lien sémantique (redondant, supplémentaire ou complémentaire) et temporel (synchrone ou asynchrone) avec la proposition avec laquelle le geste en question est associée. Ce travail de codage a, une nouvelle fois, été réalisé par un codeur pour l’ensemble des données et 26,8 % des gestes par un second codeur. Le pourcentage d’accord entre les codeurs était de 100 %.
Analyses
50Nous nous positionnons comme partisanes de la « mixed method », définie comme une association des méthodes quantitatives (souvent associées aux approches expérimentales) et des méthodes qualitatives (souvent associées aux recherches descriptives). Alors que les méthodes qualitatives délaissent volontairement les aspects quantitatifs pour des techniques d’observation, la méthode quantitative est définie comme impliquant l’utilisation d’outils statistiques en vue d’analyser et décrire des phénomènes. La « mixed method » apparaît alors comme une évaluation mixte combinant les méthodes qualitatives et quantitatives, et ce dans le but d’approfondir la compréhension et la corroboration des résultats d’évaluation (Cresswell & Plano Clark, 2007 ; Johnson & Onwuegbuzie, 2004 ; Pluye, Nadeau, Gagnon, Grad, Johnson-Lafleur & Griffiths, 2009). Ainsi, l’association des deux types de méthode offre un troisième paradigme de méthode de recherche (Johnson & Onwuegbuzie, 2004 ; Johnson, Onwuegbuzie & Turner, 2007) ayant pour but de combiner les forces respectives des deux autres types de recherche (qualitative et quantitative) et également de combler leurs faiblesses respectives (Johnson & Onwuegbuzie, 2004). Si concilier les méthodes qualitatives et quantitatives apparaît comme un défi pour les recherches en psycholinguistique (Del Ré & Hilário, 2014) ou encore en didactique comme le souligne Tellier (à paraître, dans ce même ouvrage), il semble plus que nécessaire de le relever.
51Les analyses présentées, qui concernent la phase 2 de l’expérimentation, s’inscrivent donc dans ce troisième paradigme et mêleront analyses quantitatives et qualitatives. Elles ont été menées sur les 126 gestes concrets (déictiques et représentationnels) que les enfants ont produits durant leurs explications (60 explications durant environ 55 secondes en moyenne, voir tableau 2). Premièrement, des graphiques de pourcentages concernant les liens sémantiques et temporels entre les gestes et leurs propositions associées sont présentés. Deuxièmement, un tableau croisé concernant le lien entre la valeur sémantique et la valeur temporelle est présenté ainsi qu’un test statistique (existe-t-il un lien entre ces deux valeurs ?) Troisièmement, nous nous concentrons sur les gestes qui anticipent leur proposition associée en mesurant la différence de temps entre l’apparition du geste et la proposition associée (graphique 3) puis des analyses qualitatives sont présentées afin de décrire les contextes dans lesquels les gestes qui ont anticipé la parole se sont produits.
Analyses quantitatives du lien temporel et sémantique entre geste et langage
Pourcentage de gestes selon le lien sémantique et temporel avec la proposition associée
52Le graphique 1 présente le pourcentage de gestes selon le lien sémantique qu’ils entretiennent avec la proposition à laquelle ils sont associés.
53Nous notons que 88,1 % des gestes (111 gestes sur 126) correspondent à des gestes supplémentaires ; 8,7 % des gestes (11 gestes sur 126) correspondent à des gestes redondants et 3,2 % des gestes (4 gestes sur 126) correspondent à des gestes complémentaires à la forme verbale.
54Le graphique 2 présente le pourcentage de gestes selon le lien temporel qu’ils entretiennent avec la proposition à laquelle ils sont associés.
55Nous pouvons constater que 86,5 % des gestes (109 sur 126) sont synchronisés avec leur proposition associée et seulement 13,5 % des gestes (17 sur 126) sont produits de façon anticipée.
Liens temporels et sémantiques
56Le tableau 5 croise les données concernant les liens temporels et sémantiques des gestes avec leurs propositions associées.
Tableau 5 - Tableau croisé dynamique : valeur sémantique et valeur temporelle
Valeur sémantique | Total | ||||
Supplémentaires | Redondants | Complémentaires | |||
Valeur temporelle | Synchrone | 75,4 % (95) | 8,7 % (11) | 2,4 % (3) | 86,5 % (109) |
Asynchrone | 12,7 % (16) | 0 | 0,8 % (1) | 13,5 % (17) | |
Total | 88,1 % (111) | 8,7 % (11) | 3,2 % (4) | 100 % (126) |
5775,4 % des gestes (95 sur 126) sont synchronisés avec leur proposition associée et ont une valeur sémantique « supplémentaire » par rapport à leur proposition associée ; 2,4 % des gestes (3 sur 126) sont synchronisés avec leur proposition associée et ont une valeur sémantique « complémentaire » ; 8,7 % des gestes (11 sur 126) sont synchronisés avec leur proposition associée et ont une valeur sémantique « redondante » ; 12,7 % des gestes (16 sur 126) anticipent leur proposition associée et ont une valeur sémantique « supplémentaire » ; 0,8 % des gestes (1 sur 126) anticipent leur proposition associée et ont une valeur sémantique « complémentaire ». Enfin, aucun geste asynchrone, c’est-à-dire anticipant sa proposition associée n’a une valeur sémantique « redondante ».
58Un test chi2 révèle une relation entre les valeurs temporelles et sémantiques d’un geste donné : X2(2, N = 126) = 23.807, p = 0.0001. Le tableau 5 montre que les gestes synchrones (ceux réalisés en même temps que la proposition associée) ont, majoritairement, une valeur sémantique « supplémentaire » (à savoir, 75,4 % des gestes synchrones, soit 95 sur 109). De tels gestes ne fournissent pas d’informations différentes : ils ne donnent que des détails supplémentaires ou apportent des nuances mineures à une même idée. Les résultats montrent également que peu de gestes synchrones sont redondants. Cela ne correspond qu’à 8,7 % des gestes synchrones (11 gestes sur 109). Enfin, en ce qui concerne les gestes synchrones, seul un petit nombre apporte des informations complémentaires et différentes (c’est-à-dire la valeur sémantique « complémentaire ») : seulement 2,4 % (3 gestes sur 109). Les gestes qui anticipent la proposition à laquelle ils sont associés peuvent avoir deux valeurs sémantiques : soit « supplémentaire », soit « complémentaire ». Bien que nous ne puissions pas confirmer une valeur sémantique particulière pour les gestes qui anticipent les propositions en raison du petit nombre de cas, dans la section suivante, nous allons explorer ces cas afin de décrire les contextes dans lesquels ils se produisent.
Dans quel contexte apparaissent les gestes asynchrones ?
59Le graphique 3 présente le pourcentage de gestes qui prévoyaient leur proposition associée en fonction de sa distance, laquelle est mesurée en termes de nombre de propositions.
60Sur les 17 gestes qui anticipent les propositions, 14 ne sont effectués qu’une seule proposition avant la proposition associée. Seulement 3 sont réalisés plus d’une proposition avant. Les résultats de nos analyses quantitatives ont orienté le regard sur nos données. En d’autres termes, comme les gestes qui anticipent les propositions sont très rares dans les explications des enfants de notre étude, nous avons décidé d’effectuer des analyses qualitatives pour décrire les contextes d’apparition des gestes asynchrones. Lorsque nous observons les circonstances dans lesquelles apparaissent ces gestes, trois contextes principaux sont révélés : premièrement, lors d’une marque de travail de formulation (MDTF, reformulation verbale, répétition ou hésitation, Candéa, 2000) ; deuxièmement, lorsque les deux propositions – la proposition pendant laquelle le geste a été réalisé et la proposition associée sémantiquement au geste – sont syntaxiquement fortement liées (comme une proposition principale et une proposition subordonnée) et, troisièmement, pendant une pause (le geste commence pendant la pause avant la proposition à laquelle il est associé et peut continuer pendant la production de cette proposition).
61Le premier contexte d’apparition d’un geste asynchrone est celui de la MDTF : le geste est produit en même temps qu’une MDTF, à savoir une reformulation verbale, une répétition ou encore une hésitation (exemple 9).
(9) Dyade 15. Explication du jeu de spatialité Proposition 1 : « la boule de neige (il) fallait » Pendant cette proposition, le locuteur réalise un geste : un mouvement montrant une balle qui détruit une brique. Ce geste représentationnel est sémantiquement associé à la proposition 2 mais réalise pendant la proposition 1. Proposition 2 : « <qu’elle elle casse> // qu’elle euh // casse les carreaux d(e) glace // » Le geste commencé ainsi durant la proposition 1 se termine pendant la répétition (<qu’elle elle casse>), et associé à la proposition 2 (qu’elle euh // casse les carreaux d(e) glace //). |
62Le deuxième contexte d’apparition d’un geste asynchrone correspond à la réalisation d’un geste pendant une proposition précédant la proposition à laquelle il est associé sémantiquement, ces deux propositions entretenant un lien syntaxique fort (c’est-à-dire les propositions principales et leurs subordonnées). Le geste peut anticiper totalement sa proposition associée (exemple 10) ou commencer pendant une proposition précédente, mais continuer pendant la proposition associée (exemple 11).
(10) Dyade 24. Explication du jeu de chiffres Proposition 1 : « si tu trouves le mauvais nombre » Pendant cette proposition 1, le locuteur réalise un geste représentationnel : le mouvement de la voiture du chat qui avance. Ce geste est sémantiquement associé à la proposition 2. Proposition 2 : « ça fait avancer le chat » Contrairement à l’exemple 11, ce geste est réalisé pendant la proposition 1 et ne perdure pas pendant la proposition 2 à laquelle il est associé. |
63
(11) Dyade 04. Explication du jeu de spatialité Proposition 1 : « il faut » Durant cette première proposition, la locutrice réalise un geste représentationnel : le mouvement d’une balle qui tombe. Ce geste est cependant associé sémantiquement à la proposition 2, qui suit. Proposition 2 : « qu(e) ça retombe » Le geste commence durant la proposition 1 et perdure durant la proposition 2 |
64Le troisième contexte d’apparition d’un geste asynchrone est le geste qui apparaît durant une pause. Il peut être réalisé durant la pause précédant la proposition à laquelle il est sémantiquement associé et être terminé lorsque la proposition associée est verbalisée (exemple 12) ou commencé pendant la pause et continué lorsque la proposition associée est verbalisée (exemple 13).
(12) Dyade 24. Explication du jeu de spatialité Proposition 1 : « et c’est un bout de bois » La locutrice fait une pause entre cette proposition 1 et la proposition 2. Pendant cette pause, elle réalise un geste représentationnel imitant le clic de la souris de l’ordinateur. Ce geste réalisé pendant la pause entre les deux propositions est associé sémantiquement à la proposition 2, qui suit ; le geste est terminé lorsque la locutrice commence à verbaliser la proposition 2. Proposition 2 : « tu appuies » |
65
(13) Dyade 31. Explication du jeu de spatialité « Silence » Pendant la pause (le silence), l’enfant réalise un geste représentationnel d’un morceau de bois. Puis il verbalise la proposition 1 tout en continuant de faire son geste. Proposition 1 : « t(u) as un bout de bois » |
66Le graphique 4 présente le nombre brut des gestes asynchrones qui anticipent la proposition à laquelle ils sont associés, selon leur contexte d’apparition : pendant une MDTF, entre deux propositions fortement liées syntaxiquement et pendant une pause. En raison du petit nombre de gestes asynchrones, nous ne pouvons pas effectuer de pourcentages ou de tests statistiques.
67Nous notons que 8 gestes asynchrones sur 17 anticipent leur proposition associée pendant une proposition avec laquelle celle-ci a un fort lien syntaxique ; 5 sur 17 sont réalisés durant une MDTF, à savoir pendant une reformulation verbale, une répétition ou une hésitation ; enfin, 4 des 17 gestes asynchrones sont effectués pendant une pause silencieuse.
Discussion
68Le but de ce chapitre était d’analyser les 126 gestes concrets, présents dans notre corpus, en contexte de production d’explication en « comment » (voir Mazur-Palandre, Colletta & Lund, 2014 ainsi que Mazur-Palandre & Lund, 2012a, 2012b, 2016a, 2016b, pour d’autres résultats). Trente enfants français de 6 ans ont participé à notre étude et ont produit 60 explications de deux jeux vidéo en ligne : un jeu de chiffres (30 explications) et un jeu de spatialité (30 explications). Notre objectif était d’étudier comment les gestes et les propositions sont organisés temporellement et sémantiquement. Nous avons défini deux hypothèses. En premier lieu, nous avons cherché à vérifier si, comme chez les adultes, la plupart des gestes, pour une population d’enfants, sont alignés sémantiquement et temporellement synchronisés avec la proposition à laquelle ils sont associés (H01-A) et si les gestes et la parole de l’enfant sont alignés sémantiquement lorsqu’ils sont synchronisés temporellement (H01-B). Ensuite, nous avons cherché à vérifier si les enfants, comme les adultes, réalisent des gestes asynchrones, c’est-à-dire qui anticipent ou suivent le discours auquel ils sont associés (H02).
69Afin de valider ou réfuter notre première hypothèse (H01-A), nous avons d’abord observé le pourcentage de gestes selon leurs valeurs sémantiques (graphique 1). La majorité des gestes a une valeur « supplémentaire » (88,1 %), 8,7 % des gestes correspondent à des gestes « redondants » et seulement 3,2 % des gestes correspondent à un geste « complémentaire ». Ces résultats révèlent que la majorité des gestes expriment la même idée que le message verbal tout en ajoutant de l’information secondaire et non essentielle (valeur « supplémentaire » ; les gestes sont ainsi sémantiquement alignés sur la parole) pour comprendre le message en question. Les gestes apportent de la précision au message en donnant, par exemple, la modalité d’une action, la direction d’un mouvement ou la forme d’un objet, d’une manière compatible avec l’idée générale du discours. Peu de gestes correspondent à la valeur « redondante » : les gestes sont rarement totalement redondants avec la parole. Par exemple, oraliser le mot « deux » tout en maintenant de deux doigts en l’air est plutôt rare dans ces données. Moins nombreux encore sont les gestes qui ont une valeur sémantique « complémentaire » du message verbal : les jeunes enfants de notre étude ne réalisent que très peu de gestes qui apportent un complément nécessaire à la compréhension du message verbal. Ces résultats vont dans le sens de travaux antérieurs (Church & Goldin-Meadow, 1986 ; Perry, Breckinridge Church & Goldin-Meadow, 1988 ; Church & Goldin-Meadow, 1992), dans le sens où il semble établi que les enfants produisent des gestes fournissant des informations complémentaires lorsqu’ils apprennent de nouveaux concepts. Notre protocole expérimental implique que les enfants-instructeurs ayant appris à jouer le jeu vidéo avant de l’expliquer à leur camarade étaient ainsi capables d’exprimer verbalement leurs explications, en ajoutant des informations gestuelles supplémentaires. Dans leur étude, Pine, Lufkin, Kirk et Messer (2007) notent également que les enfants produisent des gestes qui ne transmettent pas exactement la même information que la parole associée, mais dans leurs données, cela ne concerne que 31 % des gestes. La majorité des gestes qu’ils étudient apportent la même information que le discours d’accompagnement (69 %), à savoir des gestes sémantiquement alignés sur la parole. Les gestes sont ainsi majoritairement alignés sémantiquement à la proposition sur laquelle ils sont associés, dans la mesure où nous considérons les gestes avec une valeur « supplémentaire », comme des gestes n’ajoutant pas d’informations essentielles à la bonne compréhension du message.
70Nos analyses montrent également que la majorité des gestes des enfants sont temporellement synchrones avec la parole (86,5 %, voir graphique 2), ce qui confirme des travaux antérieurs (Blake, Myszczyszyn, Jokel & Bebiroglu, 2008 ; Chui, 2005 ; Pine, Lufkin, Kirk et Messer, 2007). Les travaux de Blake, Myszczyszyn, Jokel & Bebiroglu (2008) ont révélé que les gestes des enfants (les enfants typiques et ceux qui présentent des troubles du langage) sont produits plus simultanément avec la parole ; Pine, Lufkin, Kirk et Messer (2007) font la même conclusion : les jeunes enfants (âge moyen : 6,5 ans), réalisent en majorité des gestes synchrones avec la parole. Les analyses de Chui (2005) montrent également que la majorité des gestes des étudiants (60,1 %) étaient synchrones avec l’unité linguistique à laquelle il est associé (dans cette dernière étude, l’unité linguistique associée est le mot et non la proposition). Néanmoins, nos analyses montrent aussi que les enfants produisent des gestes asynchrones ; notre seconde hypothèse (H02) est donc également confirmée : les enfants, même s’ils le font très peu, réalisent des gestes asynchrones avec la proposition à laquelle ils sont associés. Les analyses montrent que 13,5 % des gestes anticipent la proposition à laquelle ils sont associés ; néanmoins aucun geste ne suit l’unité linguistique à laquelle il est associé, phénomène observé dans les données adultes (Bergmann, Aksu & Kopp, 2011). Nous pouvons mentionner de nouveau les travaux de Chui sur des étudiants (2005) qui montrent que 35,6 % des gestes ont précédé le mot auquel ils sont associés, et seulement 4,3 % des gestes suivent le mot auquel ils sont associés. Néanmoins, le pourcentage de gestes anticipant l’unité linguistique, à laquelle ils sont associés, est plus important dans les productions des étudiants que dans les explications des enfants de 6 ans. De plus, les étudiants réalisent des gestes qui suivent l’unité linguistique à laquelle ils sont associés, phénomène qui n’est pas présent dans les productions des jeunes enfants ayant participé à notre étude.
71Pourquoi certains gestes ne sont-ils pas sémantiquement alignés mais temporellement synchrones avec la parole ? Quelles sont les relations entre les deux valeurs ? En d’autres termes, les gestes et le discours sont-ils sémantiquement alignés lorsqu’ils sont temporellement synchronisés ?
72Pour tenter de répondre à cette question et donc confirmer ou réfuter notre hypothèse H01-B, nous avons fait un tableau croisé mettant en relation les valeurs sémantiques et temporelles entre les gestes et la parole (tableau 5). Nous notons, comme indiqué précédemment, que les gestes synchrones sont majoritairement plus ou moins sémantiquement alignés (75,4 % des gestes synchrones correspondaient à la valeur « supplémentaire », à savoir un geste exprimant la même idée que le verbal – donc aligné sémantiquement sur la parole – ajoutant des informations non essentielles) et 8,7 % des gestes synchrones sont redondants avec la parole, c’est-à-dire qu’ils n’apportent aucune autre information par rapport au message verbal (lever deux doigts en disant « deux », par exemple) ce qui correspond à la valeur sémantique « redondante »). Peu de gestes synchrones fournissent des informations complémentaires, à savoir différentes du message verbal (et donc non alignés sémantiquement) et nécessaires à la compréhension du discours oral (seulement 2,4 % des gestes synchrones). Ce résultat est partiellement conforme à l’une des conclusions de l’étude de Bergmann, Aksu et Kopp (2011) : les gestes et la parole sont alignés sémantiquement s’ils sont synchronisés temporellement.
73Dans notre étude, les gestes qui ne sont pas synchrones temporellement avec la parole (les gestes anticipant la parole) ne sont jamais redondants avec la parole – ils n’ont jamais la valeur « redondante ». Ils correspondent à la valeur « supplémentaire » (12,7 % du total des gestes, à savoir 16 sur 126) ou à la valeur « complémentaire » (0,8 % des gestes, à savoir 1 sur 126). Le test statistique confirme une relation forte entre leurs valeurs temporelles et sémantiques. Cependant, nous devons nuancer notre discours dans la mesure où les gestes anticipant la parole sont trop peu nombreux dans notre étude.
74Si notre corpus ne nous révèle que très peu de gestes asynchrones, nous empêchant d’aboutir à une conclusion franche, nous pouvons néanmoins explorer qualitativement les contextes dans lesquels ils apparaissent. Les gestes asynchrones sont en majorité (14 des 17, voir graphique 3) effectués pas très loin de la proposition à laquelle ils sont associés, à savoir une proposition avant. Trois contextes d’apparition ont été identifiés : pendant des marques de travail de formulation ; quand la proposition pendant laquelle le geste a été exécuté entretient avec la proposition associée sémantiquement un lien syntaxique fort (comme une proposition principale et une proposition subordonnée) et pendant une pause. Afin d’interpréter ces résultats, nous pouvons nous baser sur des travaux antérieurs. Les analyses de Butterworth et Hadar (1989) montrent que la relation temporelle entre le geste et la parole peut être différente lorsque le locuteur a des difficultés à parler : quand le discours n’est pas fluide, alors les gestes commencent, en général, durant des pauses d’hésitation. Certains enfants de notre étude pourraient alors ne pas être sûrs de leurs explications. Cependant, les analyses de Chui (2005) révèlent que les gestes ne précèdent pas nécessairement la parole, lorsque le discours est marqué par des marques de travail de formulation. Nous pouvons sans doute en conclure que les gestes asynchrones ne sont pas forcément réalisés durant des marques de travail de formulation (voir graphique 4). Seulement 5 gestes sur les 17 gestes asynchrones sont produits lors d’une répétition, d’une reformulation ou d’une hésitation et seulement 4 pendant une pause. Enfin, 8 des 17 gestes asynchrones anticipant leur proposition associée ont été effectués lors de la verbalisation d’une proposition fortement liée syntaxiquement à la proposition associée ; ceci semble compréhensible dans la mesure où lorsque le locuteur produit une proposition principale, la proposition subordonnée est déjà prévue. Des analyses supplémentaires sur des données plus importantes seraient nécessaires pour pouvoir conclure.
Perspectives
75Ainsi, la gestion des gestes et de la parole chez l’enfant diffère de celle des adultes. Nous pouvons nous demander, par exemple, si la production de gestes « complémentaires » et temporellement asynchrones est une acquisition tardive. Est-ce que le jeune enfant, qui est en train de mettre en place un système linguistique et gestuel, est capable de produire des gestes ayant un sens différent du message verbal auquel ils sont associés ? Et de surcroît temporellement asynchrone ? Est-ce que générer deux messages différents par le biais de deux modalités en même temps et/ou produire un geste temporellement asynchrone s’acquiert au fur et à mesure du développement de l’enfant ?
76Les données de cette présente étude ne permettent pas de répondre à ces questions. C’est dans cette perspective qu’un nouveau projet4 se penchant sur le développement des habilités linguistiques et discursives dans une perspective développementale et multimodale est en cours. Il a été demandé à des enfants d’âges différents d’expliquer les règles d’un jeu de stratégie inconnu à leurs camarades. Près de 120 enfants francophones natifs de CE2, CM1, CM2 et 5e répartis par groupes de 4 ont participé à l’étude. Les premières analyses et les premiers traitements statistiques permettent de tester l’effet de l’âge sur les stratégies en matière de transmission de l’information dans un contexte instructionnel, tout en évaluant la part des informations visuo-gestuelles dans les conduites explicatives des enfants. Ces données permettront alors d’établir si transmettre une information par le biais du message verbal et une autre par celui d’un geste est une acquisition tardive, et si oui il sera possible de définir à partir de quel âge cette compétence bimodale se met en place. Nous savons déjà que le répertoire gestuel de l’enfant se diversifie au fur et à mesure de son développement : si les plus jeunes produisent en grande majorité des gestes représentationnels, en grandissant, ils commencent à réaliser des gestes non représentationnels, comme des gestes discursifs, ces derniers deviennent alors plus que fréquents dans les productions d’adultes (Graziano, 2009 ; Kunene, 2010 ; Reig Alamillo, Colletta & Guidetti, 2013) : le système geste-langage ne semble donc pas stable et paraît évoluer avec le développement (Alibali, Evans, Hostetter, Ryan & Mainela-Arnold, 2009).
Bibliographie
Des DOI sont automatiquement ajoutés aux références bibliographiques par Bilbo, l’outil d’annotation bibliographique d’OpenEdition. Ces références bibliographiques peuvent être téléchargées dans les formats APA, Chicago et MLA.
Format
- APA
- Chicago
- MLA
Cette bibliographie a été enrichie de toutes les références bibliographiques automatiquement générées par Bilbo en utilisant Crossref.
Alibali Martha W., Evans Julia L., Hostetter Autumn B., Ryan Kristin & Mainela-Arnold Elina, 2009, « Gesture-speech integration narrative », Gesture, vol. 9, no 3, p. 290-311.
Antaki Charles, 1994, Explaining and Arguing. The Social Organisation of Accounts, Londres, Sage Publications.
Bavelas Janet B., 1995, « Quantitative versus qualitative? », dans W. Leeds-Hurwitz (dir.), Social Approaches to Communication, New York, Guilford Press, p. 49-62.
Bergmann Kristen, Aksu Volcan & Kopp Stefan, 2011, The relation of speech and gestures: temporal synchrony follows semantic synchrony, Proceedings of the 2nd Workshop on Gesture and Speech in interaction, Bielefeld (Allemagne).
Berman Ruth A., 2004, « Special issue on developing discourse stance across adolescence », Journal of Pragmatics, vol. 37, no 2.
Berman Ruth A., 2005, Language Developement across Childhood and Adolescence: Psycholinguistic and Crosslinguistic Perspectives, coll. « Trends in Language Acquisition Research » (TILAR), vol. 3, Amsterdam, John Benjamins.
Berman Ruth A. & Ravid Dorit, 2009, « Becoming a literate language user oral and written text construction across adolescence », dans D. Olson et N. Torrance (dir.), Cambridge, Cambridge University Press, coll. « The Cambridge Handbook of Literacy », p. 92-111.
Bernicot Josie, Laval Virginie & Ervin-Tripp Susan, 2002, « Organisation du discours, actes de langage et langage non littéral chez l’enfant : questions méthodologiques », dans J. Bernicot, A. Trognon, M. Guidetti et M. Musiol (dir.), Pragmatique et psychologie, Nancy, Presses universitaires de Nancy, p. 195-214.
Blake Joanna, Myszczyszyn Debbie, Jokel Ariela & Bebiroglu Neda, 2008, « Gestures accompanying speech in specifically language-impaired children and their timing with speech », First Language, vol. 28, no 2, p. 237-253.
Butterworth Brian & Beattie Geoffrey, 1978, « Gesture and silence as indicators of planning in speech », dans R. N. Campbell et Ph. T. Smith (dir.), Recent Advances in the Psychology of Language: Formal and Experimental Approaches, Londres, Plenum, p. 347-360.
10.1007/978-1-4684-2532-1 :Butterworth Brian & Hadar Uri, 1989, « Gesture, speech, and computational stages: A reply to McNeill », Psychological Review, vol. 96, p. 168-174.
10.1037/0033-295X.96.1.168 :Candéa Maria, 2000. Contribution à l’étude des pauses silencieuses et des phénomènes dits « d’hésitations » en français oral spontané, thèse de doctorat, université Sorbonne Nouvelle - Paris 3.
Capirci Olga, Iverson Jana M., Pizzuto Elena & Volterra Virginia, 1996, « Gestures and words during the transition to two-word speech », Journal of Child Language, vol. 23, p. 645-673.
10.1017/S0305000900008989 :Chui Kawai, 2005, « Temporal patterning of speech and iconic gestures in conversational discourse », Journal of Pragmatics, vol. 37, p. 871-887.
10.1016/j.pragma.2004.10.016 :Church R. Breckinridge & Goldin-Meadow Susan, 1986, « The mismatch between gesture and speech as an index of transitional knowledge », Cognition, vol. 23, p. 43-71.
Colletta Jean-Marc, 2004, Le développement de la parole chez l’enfant âgé de 6 à 11 ans, Hayen, Mardaga, coll. « Corps, langage et cognition ».
Colletta Jean-Marc & Pellenq Catherine, 2005, « Les coverbaux de l’explication chez l’enfant âgé de 3 à 11 ans », dans Interacting Bodies, Corps en Interaction (actes du IIe congrès de l’ISGS), Lyon, 15-18 juin 2005.
Colletta Jean-Marc & Pellenq Catherine, 2009, « The development of multimodal explanations in French children », dans M. A. Nippold et C. M. Scott, Expository Discourse in Children, Adolescents, and Adults. Development and Disorders, New York, Taylor & Francis, p. 63-100.
Colletta Jean-Marc, Pellenq Catherine & Guidetti Michèle, 2010, « Age-related changes in co-speech gesture and narrative: Evidence from French children and adults », Speech Communication, vol. 52, no 6, p. 565-576.
10.1016/j.specom.2010.02.009 :Colletta Jean-Marc, Simon Jean-Pascal & Lachnitt Catherine, 2005, « Les conduites explicatives orales à l’école maternelle », dans J. F. Halté et M. Rispail (dir.), L’oral dans la classe : compétences, enseignement, activités, Paris, L’Harmattan, p. 137-151.
Colletta Jean-Marc, Kunene Ramona N., Venouil Aurélie, Kauffman Virginie & Simon Jean-Pascal, 2009, « Multitrack annotation of child language and gestures », dans M. Kipp, J.-C. Martin, P. Paggio et D. Heylen (dir.), Multimodal Corpora, From Models of Natural Interactions to Systems and Applications, Berlin, Springer, p. 54-72.
Cosnier Jacques, 1993, « Étude de la mimogestualité », dans R. Pléty (dir.), Éthologie des communications humaines : aide-mémoire méthodologique, ARCI - Presses universitaires de Lyon, p. 103-115.
Cresswell John W. & Clark Plano Vicki L., 2007, Designing and Conducting Mixed Methods Research, Thousand Oaks, Sage Publications.
Del Ré Alessandra & Hilário Rosangela, 2014, « Concilier les données qualitatives et quantitatives : un défi pour les recherches en acquisition du langage », Corela, disponible en ligne sur <https://0-journals-openedition-org.catalogue.libraries.london.ac.uk/corela/3564> [consulté le 15/10/2014].
Demaizière Françoise & Narcy-Combes Jean-Paul, 2007, « Du positionnement épistémologique aux données de terrain », Les Cahiers de l’Acedle, no 4, disponible en ligne sur <http://acedle.org/numero-4-2007/>
10.4000/rdlc.4850 :Favart Monik & Passerault Jean-Michel, 1996, « Functionnality of cohesion devices in the management of local and global coherence: Two studies in children’s written production of narratives », dans R. Rijlaarsdam, H. van den Berg et T. Jechle (dir.), Theories, Models and Methodologies in Writing, Amsterdam, Amsterdam University Press, p. 349-365.
Goldin-Meadow Susan & Butcher Cindy, 2003, « Pointing toward two-word speech in young children », dans S. Kita (dir.), Pointing: Where Language, Culture, and Cognition Meet, Mahwah (New Jersey), Erlbaum, p. 85-107.
Graziano Maria, 2009, Le développement de la relation entre les compétences verbale et gestuelle dans la construction d’un texte narratif chez l’enfant âgé de 4 à 10 ans, PhD unpublished dissertation, université Stendhal, Grenoble et Università degli Studi Suor Orsola Benincasa, Naples.
Grize Jean-Blaise, 1990, Logique et langage, Ophrys, Gap-Paris.
Guidetti Michèle, Fibigerova Katerina & Colletta Jean-Marc, 2014, « Gestures and multimodal development, Some Keys issues for language acquisition », dans M. Seyfeddinipur et M. Gullberg (dir.), From Gesture in Conversation to Visible Action as Utterance: Essays in Honor of Adam Kendon, Philadelphie, John Benjamins, p. 349-368.
Güllich Elisabeth, 1991, « Pour une ethnométhodologie linguistique, description de séquences conversationnelles explicatives », dans E. Gülich, U. Krafft et U. Dausendschön-Gay (dir.), Linguistische Arbeiten, Linguistische Interaktionsanalysen, Tübingen, Max Niemeyer Verlag, p. 325-364.
Hadar Uri & Butterworth Brian, 1997, « Conduites d’explication chez des enfants de 4 à 6 ans », dans C. Hudelot, A. Salazar Orvig et E. Veneziano (dir.), L’explication – Enjeux cognitifs et interactionnels, Paris, Peeters, p. 139-150.
Hickmann Maya, 1987, « Ontogenèse de la cohésion dans le discours », dans G. Piéraut-Le Bonniec (dir.), Connaître et le dire, Hayen, Mardaga, p. 239-262.
Hickmann Maya, 2003, Children’s Discourse: Person, Space and Time across Languages, Cambridge - New York, Cambridge University Press.
Hudelot Christian, 2008, « Conduites d’explication chez des enfants de 4 à 6 ans », dans C. Hudelot, A. Salazar Orvig et E. Veneziano (dir.), L’explication – Enjeux cognitifs et interactionnels, Paris, Peeters, p. 139-150.
Iverson Jana M., 1999, « How to get to the cafeteria: Gesture and speech in blind and sighted children’s spatial descriptions », Developmental Psychology, vol. 35, no 4, p. 1132-1142.
10.1037/0012-1649.35.4.1132 :Jisa Harriet, Chenu Florence, Fekete Gabriella, Omar Hayat & Saidi Darine, 2008, « Promouvoir les patients dans le discours narrative : une perspective développementale », dans M. Kail, M. Fayol et M. Hickmann (dir.), Apprentissage des langues premières et secondes, Paris, CNRS Éditions, p. 179-197.
Jisa Harriet, Reilly Judy, Verhoeven Ludo, Baruch Elisheva & Rosado Elisa, 2002, « Passive voice constructions in written texts: A cross-linguistic developmental study », Written Language and Literacy, vol. 5, no 2, p. 163-181.
Johnson Burke R. & Onwuegduzie Anthony J., 2004, « Mixed methods mesearch: A research paradigm whose time has come », American Educational Reasearch Association, vol. 33, no 7, p. 14-26.
Johnson Burke R., Onwuegduzie Anthony J. & Turner Lisa A., 2004, « Toward a definition of mixed methods research », Journal of Mixed Methods Research, vol. 1, no 2, p. 112-133.
10.1177/1558689806298224 :Kendon Adam, 1987, « On gesture: Its complementary relationship with speech », dans A. Seigman et S. Feldstein (dir.), Nonverbal Communication, Hillsdale (New Jersey), Erlbaum, p. 65-97.
Kendon Adam, 2000, « Language and gesture: Unity or duality », dans D. McNeill (dir.), Language and Gesture: Window into Thought and Action, Cambridge, Cambridge University Press, p. 47-63.
10.1017/CBO9780511620850 :Kendon Adam, 2004, Gesture: Visible Action as Utterance, Cambridge, Cambridge University Press.
10.1017/CBO9780511807572 :Kita Sotaro, 2000, « How representational gestures help speaking », dans D. McNeil (dir.), Language and Gesture, Cambridge, Cambridge University Press, p. 162-185.
10.1017/CBO9780511620850 :Kita Sotaro & Özyürek Asli, 2003, « What does cross-linguistic variation in semantic coordination of speech and gesture reveal? Evidence for an interface representation of spatial thinking and speaking », Journal of Memory and Language, vol. 48, p. 16-32.
10.1016/S0749-596X(02)00505-3 :Kunene Ramona, 2010, A comparative study of the development of multimodal narratives in French and Zulu children and adults, thèse de doctorat, département de linguistique, université Grenoble 3.
Labov William, 1980. Locating Language in Time and Space, New York, Academic Press.
Lund Kristine, 2003, Analyse de l’activité explicative en interaction : étude de dialogues d’enseignants de physique en formation interprétant les interactions entre élèves, thèse de doctorat, université de Lyon.
Mazur-Palandre Audrey, 2009, « Les connexions syntaxiques : considérations contextuelles et développementales », dans M. Sandré (dir.), Analyses du discours et contextes : quelles relations ? (actes du colloque Jeunes chercheurs Praxiling, 10 et 11 mai 2007), université Paul Valéry, Montpellier III, Lambert-Lucas, p. 125-136.
Mazur-Palandre Audrey, 2015, « Overcoming preferred argument structure in written french: Development, modality, text type », Written Language and Literacy, vol. 18, no 1, p. 25-55.
Mazur-Palandre Audrey & Jisa Harriet, 2013, « La lexicalité des productions orales et écrites : une étude développementale », Enfance, vol. 4, p. 359-371.
Mazur-Palandre Audrey & Lund Kristine, 2012a, « L’influence du contexte sur les pratiques gestuelles du jeune enfant lors d’explications en « comment » », dans F. Neveu, V. Muni Toke, P. Blumenthal, T. Klingler, P. Ligas, S. Prévost et S. Teston-Bonnard (dir.), (actes du Xe Congrès mondial de linguistique française [CMLF], 4-7 juillet 2012), Lyon, Institut de linguistique française, EDP Sciences, p. 1623-1642.
Mazur-Palandre Audrey & Lund Kristine, 2012b, « Explanandum and visibility condition change children’s gesture profiles during explanation: Implications for learning? », dans J. van Aalst, B. J. Reiser, C. Hmelo-Silver et K. Thompson (dir.), The Future of Learning (Proceedings of the 10th International Conference of the Learning Sciences [ICLS], Sydney, 2-6 juillet 2012), International Society of the Learning Sciences, p. 271-275.
Mazur-Palandre Audrey & Lund Kristine, 2016a, « Explanatory content and visibility effects on the young child’s verbal and gestural behavior in free dialogues », Language, Interaction and Acquisition, vol. 7, no 2.
Mazur-Palandre Audrey & Lund Kristine, 2016b, « Gesture and information flow in children’s explanations: an explorative study », International Society for Gesture Studies, Paris, juillet 2016.
Mazur-Palandre Audrey, Colletta Jean-Marc & Lund Kristine, 2015, « Contexte sensitive ‘how’ explanation in children’s multimodal behavior », Journal of Multimodal Communication Studies, vol. 2, p. 1-17.
McNeill David, 1992, Hand and Mind: What Gestures Reveal about Thought, Chicago, Chicago University Press.
10.1515/9783110874259 :McNeill David, 2000, Language and Gesture, Cambridge, Cambridge University Press.
10.1017/CBO9780511620850 :McNeill David & Duncan Susan D., 2000, « Growth point in thinking-for-speaking », dans D. McNeill (dir.), Language and Gesture: Window into Thought and Action, Cambridge, Cambridge University Press, p. 141-161.
10.1017/CBO9780511620850 :Morrel-Samuels Palmer & Krauss Robert M., 1992, « Word familiarity predicts the temporal asynchrony of hand gestures and speech », Learning Memory and Cognition, vol. 18, p. 615-622.
Perry Michelle, Breckinridge Church Ruth & Goldin-Meadow Susan, 1988, « Transitional knowledge in the acquisition of concepts », Cognitive Development, vol. 3, p. 359-400.
Perry Michelle, Breckinridge Church Ruth & Goldin-Meadow Susan, 1992, « Is gesture-speech mismatch a general index of transitional knowledge? », Cognitive Development, vol. 7, p. 109-122.
10.1016/0885-2014(92)90007-E :Pine Karen J., Lufkin Nicolas, Kirk Elizabeth & Messer David, 2007, « A microgentic analysis of the relationship between speech and gesture in children: Evidence for smeantic and temporal asynchrony », Language and Cognitive Processes, vol. 22, no 2, p. 234-246.
Pluye Pierre, Nadeau Lucie, Gagnon Marie-Pierre, Grad Roland M., Johnson-Lafleur Janique & Griffiths Frances, 2009, « Les méthodes mixtes pour l’évaluation des programmes », dans V. Ridde et C. Dagenais (dir.), Approches et pratiques en évaluation de programme, Montréal, Les Presses de l’Université de Montréal, p. 123-142.
Reig Alamillo Asela, Colletta Jean-Marc & Guidetti Michèle, 2013, « Gesture and language in narratives and explanations: The effects of age and communicative activity on late multimodal discourse development », Journal of Child Language, vol. 40, p. 511-538.
Schegloff Emanuel A., 1984, « On some gestures relation to speech », dans J. M. Atkinson et J. Heritage (dir.), Structures of Social Action: Studies in Conversation Analysis, Cambridge, Cambridge University Press, p. 266-298.
Schneuwly 1988, Le langage écrit chez l’enfant : la production des textes informatifs et argumentatifs, Paris, Delachaux et Niestlé.
Streeck Jürgen, 1995, On Projection. Interaction and Social Intelligence, dans E. Goody (dir.), Cambridge, Cambridge University Press, p. 84-110.
10.1017/CBO9780511621710 :Tellier Marion, à paraître, « Étudier la gestuelle pédagogique : panorama méthodologique », dans A. Mazur-Palandre et I. Colón de Carvajal (dir.), Approches plurielles de la multimodalité, coll. « Langues, Gestes, paroles », Grenoble, Ellug.
Traxler Mattew J. & Gernsbacher Morton A., 1995, « Improving coherence in written communication », dans A. Morton et T. Givón (dir.), Coherence in Spontaneous Text, Philadelphie, John Benjamins, p. 215-238.
Veneziano Edy & Hudelot Christian, 2002, « Développement des compétences pragmatiques et théories de l’esprit chez l’enfant : le cas de l’explication », dans J. Bernicot, A. Trognon, M. Guidetti et M. Musiol (dir.), Pragmatique et psychologie, Nancy, Presses universitaires de Nancy, p. 215-236.
Veneziano Edy & Sinclair Hermine, 1995, « Functional changes in early child language: The appearance of references to the past and of explanations », Journal of Child Language, vol. 22, p. 557-581.
10.1017/S0305000900009958 :Notes de bas de page
1 Le projet PAMEALE (Publication adaptative multi-écrans d’activités ludo-éducatives) est financé par l’Europe et la région Rhône-Alpes (FEDER).
2 « Concrete gestures are defined as “deictic gestures that designate objects or iconic gestures that represent objects or their properties” », « Les gestes concrets sont définis “comme des gestes déictiques qui designent des objets ou gestes iconiques qui représentent des objets ou leurs propriétés” » (Colletta & Pellenq, 2005, p. 4).
3 Ces jeux étaient accessibles à l’époque sur le site www.cognik.net, mais depuis l’entreprise s’est tournée vers les dessins animés éducatifs et ne travaille plus avec les jeux.
4 Projet GEDECO (Gestion multifocale et développement des conduites communicatives complexes), financement ASLAN, ANR-10-LABX-0081) de l’université de Lyon dans le cadre du programme Investissements d’avenir (ANR-11-IDEX-0007) de l’État français géré par l’Agence nationale de la recherche (ANR). Porteurs : J.-M. Colletta et A. Mazur-Palandre.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Multimodalité du langage dans les interactions et l’acquisition
Ce livre est cité par
- Maritaud, Louis. (2020) Discours rapporté et mimétique de l'émotion vécue : le cas des soignants en psychiatrie. SHS Web of Conferences, 81. DOI: 10.1051/shsconf/20208101003
- Azaoui, Brahim. Tellier, Marion. (2020) Comment le corps coconstruit les discours et le sens. TIPA. Travaux interdisciplinaires sur la parole et le langage. DOI: 10.4000/tipa.4106
Multimodalité du langage dans les interactions et l’acquisition
Ce livre est diffusé en accès ouvert freemium. L’accès à la lecture en ligne est disponible. L’accès aux versions PDF et ePub est réservé aux bibliothèques l’ayant acquis. Vous pouvez vous connecter à votre bibliothèque à l’adresse suivante : https://0-freemium-openedition-org.catalogue.libraries.london.ac.uk/oebooks
Si vous avez des questions, vous pouvez nous écrire à access[at]openedition.org
Référence numérique du chapitre
Format
Référence numérique du livre
Format
1 / 3