ReaderBench : un outil d’aide à l’analyse de discussions philosophiques
p. 151-171
Texte intégral
Introduction
1Les recherches conduites depuis plusieurs années autour des discussions à visée philosophique ont permis de collecter des corpus oraux multimodaux assez conséquents1. Si on peut se réjouir de cette abondance de données, on sait en revanche combien leur traitement est lourd et il est à craindre que du recueil à l’analyse la route soit longue, car il faut passer par la transcription des propos, d’éléments non linguistiques (gestes, attitudes, etc.), pour obtenir in fine plusieurs centaines de pages qu’il faut ensuite analyser.
2Cette même problématique se retrouve dans les travaux de recherche sur l’apprentissage collaboratif assisté par ordinateur (CSCL pour Computer-Supported Collaborative Learning). Les systèmes étudiés sont de plus en plus répandus et sophistiqués et sont utilisés dans de nombreux contextes, tels l’enseignement hybride ou les MOOC. Ils recueillent et traitent des conversations par chat ou forum, pour lesquelles Stefan Trausan-Matu mentionne que la durée d’une analyse dépasse largement la durée de la conversation elle-même (cf. Trausan-Matu, 2010). Il se trouve que les techniques d’analyse automatique de la langue rendent possible une analyse quasi-immédiate des productions des élèves, ce qui permet des rétroactions rapides pouvant leur être utiles pour améliorer leur apprentissage. Cette analyse partiellement automatisée peut également être d’un grand intérêt pour les enseignants et les chercheurs, en effet, le traitement de données orales est chronophage. Ainsi, Jin Mu signale que l’on peut utiliser jusqu’à 25 % des ressources totales d’un projet de recherche pour une analyse de conversations selon plusieurs dimensions (cf. Mu et al., 2012).
3Notre propos, dans ce chapitre, est d’explorer l’utilisation d’un système d’analyse automatique de productions à des fins d’apprentissage, ReaderBench. Le contexte n’est pas, comme dans ses précédentes utilisations, un apprentissage médiatisé par ordinateur, mais une nouvelle configuration dans laquelle il n’a pas encore été testé, à savoir, une interaction orale enseignant-élèves. Il ne s’agit pas, bien sûr, d’envisager cette étude comme le remplacement d’analyses humaines, mais comme leur complément. Dans cette contribution nous étudions une partie des fonctionnalités de ce logiciel : analyse de mots-clés et des thèmes abordés (dans la globalité de la DVDP et par locuteur), les proximités thématiques des contributions des différents locuteurs, ainsi que l’apport de chacun à la discussion et la dimension dialogique.
ReaderBench, un atelier multilingue d’analyse automatique de textes
4ReaderBench est un outil d’analyse automatique de productions écrites liées à l’apprentissage qui fait l’objet, depuis 2010, d’une conception et d’un développement, initialement franco-roumain, puis étendu à des chercheurs de nombreux pays (États-Unis, Allemagne, Italie, Pays-Bas). Il est multilingue (anglais, français, italien, espagnol, roumain, néerlandais), et utilise des méthodes de traitement automatique de la langue éprouvées pour analyser la cohésion entre composants du texte (phrases, tours de parole, documents, etc.). Les deux principales méthodes utilisées sont LSA (Latent Semantic Analysis) et LDA (Latent Dirichlet Allocation).
5LSA représente sous la forme d’un espace vectoriel les relations entre termes et les documents (paragraphes) qui les contiennent, en se fondant sur l’analyse de leurs co-occurrences. Cela permet d’évaluer la similarité sémantique inter-termes et entre termes et documents. LDA permet de réaliser une identification de thèmes via un mécanisme d’inférence probabiliste de structures thématiques dans les documents. Ces deux méthodes sont de type « paquets-de-mots » (« bag of words »), et ne tiennent pas compte de l’ordre des mots dans les phrases et documents. Cela est bien entendu une grande approximation, mais qui n’est pas trop gênante puisqu’il s’agit de récupérer les mots-clés principaux et des indices de similarités entre ces mots-clés, apparaissant dans un grand corpus.
Les modèles utilisés dans ReaderBench
6ReaderBench a été conçu par la mise en œuvre de deux modèles différents et complémentaires. Le modèle de la cohésion a été opérationnalisée comme la mesure de similarité moyenne entre entités du texte (mots, phrases, tours de parole, conversation complète). Un graphe de cohésion entre tours de paroles est construit, composé d’un nœud central (la discussion complète) décomposé en tours de paroles, puis phrases, les liens entre ces nœuds symbolisent des relations de cohésion fortes. Ce mécanisme permet d’évaluer la contribution de chaque participant en rapport avec la discussion complète, mais aussi avec les contributions des autres participants.
7Un autre modèle, plus général, utilisé pour rendre compte des relations sémantiques entre les différentes contributions, considère, dans la lignée des travaux de Bakhtine, que toute interaction, communication, ou même pensée, est fondée sur le dialogue. Cela permet d’étudier la manière dont les « voix » s’organisent dans la discussion : une voix est un point de vue, un thème discuté, qui survient à différents moments de la discussion et résonne, interagit avec d’autres. Pour rendre compte de cette interaction, les notions de « multivocalité » et de « polyphonie » ont été formulées. La multivocalité rend compte de la multitude des voix et la manière dont elles sont reliées thématiquement les unes aux autres. La polyphonie ajoute à cette dernière la notion de cohérence : les voix peuvent résonner plus ou moins en cohérence les unes avec les autres.
Utilisation de ReaderBench pour analyser les forums de discussion
8Comme déjà signalé, ReaderBench a été testé dans le cadre de l’évaluation automatique de forums ou de chats. L’étude de Dascalu et ses collègues a consisté à faire évaluer 10 conversations de chat (messagerie instantanée), dans lesquelles des étudiants en informatique, par petits groupes de quatre, discutaient des avantages et inconvénients des outils de communication collaborative. Des étudiants de licence et master en informatique (n = 110) ont ensuite évalué chaque participant à la conversation selon une échelle individuelle de participation et globalement, de collaboration. Les corrélations intra-classe obtenues sont très élevées (supérieures à 79). Le travail de Nistor et ses collègues (2016) a consisté à examiner 22 communautés différentes de blogueurs (sur différentes plateformes, comme WordPress ou Blogspot) intégratives ou non intégratives, ce critère étant déterminé après diffusion d’une requête à participer à une enquête et la communauté y répondant positivement a été catégorisée comme intégrative. Ensuite, les conversations de ces communautés, comportant au total plus de 8 000 participants, ont été analysées avec ReaderBench, selon certains indicateurs comme la participation. Une analyse en grappes (clusters) révèle que les communautés qualifiées d’intégratives ont un indice de réponse communautaire (évaluée par la longueur moyenne des fils de discussion) plus important que celles qualifiées de non intégratives. De plus, la proximité moyenne des participants, évaluée automatiquement via leurs contributions respectives est plus importante dans les communautés intégratives.
9ReaderBench réalise quatre types différents de traitements automatiques des tours de parole, pouvant répondre à des questions et des problèmes rencontrés fréquemment par les chercheurs ou enseignants : la contribution des participants à la progression de la réflexion ; l’identification des principaux mots-clés de la discussion ; l’analyse des proximités thématiques des tours de parole des participants ; et, enfin, la mise au jour de « voix » tout au long de la discussion.
Pré-traitement du corpus
10Le corpus est constitué de productions orales de participants à la discussion. Pour que ReaderBench réalise une analyse valide, il a fallu réaliser un certain nombre d’adaptations de la transcription initiale des échanges, qui a été faite dans un premier temps à l’aide du logiciel d’annotations de vidéos ELAN (https: // tla.mpi.nl/tools/tla-tools/elan/) (Sloetjes, Wittenburg, 2008), en étiquetant les fichiers audio et vidéo de manière à obtenir une transcription alignée sur le son et l’image. On ne parle pas comme on écrit et on sait, depuis longtemps, que les unités langagières de l’oral et de l’écrit ne sont pas les mêmes. Ainsi, la notion de phrase est une réalité typographique et l’oral s’analyse plutôt en intervention, groupe de souffle2. Les analyses en grilles syntaxiques du corpus présentées dans ce même ouvrage par Mylène Blasco et Lidia Lebas-Fraczak (cf. p. 173-182) illustrent cette réalité.
11Tout d’abord, il nous a fallu adapter la transcription initiale pour que le logiciel puisse la traiter dans les meilleures conditions. Pour cela nous avons dû supprimer toutes les indications de posture ou d’attitude comme : {volte-face}, les épiphénomènes : {coupure son}, {rires}, etc. ; les incises quand il s’agissait simplement d’un retour positif ou encourageant et pas réellement d’un tour de parole ; les indications de prosodie, d’allongement, etc. Enfin l’orthographe a été renormalisée : les phénomènes d’élision des « e » supprimés, la prononciation [ja] transcrite « il y a », *chais : « je sais ». Ainsi la transcription initiale :
85 Candice : moi je pense qu’(il) y a plusieurs (en)fin heu // plusieurs sens de c’est pas juste parce que y a/heu (il) y a // c’est pas juste qui peut créer un conflit par exemple heu qui est vraiment dans l’inégalité heu // par exemple heu : // je sais pas trop {rires} // (il) y a aussi heu le c’est pas juste bah un peu heu // capricieux on va dire // (en)fin qu’on pense pas trop // qui est plutôt heu // heu c’est pas juste heu, mais en fait c’est juste (en)fin heu voilà et ben après heu ça dépend des situations mais
12devient :
85 Candice : moi je pense qu’il y a plusieurs enfin heu // plusieurs sens de c’est pas juste parce que il y a heu il y a // c’est pas juste qui peut créer un conflit par exemple // heu qui est vraiment dans l’inégalité heu // par exemple heu // je sais pas trop // il y a aussi heu le c’est pas juste bah un peu heu // capricieux on va dire enfin // qu’on pense pas trop // qui est plutôt heu // heu c’est pas juste heu, mais en fait c’est juste enfin heu // voilà // et ben après heu // ça dépend des situations // mais
13La seconde étape a été d’effectuer un balisage afin d’obtenir une structure XML, compatible avec ReaderBench ce qui donne (les limites de groupes de souffle, codées // ci-dessus ont été remplacées par des points) :
<Turn nickname=" Candice">
<Utterance genid=" 85">
moi je pense qu’il y a plusieurs enfin heu plusieurs sens de c’est pas juste parce que il y a heu il y a. c’est pas juste qui peut créer un conflit par exemple. heu qui est vraiment dans l’inégalité heu. par exemple heu :. je sais pas trop. il y a aussi heu le c’est pas juste bah un peu heu. capricieux on va dire enfin. qu’on pense pas trop. qui est plutôt heu. heu c’est pas juste heu mais en fait c’est juste enfin heu. voilà. et ben après heu. ça dépend des situations. Mais
</Utterance>
</Turn>
Quatre types d’analyse de la discussion
Contribution des intervenants à la progression de la réflexion
14Une première fonctionnalité de ReaderBench est de pouvoir représenter graphiquement le poids cumulé au cours du temps des interventions de chaque participant en relation avec la discussion complète. Cela permet, d’une part, de repérer visuellement à quels endroits de la discussion ont pu avoir lieu des interventions notables (et analysables plus précisément par l’enseignant ou les participants) ; d’autre part, de parvenir à identifier la ou les intervenants ayant le plus contribué à la discussion.
15La figure 1 montre qu’à certains moments de la discussion des élèves interviennent de manière significative, nous allons en étudier quelques-uns :
- Entre 85 et 100 : Candice (courbe bleue)
- En 184 : Manon (courbe rouge)
- De 298 à 310 : Benoît (courbe orange)
- En 341 : Dimitri (courbe jaune)
16Le premier passage correspond à ce que Michel Tozzi nomme un « mini-entretien » (cf. page 94) entre lui et Candice, les interventions de l’animateur permettant à celle-ci d’approfondir et de préciser sa pensée3. En 85, Candice postule deux formes de « c’est pas juste » : un « c’est pas juste » fondé sur une inégalité et un « c’est pas juste » qui est un caprice.
85 Candice : moi je pense qu’(il) y a plusieurs (en)fin heu // plusieurs sens de c’est pas juste parce que y a/heu (il) y a // c’est pas juste qui peut créer un conflit par exemple heu qui est vraiment dans l’inégalité heu // par exemple heu : // je sais pas trop {rires} // (il) y a aussi heu le c’est pas juste bah un peu heu // capricieux on va dire // (en)fin qu’on pense pas trop // qui est plutôt heu heu c’est pas juste heu mais en fait c’est juste (en)fin heu voilà et ben après heu ça dépend des situations mais
17Pour faire avancer la réflexion, Michel Tozzi lui demande d’illustrer son point de vue à l’aide d’exemples ([86] « est-ce que tu peux nous clarifier ce que tu viens de dire avec des situations précises »), ce qu’elle n’arrive pas à faire dans un premier temps :
93 Candice : heu ben ça dépend des choses en fait parce par exemple quand on est petit des fois on est un peu bah heu j(e) sais pas capricieux on a l’impression que heu ben qu’on peut avoir plus de choses, mais (en)fin heu
(…)
97 Candice : ben heu // je sais pas // (en)fin ça dépend heu de quoi pa(r) ce que c’est juste et pas juste (en)fin {rires}
18Ce n’est qu’en 112 (dernier palier de la courbe) qu’elle arrive à formuler un exemple illustrant son point de vue :
ouais j’ai trouvé un exemple par exemple heu ma nièce heu // elle a heu un an et huit mois i(l) m(e) semble heu et heu par exemple j(e) lui ai dit non à:: à:: prendre des objets qui sont petits pour pas qu’elle heu les avale (en)fin et tout // et heu et après (en)fin j(e) (rire) elle sait pas dire c’est pas juste mais j(e) pense qu’elle le pense // mais au fond c’est pour la protéger (en)fin c’est pas:: méchamment (en)fin c’est pas:: de l’inégalité parce que après je vais pas faire devant elle heu ouais je joue avec cque t’as pas le droit et tout mais heu pour la protéger (en)fin.
19Cette séquence est effectivement d’un apport intéressant. Dans son auto-analyse, Michel Tozzi note qu’à ce moment de la discussion la « pensée collective se complexifie4 », c’est d’ailleurs ce qu’il retourne à Candice et aux autres élèves quand il dit, en 98 : « […] c’est intéressant parce qu’on rentre dans la/dans la complexité de la chose là hein c’est vrai que // ce que tu disais tout à l’heure c’est que des fois on dit c’est pas juste mais en fait c’est un/caprice c’est intéressant hein. »
20Dans le deuxième passage, en 184, Manon intervient pour faire un résumé de ce qui a été dit jusqu’alors :
bah déjà le sujet c’était pourquoi on dit c’est pas juste quand on est enfant ? // donc c’est Melvil qui a commencé en parlant de sa sœur et // heu elle a des droits et:: qu’il n’a pas heum {rire} // Lou heum c’est plus de l’injustice quand on dit heu:: // c’est pas juste heu:: parce que quand on on l(e) pense vraiment (en)fin voilà // heum Danaé elle a dit quand on dit c’est pas juste c’est qu’on n’est pas d’accord // heu après y a Candice qui a dit il y a plu/:: sieurs c’est pas juste heu y en a un que j’ai pas pu noter et quand on pense heu y a l’injustice qu’on pense pas trop et donc l’autre je j’ai pas pu l’écrire et // il et ça dépend des situations quand on y pense // c’est pas juste heu {rire} // après y a Éloi quand on est petit les grands peuvent venir heu // les grands heu peuvent venir quand les petits i(ls) jouent mais heu il ne pourra pas jouer car ils ont peur qu’il se fasse mal heu après y a Candice qui a dit heum je crois qu’elle a parlé de sa petite cousine c’est ?
21La significativité de cette intervention consiste dans le fait qu’elle reprend et résume les différents apports des élèves précédents, il n’y a rien de fondamentalement nouveau dans les dires de Manon, d’ailleurs vu son rôle, c’est la secrétaire, elle n’a pas le droit de prendre la parole. De même en 340 (identifié comme le quatrième passage), Dimitri intervient pour faire un résumé de la seconde partie de la discussion.
22Dans le troisième passage, de 298 à 310, ReaderBench identifie un apport significatif de la part de Benoît. Si, en 298, la première formulation de son point de vue est assez approximative :
moi je pensais que peut-être heumm // heu:: heu y a pas heum heu le le le bon:: y a pas assez de:: de parts pour tout le monde en fait y en a trop // c’est pas pareil heumm alors en fait je pensais que:: quelqu’un il prendra la plus petite part et il l/là où:: i(ls) ont fait le gâteau alors les autres i(ls) vont penser ha ha:: lui il en a moins autrement dit on en a eu plus qu’on que qu’on aurait dû en avoir // mais après une fois qu’ils sont partis ben ça pourrait être un peu plus // heum juste pour heu pour celui qui en a mangé un peu moins parc(e) qu’ils vont donner heum heu le reste du gâteau à lui // s’il en reste5
23La pensée de Benoît va se préciser au cours de cette mini-conversation pour aboutir à une définition de ce qui est juste en 310 : « c’est c’est juste pour tout le monde parc(e) que tout le monde va penser que c’était juste. »
24Ces quelques exemples illustrent bien l’aide que peut apporter ReaderBench dans l’analyse des discussions. Le graphe de la contribution des participants à la discussion permet d’identifier assez vite certains moments de la discussion où manifestement « il se passe quelque chose ». Le travail de l’analyste consiste alors à se pencher sur ces moments et de voir en quoi l’apport identifié peut être significatif. Ces exemples montrent que si les interventions de ces quatre élèves sont significatives au niveau sémantique, les apports ne sont pas de même nature et ne témoignent pas des mêmes compétences langagières et cognitives à l’œuvre. Candice et Benoît font avancer la réflexion collective par leur apport dans la conceptualisation collective : Candice propose deux types d’injustice, Benoît une définition de la justice reposant sur le sentiment de justice (vs. l’égalité dans la dimension des parts de gâteau). L’apport de Manon et Dimitri est ici un effet du rôle qui leur a été donné dans la discussion : ils ne participent pas à la discussion, ce sont les secrétaires, leur mission est d’écouter, noter et restituer les propos. Leurs interventions ont plutôt une fonction d’ancrage de la discussion dans ce qui a déjà été dit. Si les apports sont significatifs de part et d’autre, ils n’ont pas la même fonctionnalité dans la construction de la pensée, et la co-construction du discours.
Identification des principaux mots-clés de la discussion
25Deuxièmement, ReaderBench permet d’identifier les différents mots-clés traités dans une discussion. L’analyse de ces mots-clés ne se fait pas par le simple comptage des occurrences des termes. Les différents mots composant les tours de parole sont tout d’abord analysés d’un point de vue morpho-syntaxique (de manière à déterminer notamment leur catégorie grammaticale et leur lemme). Ensuite, ce que nous nommerons leur pertinence, c’est-à-dire leur relation sémantique avec le contenu de la discussion, est calculée comme moyenne de moyennes de leur proximité avec la phrase, le tour de parole, et la discussion dans laquelle ils sont insérés. Cette pertinence peut être affichée, soit pour la conversation globale, soit par participant. Dans ce cas, la comparaison est faite avec la phrase, le tour de parole et l’ensemble des tours de parole du participant.
26Nous avons choisi d’examiner les mots-clés qui apparaissent dans les propos de l’animateur et des quatre élèves repérés plus haut, notre critère de choix étant que ces élèves ont fait à un moment donné un apport significatif à la discussion et qu’il s’agit d’élèves ayant eu des rôles différents : Candice et Benoît étant « philosophes » tout au long de la DVDP, Manon et Dimitri ont été « secrétaires » (pendant la première partie de la discussion pour Manon et lors de la seconde pour Dimitri). Le tableau 1 ci-dessous reprend les mots-clés les plus représentatifs de l’ensemble de la discussion pour l’ensemble des cinq locuteurs (classés par ordre décroissant selon leur indice global), et leur indice pour les locuteurs sélectionnés. Nous avons mis en évidence les scores supérieurs à 2, valeur arbitraire qui signale une importance suffisante par rapport à la discussion, et complété le tableau pour les valeurs inférieures à 2, lorsque nécessaire.
27Nous pouvons classer les mots de ce tableau en plusieurs catégories. Tout d’abord, les sept mots qui ont une pertinence élevée (supérieure à 2) pour tous les participants (« penser », « juste », « part », « dire », « autre », « faire », « chose »), ce qui signale d’une part l’existence d’une communauté de discours et, d’autre part, que les trois premiers termes sont en lien direct avec la discussion. L’adjectif « juste » renvoie directement à la question traitée ; le verbe « penser » à l’activité cognitive et langagière en jeu (réfléchir autour de la problématique, donner une opinion, la justifier) ; quant au nom « part », celui-ci renvoie au problème posé par Michel Tozzi au début de la seconde partie de la discussion : comment partager un gâteau de manière juste ?
28Ensuite, on retrouve les mots ayant une pertinence élevée seulement pour l’animateur, Michel Tozzi, soit tout le bas de la liste : « falloir », « important », « essayer », « travailler », « justice », « venir », « finalement », « ensuite », « exactement », « réfléchir ». Ces mots sont tous liés – hormis « justice » –, à des champs de la validation (« exactement »), ou de la gestion pédagogique de la discussion (« travailler », « important », « réfléchir », « finalement »), ou de la prescription (« falloir »), ce qui est attendu compte tenu du rôle de Michel Tozzi. Par ailleurs, il est intéressant de comparer le degré de pertinence des mots « juste » (adj.) et « justice » (nom), chez les 4 élèves et chez l’animateur. En effet, on constate un écart : le terme « justice » n’est pas présent dans les propos de 3 des 4 élèves alors qu’il est repéré avec un taux de pertinence de 3,07 chez l’animateur. On peut voir là un décalage conceptuel entre les discours de ces quatre enfants et celui de l’animateur : avec un indice de pertinence fort sur l’adjectif seulement les propos des enfants sont plutôt du côté de la « qualité » des situations qu’ils proposent alors que l’animateur mobilise aussi le concept (Dimitri aussi, mais faiblement). Par ailleurs, les indices globaux de pertinence pour l’ensemble des locuteurs témoignent de cette tendance puisque le nom « justice » obtient un score de 9,059 et l’adjectif « juste » 2,915. On a là un indicateur intéressant pour mesurer le degré de conceptualisation de la discussion sur cette dimension de la réflexion.
29Enfin, on note quelques mots qui ont une pertinence différente selon le statut des élèves (secrétaire ou philosophe) : « exemple » est plus pertinent et employé chez les philosophes que chez les secrétaires, « accord », « croire » sont plus pertinents et employés chez les secrétaires que chez les philosophes. Il est à noter que les philosophes ne sont bien sûr pas tenus d’intervenir sur tous les thèmes traités, ce qui apparaît par leur utilisation plus inégale que chez les secrétaires de certains mots-clés (par exemple, Benoît n’utilise pas « accord » et « croire », alors que Candice n’utilise pas ou peu « raison » et « croire »).
30Ainsi, ReaderBench pourrait être utilisé pour déterminer l’efficacité d’un(e) secrétaire à sa manière d’utiliser, dans ses interventions, les principaux mots-clés d’une discussion entière ainsi que le niveau de conceptualisation en comparant les degrés de pertinence des adjectifs et des noms ayant la même racine comme nous l’avons fait pour « juste » et « justice »
Analyse des proximités thématiques des tours de paroles des participants
31Une troisième fonctionnalité de ReaderBench est de calculer, avec des techniques d’analyse de réseaux sociaux, la proximité thématique des propos tenus par chacun des participants. L’ensemble des tours de parole de chaque participant est comparé sémantiquement à ceux des autres.
32Sur ce réseau (figure 2), qui prend en compte l’ensemble de la discussion, on visualise bien un premier cercle de participants autour de l’animateur, qui contribuent donc de manière similaire à la discussion : Mathéo, Dimitri, Benoît et Danaé. Toutefois, s’en tenir à cette analyse n’est pas satisfaisant, car les valeurs calculées peuvent être influencées par le rôle assigné aux élèves, rôle qui change selon les moments de la DVDP.
Perspective dialogique : la mise au jour de thèmes
33La quatrième fonctionnalité de ReaderBench concerne la sélection et la visualisation de « voix », ou thèmes, tout au long de la discussion. Il revient alors au chercheur de sélectionner les thèmes en lien avec la problématique de la discussion (figure 3 : Copie d’écran de la procédure de sélection des voix) qu’il pourra alors afficher longitudinalement afin de visualiser la dynamique de la discussion (figure 4). Chaque barre de cette dernière figure représente une occurrence de thème, localisée par tour de parole (en abscisse). Cliquer sur une barre permet d’afficher son contenu. Les couleurs ne sont pas signifiantes.
34L’exemple affiché ci-dessus, permet de voir que la discussion s’organise autour de deux temps : une phase de brainstorming à partir d’exemples proposés par les enfants (du tour de parole 60 à 180) puis autour d’un exemple particulier : le partage du gâteau (de 200 à 330 environ). Cette visualisation permet d’affiner l’analyse sémantique : on peut ainsi explorer les différentes dimensions sémantiques de la discussion, et donc ses phases. Le logiciel permettra dans certains cas de mettre au jour des univers sémantiques qu’une lecture humaine n’aurait pas perçus. Cette fonctionnalité permet aussi de voir qui apporte quelle thématique : l’animateur (ici la question du partage du gâteau), les élèves.
35Une fois que ce positionnement de thèmes tout au long de la discussion a été réalisé, ReaderBench affiche également (voir figure 5) la manière dont les tours de parole des différents participants sont sémantiquement reliés à la discussion complète. Les pics du graphique de la figure indiquent qu’aux tours de parole concernés différents participants ont des tours de parole à la fois sémantiquement proches les uns des autres et proches de la discussion complète, ce qui peut rendre compte d’une construction de connaissance collaborative (Scardamalia, Bereiter, 1994).
36Nous allons maintenant explorer quelques pics de la figure 5. Il faut préciser que ce logiciel permet de zoomer sur un ensemble de tours de parole afin d’avoir une vision plus précise des échanges. La vision globale de la figure 5 met en évidence quelques moments où la construction collaborative est plus forte : on observe des pics entre 49 et 134 entre 280-320 et 320-345. Nous allons maintenant explorer quelques-uns de ces pics.
37À la question de l’animateur portant sur le rôle de philosophe (« et alors les : philosophes vous qu’est-ce que qu’est-ce que vous allez faire » [47]), ce sont Melvil, Lou et Éloi qui interviennent avec les apports suivants : Melvil (48) : « […] on va débattre sur […] le sujet […] » ; Lou (50) : « […] on va s’exprimer on va on va dire tout c’qu’on pense […] » ; Éloi : (52) « ben il faut dire si on est d’accord ou pas d’accord avec euh c’que une personne a dit et (54) et si on n’est pas d’accord bah on essaie de dire pourquoi […] ».
38Ces interventions se caractérisent par leur complémentarité, ce qui peut se résumer ainsi : « être philosophe c’est débattre, s’exprimer, dire si on est d’accord ou pas, justifier son point de vue. » Il y a donc co-construction de la réponse car l’animateur intervient essentiellement pour valider les propositions, les reformuler (ce qui est une forme de validation), et questionner. Cela est cohérent avec le score attribué à ces tours de parole par ReaderBench6.
39Nous avons présenté plus haut plusieurs interventions identifiées comme des apports significatifs, l’analyse des liens sémantiques entre une intervention et la discussion complète (sous la forme d’un score de construction sociale de connaissances attribué à chaque tour de parole) apporte un éclairage complémentaire à l’analyste.
40En 85, on observe notamment un apport significatif de Candice qui propose « plusieurs sens » de « c’est pas juste ». Même si les interventions qui suivent (91 et 85) ne constituent pas un apport significatif, elles illustrent cette pluralité de sens à partir du vécu ([95] « quand j’étais petite »), puis avec un exemple fictif (« […] il y a un exemple, mais je l’ai pas je l’ai pas passé quoi c’est pas vrai […] ») : ces interventions permettent une conceptualisation collective dont témoigne la reprise explicite d’Éloi ([en 102] « ben il y a comme elle a comme elle dit Candice il y a des exemples où […] »), même si l’on peut aussi considérer qu’en 107, Mathéo va dans le même sens.
41Il en va de même pour l’intervention de Benoît, en 298, identifiée par ReaderBench comme apport significatif à la discussion, avec le score de 29, 22 et aux tours de parole adjacents (no 300 : Candice, 33, 10), qui s’inscrit dans le cadre d’une construction collective. Si en 292, Benoît essaye d’introduire l’idée de justice apparente (vs. réelle), il formule un exemple qui est censé illustrer cela, mais qui n’est pas très clair, les hésitations témoignent ici d’une pensée en construction. La reformulation, en 300, de Candice par une formulation plus fluide qui explicite avec l’idée de sacrifice (réel et/ou virtuel) permet à Benoît de formuler plus clairement cette idée de justice apparente (cf. 302).
42En revanche, si l’intervention de Manon en 184 est significative sur le plan sémantique, elle ne l’est pas sur le plan de la construction sociale de la connaissance, ce qui est cohérent avec ce que nous avions noté plus haut. Ici Manon est dans son rôle de secrétaire, elle résume les différents apports faits jusqu’alors. Il en va de même de l’intervention de Dimitri en 341.
Analyser les discussions philosophiques
43Il s’agit là d’une première analyse automatique d’une discussion philosophique, à partir d’une transcription orale. Tout d’abord, nous pouvons noter que les différentes étapes de transcription puis de formatage de la discussion – pour qu’elle soit analysable par ReaderBench – prennent un temps raisonnable. Ensuite, nous avons mis en évidence quelques fonctionnalités du logiciel qui peuvent signaler à l’enseignant ou aux participants des éléments à analyser de plus près. ReaderBench produit deux types de visualisations complémentaires. Des visualisations centrées sur les tours de paroles (qui figurent souvent en abscisses) permettent d’une part de visualiser les apports des participants à la discussion complète (figure 1), d’autre part l’interanimation des thèmes tout au long de la discussion (figure 4). En revanche, des visualisations centrées sur les participants (figure 5) permettent de mettre en évidence des rapprochements sémantiques entre les contributions des intervenants.
44Nous tenons à rappeler que ce système doit être vu comme une aide à l’analyse humaine des discussions, pouvant amener l’enseignant ou les participants à analyser plus rapidement les contributions des participants et leur contenu thématique. Il ne peut être utilisé comme un outil d’évaluation sommative automatique des contributions, pouvant mener à des notes ou des certifications. Il n’est pas exempt de limites. Ainsi, nous avons parfois noté des analyses qui nous interrogent comme au tour de parole 104, où Mathéo demande : « est-ce que Hania tu as quelque chose à dire ? » est affecté d’un score élevé de construction sociale de connaissances (45,8, sachant que le score maximal est de 66,59), alors que le même énoncé une quarantaine de tours de parole plus loin (TDP no 149, toujours Mathéo), obtient un score de 8,63. Ceci afin d’insister sur le nécessaire dialogue entre l’analyste (s’il n’est pas l’auteur du logiciel) et les informaticiens qui conçoivent les programmes d’analyse.
45Pour ce qui est des corpus à analyser, il faut prendre en compte quelques contraintes : non seulement les discussions doivent être d’un volume (en nombre de mots) suffisant, mais cela doit être également le cas des tours de parole d’un participant donné. Les tours de parole très courts comme « voilà », « c’est ça », « bah non, mais »… ne sont pas analysés alors que sur le plan pragmatique ils ont une valeur certaine. En outre, un lexique de spécialité ne pourra être pris en compte si on ne fournit pas en amont de l’analyse un corpus de référence appartenant au domaine de spécialité.
46Nous projetons de comparer ces différentes analyses automatiques avec des analyses réalisées par des chercheurs ou enseignants. Une autre possibilité sera d’utiliser d’autres fonctionnalités existantes, comme celle d’analyse des stratégies de compréhension de textes pour s’intéresser à la manière dont des élèves comprennent un texte philosophique donné, qui sera lui-même analysé. La fonctionnalité d’analyse de la complexité textuelle peut également être utile pour calibrer la difficulté d’étude de textes philosophiques. De plus, l’ajout d’un module d’analyse de sentiments à ReaderBench va pouvoir permettre l’analyse de la valence émotionnelle des tours de parole.
Remerciements
47Nous remercions tous les chercheurs qui ont pris part dans la conception et le développement de ReaderBench. Son développement a été partiellement réalisé par les projets FP7 2008-212578 LTfLL et par le Projet européen H2020 RAGE No 644187 (Realising and Applied Gaming Eco-System, http://www.rageproject.eu/), ainsi que par le projet DEVCOMP (ANR-10-BLAN-1907-01) financé par l’Agence nationale de la recherche (ANR).
Bibliographie
Des DOI sont automatiquement ajoutés aux références bibliographiques par Bilbo, l’outil d’annotation bibliographique d’OpenEdition. Ces références bibliographiques peuvent être téléchargées dans les formats APA, Chicago et MLA.
Format
- APA
- Chicago
- MLA
Cette bibliographie a été enrichie de toutes les références bibliographiques automatiquement générées par Bilbo en utilisant Crossref.
Bibliographie
Bakhtin M. M., 1981, The dialogic imagination : Four essays, Austin/London, The University of Texas Press.
10.7551/mitpress/1120.001.0001 :Blei D., Ng A., Jordan M., 2003 (janvier), « Latent Dirichlet Allocation », Journal of Machine Learning Research, vol. 3 (4-5), p. 993-1022.
10.3115/v1/P14-1 :Chaturvedi S., Goldwasser D., Daumé III H., 2014, « Predicting instructor’s intervention in MOOC forums », Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, Baltimore, p. 1501-1511.
Dascalu M., Dessus P., Bianco M., Trausan-Matu S., 2014, « Are automatically identified reading strategies reliable predictors of comprehension ? », dans S. Trausan-Matu, E. Boyer, M. Crosby, K. Panourgia (dir.), Intelligent Tutoring Systems (12th International Conference, ITS 2014, Honolulu, HI, USA June 5-9, 2014. Proceedings), vol. LNCS 8474, New York, Springer, p. 456-465.
—, Nardy A., 2014, « Mining texts, learners productions and strategies with ReaderBench », dans A. Peña-Ayala (dir.), Educational Data Mining. Applications and Trends, New York, Springer, p. 345-377.
—, Stavarache L. L., 2014, « Reflecting comprehension through French textual complexity factors », 26th IEEE International Conference on Tools with Artificial Intelligence (ICTAI 2014) (nov. 2014, Limassol, Chypre), IEEE, p. 615-619.
—, Mc Namara D. S., 2015, « Dialogism : A framework for CSCL and a Signature of Collaboration », dans O. Lindwall, P. Häkkinen, T. Koschman, P. Tchounikine, S. Ludvigsen (dir.), Exploring the material conditions of learning. The Computer Supported Collaborative Learning (CSCL) Conference (Gothenburg, Sweden, The International Society of the Learning Sciences, June 2015), vol. 1, p. 86-93.
—, Mc Namara D. S., 2015, « ReaderBench - Automated Evaluation of Collaboration based on Cohesion and Dialogism », International Journal of Computer-Supported Collaborative Learning, 10 (4), p. 395-423.
10.1504/IJCEELL.2011.040195 :Dessus P., Lemaire B., Loiseau M., Mandin S., Villiot-Leclercq E., Zampa V., 2011, « Automated free-text assessment : Some lessons learned », International Journal of Continuing Engineering Education and Life-Long Learning, 21 (2/3), p. 140-154.
—, Trausan-Matu S., Wild F., Dupré D., Loiseau M., Rebedea T., Zampa V., 2011, « Un environnement personnel d’apprentissage évaluant des distances épistémiques et dialogiques », Distances et Savoirs, 9 (4), p. 473-492.
10.1037/0033-295X.104.2.211 :Landauer T. K., Dumais S. T., 1997, « A solution to Plato’s problem : the Latent Semantic Analysis Theory of Acquisition, Induction and Representation of Knowledge », Psychological Review, vol. 104, no 2, p. 211-240.
Linell P., 2009, Rethinking Language, Mind, and World Dialogically : Interactional and Contextual Theories of Human Sense-Making, Charlotte (NC), Information Age Publishing.
Manning C., Schütze H., 1999, Foundations of Statistical Natural Language Processing, Cambridge, MIT Press.
Morel M.-A., Danon-Boileau L., 1998, Grammaire de l’intonation, l’exemple du français, Paris, Ophrys.
Mu J., Stegmann K., Mayfield E., Rosé C., Fischer F., 2012, « The ACDOEA framework : Developing segmentation and classification schemes for fully automatic analysis of online discussions », Computer-Supported Collaborative Learning, no 7, p. 285-305.
Nistor N., Dascalu M., Stavarache L. L., Tarnai C., Trausan-Matu S., 2016, « Predicting Newcomer Integration in Online Knowledge Communities by Automated Dialog Analysis », dans Y. Li, M. Chang, M. Kravcik, E. Popescu, R. Huang, Kinshuk, N.-S. Chen (dir.), State-of-the-Art and Future Directions of Smart Learning, Berlin, Springer, p. 13-17.
10.4324/9780203075227 :Reffay C., Martinez-Mones A., 2013, « Basic Concepts and Techniques in Social Network Analysis », dans R. Luckin, S. Puntambekar, P. Goodyear, B. Grabowski, J. Underwood, N. Winters (dir.), Handbook of Design in Educational Technology, New York, Routledge, p. 448-456.
10.1207/s15327809jls0303_3 :Scardamalia M., Bereiter C., 1994, « Computer Support for Knowledge-Building Communities », The Journal of the Learning Sciences, vol. 3, no 3, p. 265-283.
Sloetjes H., Wittenburg P., 2008, « Annotation by category – ELAN and ISO DCR ». Paper presented at the Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC), Marrakech.
Stahl G., 2006, Group cognition. Computer Support for Building Collaborative Knowledge, Cambridge, MIT Press.
10.3166/ria.19.265-280 :Tousseul S., 2005, « L’origine du sens : l’Affect Inconditionnel », Revue d’intelligence artificielle, vol. 19 (1-2), p. 265-280.
10.1007/978-3-642-14657-2 :Trausan-Matu S., 2010, « Automatic Support for the Analysis of Online Collaborative Learning Chat Conversations », dans P. Tsang, S. K. S. Cheung, V. S. K. Lee, R. Huang (dir.), Hybrid Learning, Third International Conference, ICHL 2010 (Beijing, China, August 2010). Proceedings, New York, Springer, p. 383-394.
Notes de bas de page
1 Il s’agit, par exemple, du corpus Philosophèmes recueilli dans le cadre de plusieurs projets soutenus financièrement par les MSH de Lorraine (dirigé par Specogna et Halté en 2009), et de Clermont-Ferrand (dirigé par Auriac-Slusarczyk et Blasco-Dulbecco en 2010), et de la région Auvergne dans le cadre d’un appel à projet structurant en Sciences humaines et sociales. On mentionnera également un autre corpus en cours de constitution au LIDILEM de l’université Grenoble-Alpes collecté dans le cadre du projet Philéduc (soutenu par AGIR 2013), ainsi qu’une thèse financée par la région Auvergne Rhône-Alpes.
2 Pour plus de détails on se reportera aux travaux du Groupe aixois de recherche sur la syntaxe (GARS) et aux nombreux écrits de Claire Blanche-Benveniste, et à Morel et Danon-Boileau.
3 Il est intéressant de constater que, sans concertation, d’autres analyses de cette même DVDP se soient aussi arrêtées sur ce passage, comme celles de V. Delille, N. Markevitch Frieden, A. Herla et G. Jeanmart (cf. p. 239-252), A. Fournel (cf. p. 220-238) et M. Blasco et L. Lebas-Fraczak (cf. p. 173-182).
4 Cf. p. 97 de cet ouvrage.
5 Ce qui laisse Michel Tozzi perplexe : « est-ce que quelqu’un pourrait aider à comprendre ce que Benoît vient de dire ? »
6 TDP no 50 : 29, 91 ; TDP no 52 : 23, 20 et TDP no 54 : 28, 26.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Paroles de philosophes en herbe
Ce livre est cité par
- Polo, Claire. (2020) Le Débat fertile. DOI: 10.4000/books.ugaeditions.14879
- Point, Christophe. (2021) La Philosophie pour enfants : une piste pour réconcilier enseignement disciplinaire et vie scolaire ?. Studia Universitatis Babeș-Bolyai Philosophia, 66. DOI: 10.24193/subbphil.2021.1.08
Paroles de philosophes en herbe
Ce livre est diffusé en accès ouvert freemium. L’accès à la lecture en ligne est disponible. L’accès aux versions PDF et ePub est réservé aux bibliothèques l’ayant acquis. Vous pouvez vous connecter à votre bibliothèque à l’adresse suivante : https://0-freemium-openedition-org.catalogue.libraries.london.ac.uk/oebooks
Si vous avez des questions, vous pouvez nous écrire à access[at]openedition.org
Référence numérique du chapitre
Format
Référence numérique du livre
Format
1 / 3