Comment nous pensons
Médias numériques et technogenèse contemporaine
p. 37-65
Texte intégral
1Comment pensons-nous ? Ce livre examine la proposition selon laquelle nous pensons par les médias, avec les médias et à côté des médias. L’idée n’est pas neuve, bien sûr. Marshall McLuhan, Friedrich Kittler, Lev Manovich, Mark Hansen et beaucoup d’autres l’ont dit auparavant. En partant de leurs travaux, ce livre suit les conséquences des bouleversements suscités par les médias dans les humanités et les sciences sociales qualitatives à l’heure où les disciplines traditionnellement fondées sur l’imprimé telles que la littérature, l’histoire, la philosophie, la religion ou l’histoire de l’art se réorientent vers les médias numériques. Tandis que les sciences et les sciences sociales quantitatives ont déjà effectué cette transition, les humanités et les sciences sociales qualitatives commencent à peine à se trouver confrontées à un changement de paradigme dans lequel la recherche et la publication numériques ne peuvent plus être ignorées. À partir de mentalités façonnées par l’imprimé, nourries par l’imprimé, rendues possibles et contraintes par l’imprimé, les chercheurs des humanités s’affrontent aux différences qu’introduisent les médias numériques dans tous les aspects de la recherche dans les humanités : la conceptualisation des projets, la mise en œuvre de programmes de recherche, la conception des programmes d’études et l’instruction des étudiants. L’ère de l’imprimé est en train de s’achever1, et il apparaît aujourd’hui que les hypothèses, présuppositions et pratiques qui l’accompagnaient relevaient d’un médium spécifique et non d’un simple état de fait, invisible, dans lequel l’imprimé écrasait tous les autres médias.
2Pour évaluer l’impact des technologies numériques, nous pourrions présenter une série d’effets qui va en s’intensifiant. Au niveau le plus bas se trouvent les mails, les sites Web des départements universitaires, les recherches sur Internet, les SMS, la création de fichiers numériques, leur sauvegarde et diffusion, etc. Le monde universitaire dans son ensemble, et une part importante de la population en dehors des universités, participent aux technologies numériques à ce niveau. Même en s’en tenant là, les effets ne sont pas négligeables. Pour ne prendre que cet exemple, les motifs d’erreur sont très différents entre l’écriture au stylo et/ou à la machine à écrire et le traitement de texte. L’impact sur la recherche universitaire est plus spectaculaire ; alors que les chercheurs hantaient les bibliothèques, ils sont susceptibles aujourd’hui d’accéder aux sources dont ils ont besoin par des recherches sur Internet. Ce qui est peut-être le plus important à ce niveau est le sentiment d’avoir le monde à sa disposition. La capacité d’accéder à l’information et de la récupérer à l’échelle mondiale a un impact considérable sur la manière dont nous pensons notre place dans le monde. J’habite une petite ville de la Caroline du Nord mais, grâce à Internet, je ne me sens pas le moins du monde isolée. J’ai accès aux nouvelles nationales, je peux les comparer à leur couverture internationale, trouver des sources obscures, chercher de l’information pour vérifier une affirmation et beaucoup d’autres activités qui auraient pris des jours et non des minutes dans l’ère qui a précédé Internet, à supposer même qu’elles aient été possibles. À l’inverse, quand mon ordinateur tombe en panne ou quand ma connexion Internet lâche, je me sens perdue, désorientée, incapable de travailler — j’ai véritablement l’impression qu’on m’a amputé les mains (me rappelant peut-être l’affirmation de McLuhan selon laquelle les médias fonctionnent comme des prothèses). De telles impressions, qui sont très répandues2, ne constituent rien moins qu’un changement de vision du monde.
3Différentes recherches indiquent d’ailleurs que les petites actions habituelles qui accompagnent les interactions avec Internet — cliquer avec la souris, déplacer un curseur, etc. — pourraient être extraordinairement efficaces dans le recâblage (ou, plus précisément, dans la fixation de nouveaux objectifs) de nos circuits neuronaux, ce qui fait que les changements ne sont pas seulement psychologiques mais aussi physiques. On a montré que l’apprentissage de la lecture entraînait des changements importants dans le fonctionnement du cerveau ; et il en va de même de l’apprentissage d’autres types de lecture, par exemple en effectuant des recherches sur Google. Dans Internet rend-il bête ? Réapprendre à lire et à penser dans un monde fragmenté3, Nicholas Carr soutient que ces changements mettent en péril nos facultés de concentration, conduisant à une pensée superficielle, à une diminution de la capacité à comprendre des textes complexes et à un déclin général des capacités intellectuelles. Il met cela en relation avec le sentiment d’être constamment distrait, ce qui a pour effet qu’au lieu de se consacrer à une tâche pendant une période relativement longue, on se sent obligé de consulter ses mails, de faire des recherches sur Internet, de s’interrompre pour jouer à un jeu vidéo, etc. J’aborde ces questions dans le chapitre 3, mais je voudrais en quelque sorte soulever ici une autre conséquence : nos interactions avec les médias numériques sont incarnées, et elles produisent des effets sur le corps au niveau physique. Les actions des ordinateurs sont elles aussi incarnées, même si c’est d’une manière très différente de celles des humains. Plus on travaille avec les technologies numériques, plus on en vient à apprécier la capacité des machines programmables et en réseau à effectuer des tâches cognitives sophistiquées, et plus le clavier en vient à paraître une extension de ses propres idées plutôt qu’un instrument externe sur lequel on se contente de taper. L’incarnation prend alors la forme d’une cognition étendue, dans laquelle la capacité d’action et la pensée des humains sont impliquées dans des réseaux plus larges qui, au-delà de l’ordinateur de bureau, s’étendent à l’environnement. Pour cette raison, les modèles de cognition incarnée et étendue, tels que les proposent Andy Clark4 et d’autres, occupent une place centrale dans mon argumentation.
4J’ai parlé jusqu’ici du niveau d’implication le plus bas, que pratiquent tous les jours des millions de personnes. Les chercheurs comptent parmi ceux qui ont régulièrement des activités plus sophistiquées avec les médias numériques. Au niveau suivant, le chercheur commence à utiliser les technologies numériques en tant que partie intégrante du processus de recherche. Cela peut prendre tout d’abord la forme de l’affichage des résultats déjà obtenus par d’autres médias, par exemple poster sur Internet un article conçu pour être imprimé. Le principal avantage tient ici à une diffusion à l’échelle du monde auprès d’une grande variété de publics, qui va dans bien des cas très au-delà de ce dont est capable un document imprimé. Le taux d’abonnement extrêmement bas et au-delà de ça, le taux de citation affreusement faible des articles (et donc, on peut le supposer, du nombre de lectures), constituent le secret de Polichinelle des publications imprimées dans les humanités. David P. Hamilton5 a entrepris d’étudier le nombre de citations qu’obtiennent les articles de revues scientifiques dans les cinq années qui suivent leur publication. En retirant les annonces, recensions, etc., qui ne sont pas destinées à être citées6, ses résultats montrent que, dans les sciences, le pourcentage des articles qui n’ont pas été cités une seule fois au cours de ces cinq années s’élève à 22,4 %. Dans les humanités, on atteint le résultat exorbitant de 93,1 %. Même si l’on reconnaît à la fois que la publication d’articles joue un rôle différent dans les sciences (où elle est la norme) et dans les humanités (où le livre est la norme), et que la fréquence de publication dans une revue n’est pas la même dans les deux champs (quelques mois dans les sciences, d’un à trois ans dans les humanités), ce nombre devrait nous inciter à réfléchir.
5Ce faible taux de citation laisse penser que si la publication dans une revue est susceptible de servir à la reconnaissance des qualifications pour la titularisation et la promotion des enseignants-chercheurs, à quelques importantes exceptions près, elle a un public négligeable et une fonction de communication insignifiante. Cela pose aussi des questions sur l’évaluation de la qualité. Habituellement, les jugements sont établis par des comités universitaires qui lisent le travail du chercheur et résument leurs évaluations pour le département. Dans ces délibérations, les questions relatives au rayonnement et au public sont rarement envisagées en un sens négatif (même si elles sont habituellement prises en compte lorsqu’un travail est jugé susceptible d’avoir une influence). Si l’on accordait davantage d’importance à l’influence et au public, on pourrait parfaitement faire valoir la prise en compte de blogs bien documentés et bien écrits, dont l’audience se chiffre en milliers ou centaines de milliers, contrairement à des livres ou articles imprimés dont l’audience se chiffre en quelques dizaines ou centaines — si encore ils les atteignent. Tout cela devrait en effet nous conduire à repenser la qualification en général, comme l’indique Gary Hall dans Digitize This Book! The Politics of New Media or Why We Need Open Access Now : « Le modèle de la publication numérique soulève des questions fondamentales quant à l’existence même de l’édition savante (et de l’enseignement qui va de pair) ; et ce faisant, il ne constitue pas seulement une menace pour les hiérarchies universitaires traditionnelles mais nous dit aussi quelque chose des pratiques de légitimation, d’autorité, de jugement, d’accréditation universitaires, et de l’institution en général7 ».
6Le niveau d’implication encore supérieur correspond à la conceptualisation et à la mise en œuvre de projets de recherche avec les médias numériques. Ici, tout un spectre de possibilités se déploie : à une extrémité, le projet unique qu’un chercheur entreprend sans s’impliquer entièrement dans les médias numériques, à l’autre, les chercheurs qui travaillent essentiellement avec les médias numériques. Même à l’extrémité la plus basse du spectre, les hypothèses et suppositions commencent à changer de façon spectaculaire. Le chercheur qui travaille avec ces médias est susceptible, par exemple, de stocker des données dans des bases de données plutôt que de leur donner une expression discursive. Comme nous le verrons dans le chapitre 2, ce changement conduit à une transformation importante de la conception qu’une chercheuse se fait de son matériau. Les éléments réfractaires, qui doivent être subordonnés dans la présentation verbale pour qu’un argument ait du sens et soit convaincant, peuvent désormais se voir reconnaître une valeur en tant que telle. Mettre en place une base de données permet aussi que d’autres chercheurs (ou équipes de chercheurs) créent à leur tour leurs propres interfaces frontales pour ces mêmes données, ce qui encourage la collaboration dans le recueil, le stockage et l’analyse des données.
7À ce stade, les changements s’accélèrent, parce que, désormais, la chercheuse qui s’appuie sur le numérique commence à changer plus nettement de perspective, à mesure que les questions de conception, de navigation, de graphisme, d’animation et de leur intégration avec des concepts passent au premier plan. Alors que la navigation dans un document imprimé est fortement contrainte, guidée par des tables des matières, des têtes de chapitre, des pages de garde, des notes en fin de texte, des index, etc., dans la recherche sur Internet, elle peut se présenter de manière très diverse, chacune de ces manières ayant des incidences sur la façon dont le public est susceptible de rencontrer et d’évaluer la recherche, et donc sur l’interprétation qui lui sera donnée. Les liens hypertextes, les hiérarchies d’affichage à l’écran, les onglets de page d’accueil, etc., contribuent tous à l’effet d’ensemble. Graphisme, animation, design, vidéo et son acquièrent une force d’argumentation et participent à la quête de sens de la recherche. Lorsqu’une chercheuse s’affronte à ces questions, elle est susceptible de rencontrer tôt ou tard les limites de ses propres connaissances et talents, et elle ressentira vite le besoin — la nécessité véritable — d’une collaboration. Puisque les meilleures collaborations sont celles dans lesquelles tous les partenaires se trouvent depuis l’origine et participent aussi bien à la conception du projet qu’à sa mise en œuvre, cela implique en retour un modèle de travail très différent des procédures habituelles d’un chercheur travaillant avec l’imprimé — qui est susceptible de participer à des collaborations d’une grande quantité de manières, notamment en citant d’autres chercheurs ou en demandant à des amis et connaissances de relire les manuscrits — mais qui rédige habituellement seul, plutôt que dans un environnement de travail en équipe.
8Travaillant en coopération, le chercheur qui utilise les médias numériques est susceptible de faire participer les étudiants au projet, et cela conduit rapidement à une autre conception des cours, dans laquelle les projets sur Internet constituent une partie intégrante du travail. Les changements déploient maintenant leurs effets, d’un projet de recherche individuel à une transformation des programmes de cours et, ce qui n’est pas par hasard, à des aménagements matériels de l’espace consacré à l’enseignement et à la recherche. La salle de classe n’est plus suffisante pour répondre aux besoins de la pédagogie sur Internet ; il faut désormais des espaces de laboratoire flexibles dans lesquels des chercheurs puissent travailler en collaboration, ainsi que des espaces d’atelier équipés de technologies haut de gamme pour la production et la réalisation des recherches. À ce stade, il est difficile de dire où commencent les transformations, parce que la quasi-totalité des aspects du travail dans les humanités peut aujourd’hui être envisagée autrement, qu’il s’agisse de la recherche ou de la publication, de l’enseignement ou du tutorat, de la qualification ou de l’évaluation par les pairs ou, enfin et surtout, des relations entre l’université et la société.
9Des changements de perspective d’une telle envergure apparaissent souvent de manière plus spectaculaire chez les chercheurs qui occupent une responsabilité administrative. Ils sont représentés dans cette étude (dans le chapitre 2) par Kenneth Koespel, de Georgia Tech ; Tara McPherson, de l’université de Californie du Sud ; Alan Liu de l’université de Californie à Santa Barbara ; Harold Short du King’s College de Londres ; et Jeffrey Schnapp (de l’université Stanford lorsque je l’ai interviewé, aujourd’hui de l’université Harvard). En tant qu’administrateurs, ils doivent penser, en termes de programmation, à l’orientation à donner aux services administratifs dont ils ont la charge, aux développements possibles à partir des tendances actuelles, à la manière dont les résultats seront jugés et aux types de relations que ces services administratifs entretiennent avec l’université et la société en général. Ils comprennent très bien que les technologies numériques, dans leur ensemble, impliquent une transformation non seulement des humanités mais du système éducatif tout entier. Ils sont aussi profondément conscients des difficultés auxquelles ils doivent faire face au sein des humanités, au moment où les disciplines traditionnellement fondées sur l’imprimé se fracturent en différents contingents, où certains chercheurs restent fermement dans le domaine de l’imprimé tandis que d’autres se lancent dans le domaine du numérique.
10Nous venons de retracer les changements qui sont intervenus en décrivant une série de niveaux et d’augmentations progressives de l’un à l’autre. Pourtant, si l’on compare le niveau le plus bas au niveau le plus élevé, les différences sont frappantes, indiquant la possibilité qu’un fossé se creuse entre les chercheurs qui s’appuient sur l’imprimé et ceux qui s’appuient sur le numérique. Cette situation pose un grand nombre de défis théoriques, organisationnels et pédagogiques. Tandis que les humanités numériques arrivent à maturation, les chercheurs travaillant avec des médias numériques développent des vocabulaires, discours et bases de connaissances nécessaires à l’avancement du domaine. Dans une certaine mesure, la construction de connaissance est cumulative et les citations, allusions et discours spécialisés des humanités numériques supposent des publics capables de contextualiser et de comprendre les enjeux d’un débat, les conséquences d’un projet, et les innovations, résistances et perturbations que posent les stratégies de recherche au travail entrepris jusqu’alors. Dans le même temps, pourtant, les chercheurs traditionnels (autrement dit, basés sur l’imprimé) luttent pour saisir les conséquences de ce travail et échouent fréquemment.
11Ces échecs sont susceptibles de prendre deux formes distinctes mais connexes. D’abord, les chercheurs basés sur l’imprimé sont enclins à penser que le bouleversement des médias créé par l’avènement des technologies numériques n’a aucune importance. Dans cette perspective, le texte numérique est lu comme s’il était imprimé, cette hypothèse paraissant trouver une confirmation par le fait qu’un livre se tient à peu près à la même distance des yeux qu’un écran d’ordinateur. Les chercheurs basés sur l’imprimé rédigent, révisent et diffusent par ailleurs des fichiers sous forme numérique sans se soucier outre mesure de la différence entre texte numérique et texte imprimé, et donc ils tendent à ne pas voir de quelle manière le texte numérique, quoique superficiellement semblable au texte imprimé, en diffère profondément dans ses structures internes comme dans les différents protocoles, fonctions et possibilités de communication que lui offrent les machines programmables et en réseau. Le second type d’échec prend la forme d’une résistance, voire d’un rejet catégorique, du travail avec les médias numériques. Plusieurs facteurs interviennent dans ces réponses, depuis l’anxiété que des compétences laborieusement acquises après des années d’effort dans le domaine de l’imprimé deviennent obsolètes, jusqu’à des jugements formés par l’esthétique de l’imprimé, qui contribuent à sous-évaluer ou surévaluer le travail numérique, conduisant à une forme de vision tronquée qui se concentre sur le texte à l’exclusion de tout le reste — graphisme, animation, navigation, etc.
12Devant ces résistances et malentendus, les chercheurs des humanités qui travaillent avec les médias numériques se sentent de plus en plus confrontés à un dilemme très déplaisant : soit ils continuent d’essayer d’expliquer à leurs collègues basés sur l’imprimé la nature et l’importance de leur travail, en menant sans relâche un combat d’arrière-garde aux dépens du développement de leurs propres pratiques, soit ils abandonnent cette entreprise, renoncent à essayer de communiquer de manière un tant soit peu significative et suivent leur propre chemin. Le fossé qui en résulte entre les chercheurs basés sur le numérique et ceux qui sont basés sur l’imprimé est susceptible d’avoir des répercussions importantes des deux côtés. Les chercheurs basés sur l’imprimé se trouveraient de plus en plus marginalisés, incapables de communiquer non seulement avec leurs collègues des humanités numériques, mais aussi avec les chercheurs en sciences et en sciences sociales, qui utilisent régulièrement les médias numériques et ont acquis une large gamme de compétences en la matière. Les humanités numériques se couperaient des riches ressources des traditions de l’imprimé, abandonnant des millénaires de pensée, d’expression et de pratique qui ne leur paraissent plus pertinents.
13Il doit y avoir de meilleures solutions. Ce qu’il faut trouver, ce sont des approches capables d’inscrire les traditions de l’imprimé dans les médias numériques, sans obscurcir leurs différences ou échouer à en rendre compte. C’est une approche de cette nature que nous préconisons ici : elle est connue sous le nom d’études de médias comparés8. En tant que concept, les études de médias comparés existent depuis longtemps dans les humanités, si l’on pense aux comparaisons entre les cultures du manuscrit et de l’imprimé, entre les cultures orales et écrites, entre le papyrus et le papier vélin, entre les caractères d’imprimerie immobiles et mobiles, entre les impressions typographique et offset, etc. Ces domaines ont tendu à exister à la marge de la culture littéraire, intéressant les spécialistes mais (à d’importantes exceptions près) s’étendant rarement aux humanités dans leur ensemble. Elles ont d’ailleurs occupé des niches séparées, sans les cadres conceptuels et théoriques généraux qui auraient permis aux études de médias comparés d’évoluer.
14Dans le passage décisif des médias de l’imprimé aux médias numériques qui se produit actuellement au sein des humanités, les études de médias comparés ouvrent une perspective dans laquelle les intérêts des chercheurs en humanités sont susceptibles de se rassembler pour explorer les synergies entre ces deux types de médias, en faisant apparaître en même temps d’autres aspects des études de médias comparés, tels que la transition de la culture du manuscrit à celle de l’imprimé, qui ont été jusqu’ici relégués à des branches spécialisées. Tirant parti d’un travail important en études textuelles et bibliologiques, elles soulignent l’importance de la matérialité des médias. Élargissant leur portée au-delà de l’imprimé, elles fournissent un cadre unificateur à partir duquel des programmes d’études peuvent être conçus de manière systématique pour initier les étudiants aux régimes des médias, faisant ressortir les différents types de pratiques de lecture, de compétences de lecture et de communautés qui ont prédominé à différentes époques de l’histoire des médias.
15On compte parmi les exemples d’études de médias comparés les travaux qui allient des productions littéraires imprimées et numériques (comme ceux de Matthew Kirschenbaum, qui a forgé les concepts de matérialité formelle et légale9 ), qui portent sur la poésie expérimentale (Loss Glazier10), sur les lettres et les bits (John Cayley11), ou sur les œuvres qui prennent des formes à la fois imprimées et numériques (Stephanie Strickland12). D’autres approches théoriques allient la philosophie continentale et le contenu des nouveaux médias, comme celle de Mark Hansen dans New Philosophy for New Media13.
16D’autres exemples encore proviennent de la collection « Platform Series » du MIT, codirigée par Nick Montfort et Ian Bogost14, qui s’efforce de repérer des effets spécifiques dans les potentialités et contraintes de plates-formes de médias telles que le système de jeu vidéo Atari 5600, dans lesquelles les techniques de « lecture rapprochée » (close reading, correspondant plus ou moins à l’exercice de l’explication de texte) sont appliquées au code et à l’affichage vidéo plutôt qu’au texte. On trouve aussi dans cet ensemble les études critiques du code, initiées entre autres par Wendy Hui Kyong Chun15 et Mark Marino16, qui portent un regard critique sur la rhétorique, la forme et les procédures du logiciel. Les travaux de Ian Bogost17 sur la rhétorique procédurale, qui allient les approches et vocabulaires rhétoriques traditionnels et les fonctionnalités du logiciel, relèvent aussi de cette veine. L’initiative récente de Lev Manovich18, entreprise avec Jeremy Douglas, d’une « analytique culturelle », applique l’analyse statistique et les structures des bases de données à de grands ensembles de données portant sur des documents imprimés visuels, tels que les couvertures du magazine Time publiées entre 1923 et 1989 ou un million de pages de manga (abordés dans le chapitre 3). Aussi divers que soient ces projets, ils partagent l’hypothèse que les techniques, connaissances et théories développées dans les traditions de l’imprimé peuvent entrer en synergie avec des productions numériques pour produire et catalyser de nouveaux types de connaissance.
17En ce qui concerne la pédagogie, les études de médias comparés supposent une conception des cours qui s’efforce de casser la transparence de l’imprimé et de le dénaturaliser en le comparant à d’autres formes de médias. Alan Liu19, de l’université de Californie à Santa Barbara, a imaginé ainsi une série de cours qu’il appelle « Littérature + » (discutée dans le chapitre 3), qui allie la lecture rapprochée de textes imprimés à des comparaisons avec d’autres formes de médias. Un autre exemple est le séminaire proposé à l’université Yale par la médiéviste Jessica Brantley et la spécialiste de littérature contemporaine Jessica Pressman, qui compare la transition du manuscrit à l’imprimé à celle de l’imprimé au numérique. D’autres approches sont susceptibles de mettre l’accent sur les compétences de lecture multiples en intégrant l’imprimé mais en attachant aussi de l’importance à l’écriture sur Internet, à la conception de jeux vidéo, à la création de simulations de situations sociales ainsi qu’à diverses autres modalités des médias. Mes collègues de l’université Duke, en particulier Cathy Davidson, Nicholas Gessler, Mark Hansen, Timothy Lenoir et Victoria Szabo, créent des cours et des projets de recherche qui suivent ces nouvelles pistes d’investigation interdisciplinaires. En extrapolant à partir de ces expériences, les études de médias comparés sont susceptibles de servir de cadre à des cours qui permettent aux étudiants d’acquérir un large répertoire de stratégies pour aborder des problèmes complexes. Confrontés à un type de problème particulier, ils ne seraient pas restreints à une modalité de réponse unique mais pourraient réfléchir de façon créative aux ressources, démarches et stratégies que ce problème requiert et choisir celle qui paraît la plus prometteuse, voire une combinaison appropriée de deux ou plus d’entre elles, en fonction du contexte.
18Une telle organisation des études se situe à des années-lumière de l’offre d’un département d’anglais traditionnel, qui se concentre habituellement sur des périodes (la prose du xviiie siècle), des aires nationales (britannique, américain, anglophone) ou des genres (fiction, prose, théâtre). Les difficultés que soulèvent ces approches ne viennent pas seulement du fait qu’elles sont dépassées et incapables de rendre compte d’une grande partie des enjeux du savoir contemporain (postcolonial studies, études de la mondialisation, études de genre, etc.). Ces approches ont aussi le tort de se concentrer sur le contenu plutôt que sur les problèmes, en supposant que les étudiants parviendront en quelque sorte à franchir d’eux-mêmes le pas entre les exercices en classe et les complexités du monde réel. Certes, tous les exercices intellectuels ne peuvent pas être formulés comme des problèmes. Les humanités se sont spécialisées dans un enseignement qui vise à donner aux étudiants un sens de la spécificité et de la complexité de notre patrimoine intellectuel, intégrant des œuvres philosophiques et littéraires majeures avec les structures complexes de recherches théoriques sur le langage, la société et la psyché humaine. Il doit néanmoins y avoir une place pour une approche axée sur la résolution de problèmes dans les humanités comme dans les sciences et les sciences sociales. Les études de médias comparés sont adaptées à ce rôle et peuvent l’aborder à travers le cadre des compétences de lecture multiples.
19Le passage d’une orientation sur le contenu à une orientation sur le problème n’est pas sans conséquence. La recherche par projet, qui caractérise le travail dans les humanités numériques, allie la théorie et la pratique dans un effort conjoint de conception et de fabrication. Les projets évoluent d’ailleurs dans des environnements collaboratifs où la recherche et l’enseignement tendent à se confondre, où les équipes regroupent des types de compétences très différentes et où les espaces eux-mêmes sont généralement aménagés de manière fluide en intégrant classe, laboratoire et atelier. Les défis posés par la production compliquent et étendent les défis traditionnellement associés à la qualité de la lecture et de l’écriture, en ajoutant différentes dimensions qui ont trait à l’utilisation de logiciels, d’outils et d’analyses statistiques, de conception de bases de données et d’autres modalités inhérentes au travail avec des médias numériques. Sans abandonner les compétences de lecture des documents imprimés, les études de médias comparés les enrichissent en les comparant avec d’autres médias, de telle manière que l’imprimé n’est plus le mode par défaut, qui s’impose sans que l’on réfléchisse aux alternatives, mais plutôt un choix informé, fait dans une pleine conscience de ses possibilités comme de ses limites. Les cours d’études de médias comparés ainsi conçus exerceraient un fort attrait non seulement dans les humanités mais aussi dans les sciences sociales et dans quelques-unes des sciences « dures ». Ces cours offriraient une préparation essentielle aux étudiants entrant dans les environnements caractérisés par l’intensité en information et l’abondance de médias, environnements dans lesquels ils traceront leur carrière et vivront leur vie.
20L’adoption de cette perspective exige de repenser les priorités et hypothèses à un tel nombre de niveaux que cela s’apparente davantage à l’épluchage d’un oignon qu’à une prise de décision. À peine croit-on comprendre ce qu’elle implique à un certain niveau que d’autres couches se révèlent, qui présentent de nouveaux défis au chercheur qui a grandi avec l’imprimé, enseigné avec l’imprimé et mené des recherches exclusivement avec des médias imprimés. L’un des principaux objectifs de ce livre est de mettre à jour ces différentes couches, en montrant à travers des études de cas spécifiques ce qu’impliquent les études de médias comparés. Une manière d’avancer à travers ces complexités consiste à retracer l’évolution des humanités numériques, parce qu’elles constituent le site au sein des humanités où les changements sont les plus apparents et, probablement, les plus perturbateurs du statu quo. Comme le montre le chapitre 2, les humanités numériques ne sont pas un domaine monolithique mais plutôt une série de pratiques dynamiques en pleine évolution, caractérisées par des conflits internes, un ensemble émergent de préoccupations théoriques entremêlées à des pratiques diverses, et des solutions contextuelles à des configurations institutionnelles spécifiques.
21Une autre manière d’avancer consiste à recourir au concept de technogenèse, qui explore l’idée d’une coévolution des humains et de la technique. La proposition selon laquelle les humains ont coévolué avec le développement et le transport des outils n’est pas particulièrement controversée chez les paléoanthropologues. La perspective selon laquelle la bipédie a coévolué avec la fabrication et le transport d’outils est, par exemple, largement acceptée. Marcher sur deux jambes a permis de libérer les mains, et la dextérité qui en a résulté vis-à-vis des outils a conféré une telle capacité d’adaptation que le développement de la bipédie a été encore accéléré, dans une spirale ascendante récursive qu’Andy Clark appelle « causalité réciproque continue20 ». Pour adapter cette idée à la période contemporaine, deux modifications sont nécessaires. La première a été proposée à la fin du xixe siècle par James Mark Baldwin21, ce que l’on appelle aujourd’hui l’effet Baldwin. Ce penseur a suggéré que, lorsqu’une mutation génétique se produisait, sa diffusion au sein d’une population s’accélérait quand l’espèce réorganisait son environnement de manière à offrir à la mutation une plus grande capacité d’adaptation. Actualisant Baldwin, des travaux de biologie de l’évolution ont reconnu l’importance des changements épigénétiques — les changements initiés et transmis par l’environnement plutôt que par le code génétique. Cela permet une seconde modification, l’idée que les changements épigénétiques de la biologie humaine peuvent être accélérés par des changements dans l’environnement qui les rendent encore plus susceptibles de s’adapter, ce qui conduit à d’autres changements épigénétiques. Parce que la dynamique implique un lien de causalité qui opère à travers les changements épigénétiques et parce que ces derniers se produisent beaucoup plus vite que les mutations génétiques, l’évolution peut désormais se produire beaucoup plus vite, en particulier dans les environnements qui se transforment rapidement, où des facteurs multiples poussent dans des directions semblables. Des travaux récents de neurophysiologie, de neurologie et de sciences cognitives ont donné du crédit à cette hypothèse en montrant que le cerveau, système nerveux central, et les systèmes nerveux périphériques étaient dotés d’un haut degré de plasticité neuronale. Même si elle est supérieure chez les nourrissons, les enfants et les jeunes, la plasticité neuronale existe aussi dans une certaine mesure à l’âge adulte et même à un âge avancé.
22À mesure que les médias numériques, y compris les ordinateurs de bureau programmables et en réseau, les appareils portables et autres médias informatiques intégrés à l’environnement, se généralisent, ils nous poussent à une communication accélérée, des flux d’information plus intenses et variés, une plus grande intégration entre machines intelligentes et humains, et de plus grandes interactions entre langues humaines et codes informatiques. Ces modifications environnementales ont des conséquences neurologiques importantes, dont beaucoup deviennent évidentes chez les jeunes ainsi que, à un degré moindre, chez quasiment tous ceux qui interagissent régulièrement avec sdes médias numériques.
23Les changements épigénétiques associés aux technologies numériques seront examinés dans le chapitre 3 à travers les sujets interdépendants de la lecture et de l’attention. L’apprentissage de la lecture de textes complexes (autrement dit la « lecture rapprochée ») a été considéré pendant longtemps comme le domaine privilégié des humanités, et les chercheurs des humanités se targuent de leurs compétences à pratiquer et à enseigner la lecture aux étudiants. Avec l’arrivée des médias numériques, d’autres modes de lecture revendiquent une part croissante de ce que l’on est en droit de considérer comme des « compétences de lecture », et notamment l’hyperlecture et l’analyse par des algorithmes (« lecture machinique »). On a aussi montré que l’hyperlecture, souvent associée à la lecture sur Internet, provoquait des changements cognitifs et morphologiques dans le cerveau. Les jeunes sont en pointe de ces changements, mais, à ce jour, les stratégies pédagogiques n’ont dans l’ensemble pas été façonnées pour en profiter. Les étudiants lisent et écrivent des textes imprimés en classe, et consomment et créent des textes numériques de leur côté sur des écrans (avec des ordinateurs, iPhones, tablettes, etc.), mais il y a peu de transfert entre activités de loisir et enseignement en classe ou vice-versa. Une perspective d’études de médias comparés est susceptible de favoriser des cours et des programmes d’études qui reconnaissent chacune des trois modalités de lecture — lecture rapprochée, hyperlecture et lecture machinique — et qui préparent les étudiants à comprendre les possibilités et limites de chacune.
24Fred Brooks, informaticien à l’université de Caroline du Nord et auteur du best-seller Le Mythe du mois-homme. Essais sur le génie logiciel22(titre qui fait allusion à l’hypothèse biaisée selon laquelle un accroissement de main-d’œuvre se traduit inévitablement par une accélération du progrès) donne de bons conseils pour la fabrication d’une approche des études de médias comparés dans The Design of Design. Essays from a Computer Scientist23. Dans une interview accordée au magazine Wired, il observe que « l’essentiel, dans le processus de conception, est d’identifier votre ressource la plus rare. Contrairement à ce que vous pourriez penser, il s’agit souvent d’autre chose que de l’argent. Par exemple, dans un plan de la lune tourné par la NASA, l’argent abonde mais la luminosité est rare ; le moindre poids exige une tonne de matériel en-dessous. Dans la conception d’une maison de vacances au bord de la plage, la limite peut être le métrage dont vous disposez sur le front de mer. Vous devez vous assurer que, dans votre équipe, tout le monde comprend quelle est la ressource rare que vous essayez d’optimiser24 ». La réponse apportée à la question de la « ressource rare » dans les sociétés des pays développés semble claire : le déferlement de l’information a créé une situation dans laquelle l’attention humaine constitue le facteur limité. Il y a trop de choses à suivre et trop peu de temps pour le faire. (La situation est bien sûr très différente dans les pays en développement, où l’argent peut en effet constituer la ressource rare.)
25L’hyperlecture, qui regroupe l’écrémage, le repérage, la fragmentation et la juxtaposition de textes, constitue une réponse stratégique à un environnement à forte intensité en information, visant à préserver l’attention en identifiant rapidement l’information pertinente, de telle sorte qu’on ne lit qu’un nombre relativement peu élevé de parties d’un texte. L’hyperlecture correspond, selon moi, à l’hyper-attention, un mode de cognition qui tolère très mal l’ennui, alterne avec souplesse entre différents flux d’information et préfère un haut degré de stimulation. La lecture rapprochée correspond en revanche à la deep attention (l’attention profonde ou soutenue), c’est-à-dire au modèle cognitif, traditionnellement associé aux humanités, qui préfère un flux d’information unique, se concentre sur un objet culturel unique pour une période relativement longue et a une grande tolérance à l’ennui. Ces corrélations invitent à concevoir des stratégies pédagogiques qui reconnaissent les forces et les limites de chaque mode de cognition ; elles soulignent par conséquent la nécessité d’établir des passerelles entre les uns et les autres. Le chapitre 3, où ces questions sont abordées, commence à tisser le fil de l’attention/distraction qui traverse tout le livre. Si nous envisageons l’enseignement et la recherche dans les humanités comme des problèmes de conception (si l’on passe, autrement dit, de l’orientation sur le contenu à l’orientation sur le problème), alors le conseil de Brooks laisse penser que si l’on souhaite que différentes équipes réalisent ensemble des projets et des programmes d’études à partir des médias numériques, il est essentiel que leurs membres reconnaissent l’importance de l’attention humaine comme un facteur limitant et habilitant, en tant à la fois que méthode de conception et cadre conceptuel pour le travail théorique. Dans un contexte universitaire, évidemment, la question n’est pas aussi simple que l’optimisation, parce que les objectifs pédagogiques et les projets de recherche sont susceptibles d’être orientés davantage vers la perturbation et la subversion que vers la reproduction. À cette réserve près, l’attention en tant qu’objet d’enquête ouvre sur un ensemble de questions urgentes et complexes, notamment le rapport entre les cognitions humaine et artificielle et les cycles de changements épigénétiques catalysés par notre exposition croissante aux médias numériques et par notre implication avec eux.
26Pour développer le concept de technogenèse et examiner la capacité d’une plate-forme technologique à initier des changements de grande envergure dans la société, le chapitre 5 entreprend une étude de cas du premier système de signalisation binaire généralisé à l’échelle mondiale, le télégraphe. L’accent portera sur les codes télégraphiques, soit des dictionnaires imprimés qui offraient « économie, secret et simplicité » à leurs utilisateurs en associant des syntagmes en langage naturel à des mots de code. Affectant la société au sens large à travers les changements que catalysait la télégraphie, les codes télégraphiques démontrent que le changement des rapports entre langage et code, entre pratiques corporelles et régimes technocratiques, et entre messages et imaginaires culturels a créé des boucles de rétroaction techno-génétiques qui, durant un siècle, ont contribué de façon significative à réorganiser les conditions de la vie quotidienne. En ce sens, la télégraphie a anticipé les changements épigénétiques associés aux technologies numériques, particulièrement la communication rapide et la virtualisation des marchandises.
27Quand les chercheurs des humanités se tournent vers les médias numériques, ils s’affrontent à des technologies qui opèrent sur des échelles de temps considérablement différentes et selon des modes de cognition qui diffèrent eux aussi considérablement de ceux de l’intelligence humaine. Saisir la manière complexe dont les échelles de temps de la cognition humaine interagissent avec celles des machines intelligentes exige un cadre théorique dans lequel les objets sont vus non pas comme des entités statiques qui, une fois créées, restent identiques au cours du temps, mais comme des assemblages en changement constant qui, du fait d’un fonctionnement irrégulier et inefficace, peuvent être conduits à la panne, à la perturbation, à l’innovation et au changement. Dans cette perspective, les objets s’apparentent davantage à des individus techniques impliqués dans des réseaux de relations sociales, économiques et technologiques, dont certains sont humains et d’autres non-humains. Gilbert Simondon, Adrian Mackenzie, Bruno Latour ou Matthew Fuller comptent parmi ceux qui ont théorisé les objets techniques en ce sens. En m’appuyant sur leurs travaux, j’émets des hypothèses, dans le chapitre 4, sur les interactions multi-niveaux et multi-agents qui se produisent à travers les échelles de temps radicalement différentes dans lesquelles les cognitions humaine et artificielle s’imbriquent : du côté humain, les échelles de temps très courtes des connexions synaptiques s’articulent avec celles, relativement longues, exigées pour la « compréhension narrative » ; du côté de la machine, le traitement très rapide au niveau des portes logiques et de la lecture des bits s’articule avec le temps de chargement relativement long des programmes complexes. Manifestement, l’imbrication de ces deux types de temporalités complexes ne se produit pas en une seule fois (ni en un seul endroit) mais évolue plutôt selon un rythme syncopé complexe, entre perceptions conscientes et inconscientes pour les humains, et comme intégration de représentations de surfaces et de procédures algorithmiques pour les machines. Les interactions se produisent de manière dynamique et en continu, des boucles de rétroaction et d’anticipation reliant différents niveaux les uns avec les autres et raccordant les traitements des machines aux réactions humaines.
28Au niveau de la pensée consciente, l’attention intervient comme une action de focalisation qui co-détermine ce que nous appelons la matérialité. Autrement dit, l’attention sélectionne dans le répertoire vaste (et essentiellement infini) des attributs physiques quelques caractéristiques, et, en retour, ces caractéristiques constituent la matérialité d’un objet. La matérialité, comme l’objet lui-même, n’est pas une entité déjà donnée mais plutôt un processus dynamique qui se modifie à mesure que le centre d’attention se déplace. Les perceptions ont une existence inconsciente aussi bien que consciente, et la recherche qui émerge de la psychologie, de la neurologie contemporaines et d’autres domaines à propos du « nouvel inconscient » (ou « inconscient adaptatif ») joue un rôle essentiel dans la compréhension de ce phénomène. De ce point de vue, l’inconscient n’existe pas principalement en tant que matériau refoulé ou réprimé, mais en tant que capacité de perception qui attire un abondant trop-plein, trop varié et trop riche pour passer à travers le goulet d’étranglement de l’attention. L’attention, en tant qu’elle constitue la ressource rare, limitante, dirige la prise en compte consciente, mais elle est loin de constituer l’intégralité de l’activité cognitive, et ne représente en réalité qu’un petit pourcentage de la cognition dans son ensemble. La prise de conscience que la plasticité neuronale se produit à différents niveaux, y compris celui des perceptions inconscientes, fait de la technogenèse un lieu puissant pour intervenir de manière constructive dans les humanités, au moment où celles-ci se tournent de plus en plus vers les technologies numériques. Les études de médias comparés, parce qu’elles comparent des médias qu’elles replacent dans leur contexte, fournissent des cadres théoriques, conceptuels et pratiques pour évaluer de manière critique les modifications techno-génétiques et pour élaborer des stratégies permettant de les guider d’une manière socialement constructive.
29Le temps est profondément impliqué dans les productions de médias numériques mais il en va de même de l’espace. Les technologies du SIG (système d’information géographique) et du GPS (Global Positioning System / système de localisation mondial), et leur connexion à des machines en réseau et programmables, ont créé une culture de l’investigation spatiale dans les médias numériques. Depuis La Production de l’espace de Henri Lefebvre25, au moins, les géographes contemporains ont envisagé l’espace en termes non pas statiques, cartésiens (que Lefebvre appelle l’espace représenté ou conçu), mais en tant qu’il est produit par des réseaux d’interactions sociales. Comme l’affirme Lefebvre, les pratiques (sociales) produisent les espaces (sociaux). Doreen Massey26 se détache, parmi les géographes contemporains, par la profondeur de sa recherche et l’intelligence de son plaidoyer pour une approche relationnelle des espaces sociaux, une temporalité ouverte et un refus de l’espace représenté comme une grille cartésienne. Pour les projets d’histoire spatiale, cependant, le « géoréférencement » des bases de données relationnelles à l’« espace absolu » des pouces, des miles et des kilomètres s’est avéré indispensable et en réalité désirable, parce qu’il permet l’interopérabilité avec les groupes de données et bases de données des autres chercheurs. Les tensions entre le « rêve » de Massey (ainsi que nous qualifions son projet dans le chapitre 6) et les projets d’histoire spatiale tels que ceux qu’entreprend le Stanford Spatial History Project montrent les limites autant que la force théorique de l’approche de Massey.
30L’intégration de bases de données dans les projets d’histoire spatiale a ouvert la porte à de nouvelles stratégies qui, au lieu d’utiliser le récit comme mode principal d’explication, permettent des superpositions et des interactions souples entre les différentes couches. En conséquence, les explications passent de la représentation selon des chaînes linéaires de cause à effet à des interactions plus complexes, à la fois dans des réseaux situés dans l’espace et le temps et entre ces réseaux. Les projets historiques sont passés en outre de bases de données relationnelles, dans lesquelles les éléments de données sont coordonnés par des clés partagées (autrement dit, des éléments de données communs), à des bases de données « orientées-objet », dans lesquelles les classes possèdent des attributs héritables et des potentiels d’agrégation. Comme l’explique Michael Goodchild27, l’ancien modèle, relationnel, suppose une métaphore du SIG comme réceptacle de cartes. On construit une carte en fusionnant différents éléments de données dans une couche commune. Cette stratégie fonctionne bien pour certains types d’explication, mais elle a l’inconvénient de stocker les données dans des bases de données multiples et de créer des représentations de l’espace qui ont des difficultés à montrer son changement au cours du temps. Les bases de données orientées-objet, plus récentes, impliquent en revanche une métaphore des objets existant dans le monde, capables d’engendrer une descendance avec des attributs hérités, de se fondre avec d’autres objets et de s’agréger pour constituer des groupes. Il devient donc possible de représenter leurs mouvements au cours du temps, en faisant du temps une propriété intrinsèque plutôt qu’un élément ajouté à la fin en marquant les couches avec des indicateurs chronologiques.
31Tandis que les projets historiques ou orientés vers l’histoire trouvent une nouvelle manière de construire et de représenter l’espace social, la littérature expérimentale joue avec la construction d’espaces imaginaires. Le chapitre 7 explore le système littéraire décentralisé de Steven Hall qui a pour principal composant le roman imprimé Et dormir dans l’oubli comme un requin dans l’onde.28. En décrivant une subjectivité post-humaine qui s’est transformée en une énorme base de données en ligne, capable d’évacuer les subjectivités individuelles et de les transformer en « corps nodulaires », le texte met en œuvre une critique de ce qu’Alan Liu a analysé comme le travail de la connaissance caractéristique des sociétés postindustrielles29. Dans le texte imprimé, la distance entre signifiant et signifié s’effondre, de telle sorte que les lettres forment non seulement des mots mais aussi des objets et des êtres vivants. Dans le « non-espace » des tunnels abandonnés, entrepôts et caves, l’histoire suit un amnésique, Eric Sanderson, parti à la recherche de ses souvenirs, tandis qu’un « requin conceptuel », le ludovicien, le pourchasse en repérant les pensées, perceptions et souvenirs qu’il émet. Alors que l’espace social est construit par les pratiques sociales, le « non-espace » est construit par les mots ; ces mêmes mots ont une signification et fonctionnent comme des objets matériels. La matérialité du langage trouve ici une interprétation littérale, et l’assemblage des espaces imaginaires et physiques qui en résulte crée un univers alternatif qui est à la fois désigné et cartographié par le langage. Suprêmement conscient de lui-même en tant que production imprimée, ce livre explore les plaisirs linguistiques et les séductions dangereuses des fictions immersives, tout en explorant dans le même temps les possibilités de trouver des prolongements dans des productions transmédia, sur des sites Internet, dans des traductions en différentes langues et dans différents lieux physiques.
32Avec l’arrivée des bases de données numériques et avec l’évolution vers de nouveaux types d’explication et de nouveaux modes de représentation des données d’un certain nombre de domaines qui reposaient traditionnellement sur le récit, tels que l’histoire qualitative, la littérature narrative a élaboré ses propres réponses aux environnements à forte intensité en information. Comme l’a noté Lev Manovich, le récit et la base de données ont des forces et des limites complémentaires30. Le récit excelle dans la construction de relations causales, l’exploitation de temporalités complexes et la création de modèles permettant de rendre compte du fonctionnement des (autres) esprits. Les bases de données se spécialisent en revanche dans l’organisation des données en différents types et dans le fait d’activer la concaténation souple d’éléments de données. À une époque où les bases de données constituent peut-être la forme culturelle dominante, il n’est pas surprenant que, d’un côté, les écrivains leur résistent, comme le fait Et dormir dans l’oubli comme un requin dans l’onde31, et que, de l’autre, ils expérimentent des manières de les combiner avec le récit dans de nouvelles formes de littérature, comme le fait Ô Révolutions, de Mark Z. Danielewski32. Pour partie poème épique et pour partie base de données chronologique d’événements historiques, Ô Révolutions repousse les limites de ce que l’on est en droit de tenir pour un « roman ».
33L’une des manières dont fonctionne Ô Révolutions, abordée dans le chapitre 8, réside dans l’application d’un grand éventail de contraintes, reflétant à cet égard les formes structurées des bases de données relationnelles et des interrogations adressées à ces bases de données. Tandis que les bases de données relationnelles autorisent des manières multiples de concaténer les éléments de données, l’esthétique spatiale de Ô Révolutions crée des manières multiples de lire chaque page et double page, en les divisant en zones nettement délimitées, autorisant des corrélations croisées. En outre, une contrainte invisible régit le discours du texte tout entier : le roman précédent de Danielewski, La Maison des feuilles33, qui fonctionne en miroir inversé de Ô Révolutions. Tout ce sur quoi insistait La Maison des feuilles est interdit d’apparition dans Ô Révolutions, de telle manière que ce qui ne peut être parlé ou ce qui ne peut être écrit devient une force puissante qui détermine ce qui s’écrit ou se parle. En ce sens, Ô Révolutions postule un Autre pour soi-même qui suggère deux réponses à l’explosion de l’information : un roman qui essaie d’incorporer toutes les sortes de discours, de systèmes de signes et d’information, au point de se trouver engorgé dans une graphomanie frénétique (La Maison des feuilles) ; et un roman qui opère à travers des contraintes rigoureuses, comme s’il maintenait à distance le déluge d’information avec une série de barrages et de digues minutieusement construits (Ô Révolutions). Dans le premier cas, l’attention est mise à l’épreuve à l’extrême par des stratégies d’écriture qui remplissent et encombrent les pages ; dans le second cas, l’attention est répartie entre différentes modalités textuelles, chacune interagissant avec ce qui est possible dans les autres, tout en lui imposant ses contraintes.
34Je propose, pour conclure, quelques réflexions sur le titre du livre et sur le livre lui-même en tant qu’intervention techno-génétique. Le « nous » de Comment nous pensons recouvre différents sens, mais s’attache en particulier aux différences et recoupements entre les perspectives des chercheurs qui s’appuient sur l’imprimé et ceux qui s’appuient sur le numérique dans les humanités et les sciences sociales qualitatives. Le verbe « penser » — dont le moins que l’on puisse dire est qu’il est chargé de sens — implique dans ce contexte les perceptions conscientes et inconscientes, mais aussi les cognitions humaine et artificielle. Les objets ont leurs incarnations (leur embodiment, leur corporéité), comme les humains, et leurs incarnations importent, non moins que celles des humains. Quand les objets acquièrent des capteurs et actionneurs, il n’est pas exagéré de dire qu’ils ont un Umwelt (un milieu vital), dans la mesure où ils perçoivent le monde, tirent des conclusions sur la base de leurs perceptions et agissent sur ces perceptions34. Tout cela se passe, bien sûr, sans la conscience, de telle manière que leurs modes d’être au monde soulèvent de vives questions sur le rôle de la conscience dans la cognition étendue (ou « externe ») et incarnée. Le livre défend la position selon laquelle toute cognition est incarnée (embodied), ce qui veut dire, pour les humains, qu’elle existe dans tout le corps et pas seulement dans le néocortex. Elle s’étend d’ailleurs au-delà des frontières du corps, au point de remettre en question notre capacité à dire où les réseaux cognitifs se terminent, ni même s’ils se terminent vraiment.
35Défendant la technogenèse comme un site d’interventions constructives, ce livre s’applique lui-même à mettre en œuvre les trois stratégies de lecture abordées dans le chapitre 3 — lecture rapprochée, hyperlecture et lecture machinique. Les textes littéraires que nous abordons ici fournissent une occasion de lecture rapprochée. Dans la mesure où ils sont profondément influencés par les technologies numériques, ils s’inscrivent dans les contextes à forte intensité en information qui exigent l’hyperlecture. Cette même hyperlecture a d’ailleurs fourni le vaste éventail de références utilisé dans ce livre, en conjonction avec la lecture rapprochée. Enfin, l’épilogue du chapitre 8, écrit en collaboration avec Allen Riddell, présente les résultats de notre lecture machinique de Ô Révolutions. Alliant les trois types de lecture avec un accent particulier sur la technogenèse, le livre entend servir de principe de validation des études de médias comparés, non seulement par ses arguments mais aussi par ses méthodologies et stratégies interprétatives.
36Un très grand nombre d’études abordant les changements psychologiques, politiques, sociaux et économiques ont reconnu et attesté les transformations considérables qui sont allées de pair avec les technologies numériques. Ce sont pourtant les gens qui poussent à ces changements en prenant des décisions innombrables quant à la manière d’utiliser les technologies. Cette leçon était claire au tout début d’Internet, quand les utilisateurs s’emparaient de son potentiel de communication et particulièrement des navigateurs Web, très pratiques à la fois pour s’exprimer et pour afficher les résultats. Tous les développements importants qui sont intervenus depuis ont rencontré du succès non pas (ou pas seulement) à cause de leur potentiel technologique en tant que tel mais parce que les utilisateurs ont trouvé des moyens de les employer pour poursuivre leurs propres buts et intérêts. Le hacktivisme, le mouvement open source, les listes de diffusion, le partage de fichiers musicaux et vidéo, les réseaux sociaux, les « jeux engagés » et autres pratiques des médias numériques sont axés sur les utilisateurs et souvent définis par les utilisateurs ; ce sont des forces puissantes dans la transformation des technologies numériques pour qu’elles deviennent plus sensibles aux inégalités culturelles et sociales, plus sensibles aux réseaux d’interconnexions entre les gens, comme entre les gens et les objets, plus résistantes aux pratiques capitalistes prédatrices. Dans cette perspective, les médias numériques et la technogenèse contemporaine constituent un « système complexe adaptatif », les technologies se transformant en permanence et entraînant une transformation de la vie de tous ceux qui sont impliqués avec elles.
37Nous nous trouvons aujourd’hui à une époque où les intérêts des individus sont en interaction dynamique avec les droits acquis des grandes entreprises, travaillant parfois ensemble à créer des situations mutuellement bénéfiques, mais entrant parfois en vif conflit quant à savoir lesquels de ces intérêts l’emporteront. La technogenèse contemporaine autorise les deux possibilités, ainsi que tout le spectre des résultats intermédiaires ; en tant que telle, l’expression « technogenèse » ne précise pas le sens ou la valeur que les changements sont susceptibles de prendre pour les humains, en bien ou en mal. Le livre prend cette ambiguïté pour objet central, dans la mesure où il essaie d’intervenir, en tenant compte des spécificités locales, dans les bouleversements médiatiques en cours, en montrant comment les médias numériques peuvent être utilisés de manière fructueuse pour réorienter et redynamiser le questionnement humaniste. Les gens — et non les technologies en elles-mêmes — décideront, par l’action et l’inaction, du succès d’une intervention comme celle-ci. En ce sens, le titre du livre est une question ouverte autant qu’une affirmation ou une revendication.
Notes de bas de page
1 Je ne veux pas dire pour autant que les livres sont obsolètes. L’art, la culture et l’expérimentation du livre connaissent au contraire un élan d’intérêt et d’innovation. Je cherche à dire plutôt que l’imprimerie n’est plus le médium par défaut de la communication. Je suis convaincue qu’il y a une forte relation de cause à effet entre l’accès à la visibilité en tant que médium et le fort intérêt qu’on lui consacre en tant que forme esthétique et artistique.
2 Pour un large éventail de points de vue sur la question « Internet transforme-t-il notre manière de penser ? », voir J. Brockman (dir.), Is the Internet Changing the Way You Think? The Net’s Impact on Our Minds and Future, New York, Harper, 2011.
3 N. Carr, Internet rend-il bête ? Réapprendre à lire et à penser dans un monde fragmenté, Paris, R. Laffont, 2011.
4 A. Clark, Natural-Born Cyborgs: Minds, Technologies, and the Future of Human Intelligence, Londres, Oxford University Press, 2004.
5 D. P. Hamilton, « Publishing by – and for? – The Numbers », Science, vol. 250, no 4986, 7 décembre 1990, p. 1331-1332 et « Research Papers: Who’s Uncited Now? », Science, vol. 251, no 4989, 4 janvier 1991, p. 25.
6 D. Pendlebury, « Letter to the editor », Science, vol. 251, no 5000, 22 mars 1991, p. 1410-1411.
7 G. Hall, Digitize This Book! The Politics of New Media, or Why We Need Open Access Now, Minneapolis, University of Minnesota Press, 2008.p. 70.
8 Jessica Pressman et moi-même sommes en train de composer un ouvrage de référence destiné à rendre compte de la gamme et du potentiel des études de médias comparés, comprenant des articles de chercheurs remarquables qui parcourent le spectre entier des formes de médias, des rouleaux de papyrus aux jeux vidéo : N. K. Hayles et J. Pressman (dir.), Comparative Textual Media: Transforming the Humanities in the Postrprint Era, Minneapolis, University of Minnesota Press, 2013, 331 p.
9 M. G. Kirschenbaum, « How Reading Is Being Reimagined », Chronicle of Higher Education, vol. 54, no 15, 7 décembre 2007, p. B20.
10 L. Glazier, Dig[iT]al Poet(I)cs: The Making of E-Poetry. Tuscaloosa, University of Alabama Press, 2008.
11 J. Cayley, « The Code is Not the Text (Unless It Is the Text) », Electronic Book Review, 10 septembre 2002, <http://www.electronicbookreview.com/thread/electropoetics/literal> et « Literal Art: Neither Lines nor Pixels but Letters », dans N. Wardrip-Fruin et P. Harrigan (dirs), First Person: New Media as Story, Performance, and Game, Cambridge, MA, MIT Press, 2004, p. 208-217.
12 S. Strickland, V: WaveSon.nets / Losing L’una, New York, Penguin, 2002 et, avec C. Lawson, V: Vniverse, 2002, http://vniverse.com.
13 M. B. N. Hansen, New Philosophy for New Media, Cambridge, MA, MIT Press, 2006.
14 N. Montfort et I. Bogost. Racing the Beam: The Atari Computer System, Cambridge, MA, MIT Press, 2009.
15 W. H. K. Chun, Control and Freedom: Power and Paranoia in the Age of Fiber Optics, Cambridge, MA, MIT Press, 2008 et Programmed Visions: Software and Memory, Cambridge, MA, MIT Press, 2011.
16 M. Marino « Critical Code Studies », Electronic Book Review, 4 décembre 2006, <http://www.electronicbookreview.com/thread/electropoetics/codologn>.
17 I. Bogost, Persuasive Games: The Expressive Power of Video Games, Cambridge, MA, MIT Press, 2007.
18 L. Manovich, Le Langage des nouveaux médias, Dijon, Les Presses du réel, 2010.
19 A. Liu, « Re-Doing Literary Interpretation: A Pedagogy », Currents in Electronic Literacy, 2008, <http://currents.dwrl.utexas.edu/Spring08/Liu>.
20 A. Clark, Supersizing the Mind: Embodiment, Action, and Cognitive Extension, Londres, Oxford University Press, 2008.
21 J. M. Baldwin, « A New Factor in Evolution », American Naturalist, vol. 30, no 354, juin 1896, p. 441-451.
22 F. P. Brooks, Le Mythe du mois-homme. Essais sur le génie logiciel, Paris, Albany (NY), Bonn, etc., International Thomson publ. France, 1996.
23 F. P. Brooks, The Design of Design: Essays of a Computer Scientist, Reading, MA, Addison-Wesley Professional, 2010.
24 F. P. Brooks, « The Master Planner: Fred Brooks Shows How to Design Anything », entretien avec Kevin Kelly, Wired vol. 18, no 88, 2010, p. 92.
25 H. Lefebvre, La Production de l’espace [1974], Paris, Anthropos, 2000.
26 D. Massey, « A Global Sense of Place », dans Space, Place, and Gender, Minneapolis, University of Minnesota Press, 1994, p. 146-156 ; « Uneven Development: Social Change and Spatial Divisions of Labour », dans Space, Place and Gender, Minneapolis, University of Minnesota Press, 1994, p. 86-114 ; et For Space, Londres, Sage, 2005.
27 M. Goodchild, « Combining Space and Time: New Potential for Temporal GIS », dans A. K. Knowles et A. Hillier, (dir.), Placing History: How Maps, Spatial Data, and GIS Are Changing Historical Scholarship. Redlands, CA, ESRI, 2008, p. 179–198.
28 G. Hall, op. cit.
29 A. Liu, Local Transcendence: Essays on Postmodern Historicism and the Database, Chicago, University of Chicago Press, 2008.
30 L. Manovich, op. cit., p. 403 sq.
31 S. Hall, ibid.
32 M. Z. Danielewski, op. cit.
33 M. Z. Danielewski, La Maison des feuilles, trad. de l’anglais par Claro, Paris, Denoël, 2002.
34 Umwelt renvoie bien sûr à la biosémiotique de Jakob von Uexküll, dont la tique constitue l’exemple le plus célèbre. Si la tique – aveugle, limitée dans ses déplacements et n’ayant qu’un seul but dans l’existence (sucer le sang d’un mammifère) – est susceptible d’avoir un Umwelt, alors il est certain qu’un objet comme Cog, le « robot-tronc » de Rodney Brooks (<http://0-www-ai-mit-edu.catalogue.libraries.london.ac.uk/projects/humanoid-robotics-group/cog/>) l’est aussi. Cog est capable de saccades oculaires, de mouvements de la tête et de la main, et dispose d’une quantité d’autres capteurs et actionneurs. Par rapport à une tique, c’est un génie.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Lire et penser en milieux numériques
Attention, récits, technogenèse
N. Katherine Hayles Christophe Degoutin (trad.)
2016
Des « passeurs » entre science, histoire et littérature
Contribution à l'étude de la construction des savoirs (1750-1840)
Gilles Bertrand et Alain Guyot (dir.)
2011
Technologies de l'enchantement
Pour une histoire multidisciplinaire de l'illusion
Yves Citton et Angela Braito (dir.)
2014