La mécanique de la créativité
p. 21-42
Texte intégral
1Il est essentiel de bien comprendre les mécanismes neuronaux de la créativité. Tout d’abord, il y a naturellement la quête éternelle de nous comprendre nous-mêmes, ce qui, dans le cas de la créativité, est une quête susceptible d’identifier, sans verser dans l’hyperbole, un élément déterminant de notre qualité d’humain. Je pense qu’il est clair pour tout le monde, que lorsqu’il s’agit de la créativité, nous ne sommes pas simplement des chimpanzés un peu plus évolués. Mais cet objectif noble et humaniste se double d’un motif tout aussi important, voire plus pragmatique, pour justifier ce programme de recherche. Grâce à l’identification des principes de base selon lesquels le cerveau humain parvient à être si créatif, les spécialistes du domaine arrivent à construire des machines qui, en principe, font de même, avec des bénéfices potentiellement énormes pour la société. Le 25 janvier 2005 devrait dans ce contexte rester à jamais gravé dans notre mémoire. Ce jour-là, le bureau américain des brevets et des marques commerciales octroya pour la première fois un brevet à une machine. D’après cette institution gouvernementale plutôt conservatrice, un brevet exige, selon leur propre jargon, un « élément non évident », preuve que la machine avait fait la démonstration de sa créativité. Ce qui importe ici n’est pas tant ce que la machine a inventé mais la manière dont elle l’a fait, et, c’est là que le bât blesse, elle y est parvenue par un processus de variation-sélection – connu sous le terme de programmation génétique en Intelligence Artificielle – qui constitue, incidemment, exactement le chemin emprunté par la créativité dans l’espace conceptuel de la vie. Le cerveau humain est bien entendu un produit de l’évolution, qui par essence n’est rien d’autre qu’un algorithme de changement suivant un principe empirique. Au fur et à mesure qu’un processus génère de nouveaux produits, un processus de sélection va conserver les produits qui sont utiles, ce qui correspond exactement à la définition d’un acte créatif universellement accepté par les psychologues – quelque chose de nouveau et d’utile. Ce simple algorithme est à la base de toute chose dans la biosphère. C’est la raison pour laquelle le cerveau, pour être parfaitement clair, ne se limite pas à être un produit de cet algorithme, mais il s’appuie sur celui-ci ; ainsi, notre propre capacité créative est essentiellement un processus algorithmique de variation-sélection et s’inscrit dans le Darwinisme universel. Étant donné que nous paraissons déjà comprendre le principe central et sous-jacent de la production créative, quel est alors le rôle des psychologues et des neuroscientifiques dans cette entreprise ? L’article suggère que le cerveau humain impose un certain nombre de contraintes critiques sur ce processus de variation-sélection (à savoir la capacité limitée des ressources attentionnelles, la capacité de la mémoire de travail, les tendances à la catégorisation, pour ne citer que quelques exemples), ce qui naturellement façonne le cerveau dont nous autres humains sommes dotés. En revenant sur les mécanismes à l’œuvre dans notre cerveau, nous pouvons comprendre la nature de notre créativité. Ce n’est pas strictement nécessaire à la conception de cerveaux artificiels qui sont créatifs mais cela ferait grandement progresser la recherche que de leur faire acquérir le type de créativité que nous pouvons comprendre et dont nous pouvons tirer profit avec le type de cerveau qui nous est donné.
La créativité dans l’espace conceptuel de la vie
2Dans l’espace conceptuel de la biosphère, tous les produits (de la mitochondrie au plan de conception de base de tous les vertébrés) sont le fruit du processus d’évolution par la sélection naturelle. Avant Darwin, les gens ne pouvaient s’imaginer la préséance d’un dessein sans la volonté d’un concepteur. Les biologistes de cette époque avaient besoin d’un crochet céleste, expression forgée par Daniel Dennett (1995) pour désigner un miracle, c’est-à-dire Dieu dans ce cas. L’erreur de base sous-jacente serait de penser ici que seul un gigantesque concept peut en produire un plus petit. Ce raisonnement nous conduit tôt ou tard à nous appuyer sur un crochet céleste, erreur qui nous guette à tout moment lorsque l’on se prend à méditer sur la magnificence et la noblesse de la Vie sur Terre. Selon le grand renversement de raisonnement proposé par Darwin, un gigantesque concept (comme nous par exemple) peut être le résultat d’un processus vide de sens et ne résultant pas d’une planification. Avec le temps, les grues2, selon l’expression de Dennett pour désigner un processus ascendant comme l’évolution, peuvent parfaitement y arriver. La science n’a jamais brillé en recourant à un crochet céleste lorsqu’elle se trouvait dans une impasse. Mais sans ce renversement de raisonnement, on risque fort de se perdre dans un labyrinthe dans lequel la seule porte de sortie est un crochet céleste. Malheureusement, l’explication par les crochets célestes nous laisse plutôt sur notre faim.
3En prévision d’une discussion ultérieure, c’est une leçon instructive que les scientifiques doivent conserver à l’esprit pour étudier le type de créativité du cerveau humain. Nous ne pouvons pas continuer à nous agripper à un crochet céleste dans le domaine de la créativité, que ce soit sous la forme d’une muse qui inspire l’âme ou une sorte d’interrupteur magique dans le cerveau qui par miracle allume l’ampoule proverbiale. Qui plus est, de telles excursions dangereuses au pays de la pensée indolente ont généralement pour but (et c’est bien commode) de recoller les morceaux du puzzle faisant toujours cruellement défaut pour rendre parfaitement compte de la créativité d’un point de vue neuronal et elles masquent ainsi les éléments à expliquer avant toute chose ; c’est exactement ce que l’on attend d’une théorie de la créativité. Voilà un piège bien pernicieux ! Toute extrapolation de la base neuronale de la créativité, outre le fait de laisser de côté notre vision fantaisiste et par trop romantique de l’acte créatif proprement dit, dépend de notre capacité à maîtriser le processus ascendant qui a fait du cerveau humain la machine à invention la plus audacieuse qui ait jamais existé.
4Dépouillée de ses fards, l’évolution est bien entendu un processus qui exige la réunion de trois conditions : (1) réplication : il doit y avoir une unité capable de se recopier ; (2) variation, qui se produit lorsqu’une erreur s’insinue dans le mécanisme de copie ; et (3) sélection, ce qui détermine la bonne santé différentielle des copies variantes. À chaque fois qu’un réplicateur réalise des copies variant d’une à l’autre et qu’un processus de sélection affecte leur capacité de survie différentielle, on se trouve inévitablement en présence d’une évolution. L’évolution est alors un algorithme général de changement (Dennett, 1995) et, par extension, de créativité ! Comme Richard Dawkins (2005) l’a récemment déclaré : « toute l’intelligence, toute la créativité et toute la conception, partout dans l’univers, sont le produit direct ou indirect d’un processus cumulé équivalent à ce que nous appelons ici sélection naturelle Darwinienne ».
La créativité dans l’espace conceptuel de la culture
5Dawkins (1989) a également insisté sur le fait que les principes de l’évolution ne disent absolument rien sur les gènes, la vie ou la sélection naturelle. C’est un algorithme général de changement, ce qui implique que d’autres sortes de processus d’évolution (ne reposant pas sur la mutation génétique et la sélection naturelle) pourraient exister, à condition qu’il y ait quelque chose, n’importe quoi, qui se réplique avec des variations et qui obéisse, d’une manière ou d’une autre, à la pression de sélection. C’est ce que Dawkins appelle le Darwinisme universel.
6L’évolution biologique a toujours été le moteur primordial du changement sur notre planète. Il y a environ 50 000 ans, elle a même créé la culture humaine. Il s’en est suivi une moisson de nouvelles idées et de nouvelles technologies qui allaient radicalement transformer notre style de vie. La puissance de cette explosion culturelle fut telle qu’elle allait tout renverser sur son passage et bouleverser le cours de l’évolution génétique. Pour s’en convaincre, il suffit de regarder les 4 000 dernières années. Dans un flash de l’évolution, nous sommes passés des cavernes à l’ère des gratte-ciels, des télécommunications et du génie génétique. L’évolution biologique, suivant un rythme très lent, beaucoup plus lent que celui de la culture, n’a pas joué de rôle significatif dans ce bouleversement, c’est le moins que l’on puisse dire. Un nouveau type de processus d’évolution, l’évolution culturelle, a pris le relais comme moteur primordial de changement. Avec les livres, les chansons ou les films, les humains sont capables de transmettre et d’accumuler des informations sans passer par la génétique. En d’autres termes, c’est la culture qui évolue par elle-même.
7Dawkins suggére que le principe de base de la théorie de l’évolution (produire d’abord, éprouver ensuite) s’applique à la culture. Il constate avec surprise que les propriétés de nos pensées rappellent celles des gènes. On peut les décrire comme des pans d’information qui se recopient comme des virus dans un processus de variation-sélection en passant d’une personne à l’autre. Dawkins a donné à ces unités de réplication culturelle le nom de « mèmes », mot dérivé de « mimème » qui signifie « ce qui est imité », et abrégé à mème pour le relier phonétiquement à gène. Si des unités de culture se répliquent de la même manière que les molécules d’ADN, nous sommes en présence d’une évolution mémétique et de la survie différentielle de mèmes. Les mèmes sont des unités de transmission culturelle : images, plaisanteries, idées, technologies, chansons, compétences, histoires et ainsi de suite. Tout comme la bonne santé des gènes est le fruit de leur succès, la bonne santé des mèmes est déterminée par la qualité de leur multiplication et de leur diffusion dans une culture. Pour ce faire, les mèmes n’ont pas besoin de manifester une quelconque supériorité intellectuelle ; ils doivent simplement démontrer leur capacité supérieure à se recopier pour s’épanouir. Il suffit de penser par exemple à la rengaine stupide que constituait la chanson des Village People, “YMCA.” Par définition, ce mème est aussi célèbre que le mème de la pesanteur, par exemple. De plus, un « mèmeplex » (Blackmore, 1999) se forme à chaque fois que les mèmes peuvent mieux se propager tous seuls que dans un groupe. Les religions, les théories scientifiques ou la notion de démocratie en sont de parfaits exemples.
8Susan Blackmore (1999) a fait franchir une nouvelle étape au mème en suggérant que toute la culture était le produit du cerveau infesté de mèmes. Elle nous considère comme des « machines à mèmes » dans lesquelles les idées ne font que se renouveler pour repartir. Il en résulte que le langage a évolué pour que les mèmes se répliquent et non les gènes. De même, nous pouvons nous glorifier d’avoir inventé Internet mais une autre façon de voir les choses serait d’avancer qu’Internet est enfanté par les mèmes ; simplement pour créer un mécanisme de copie plus efficace desdits mèmes. L’idée que les mèmes soient des entités réplicantes qui prolifèrent dans le cerveau révolutionne le regard que l’on porte sur la culture et les chemins qu’elle emprunte pour son évolution, mais si l’on épouse la vision de Dawkins ou de Blackmore en matière de mème, on doit inévitablement se demander qui est aux manettes. Selon Dennett (1991, p. 210), ce n’est pas nous dans la mesure où la « conscience humaine est elle-même constituée par un énorme complexe de mèmes ».
9En deux mots, la créativité, au plan culturel, semble essentiellement Darwinienne par nature. Bien que l’unité réplicante ne soit pas l’ADN et que les facteurs de sélection ne soient pas la température, les astéroïdes ou un certain type de prédateur, des pans d’information sont copiés de manière continue avec certaines variations et ce sont les caprices et les tendances de la société qui les valoriseront ou non. La question est alors de savoir si oui ou non nous sommes en présence d’un Darwinisme universel au niveau de l’individu.
La créativité dans l’espace conceptuel de l’individu
10Il se trouve que des études historiométriques sont parvenues à la même conclusion en empruntant des chemins différents. Dean Simonton (1997, 2003) a montré que la créativité était essentiellement un processus Darwinien, c’est-à-dire qu’elle entraîne un processus de variation-sélection. Les combinaisons d’idées sont générées en permanence mais un processus de sélection doit intervenir pour faire le tri entre les idées véritablement créatives et les idées simplement nouvelles. L’examen des œuvres de centaines de créateurs individuels dans le monde des arts et des sciences a permis à Simonton et à bien d’autres avant lui de déterminer empiriquement quelque chose dont la nature, compte tenu de notre prétentieuse conception de la créativité, va extraordinairement à l’encontre de l’intuition première. À l’encontre de la croyance populaire, pour tout créateur et quelle que soit la période choisie dans sa carrière, on observe une relation positive, linéaire, stochastique et stable entre le nombre total de ses œuvres et le nombre d’œuvres retenues comme étant marquantes par la société, quelle que soit la manière opérationnelle dont on définit le talent (pour plus de détails, voir Simonton, 1997). Cela veut dire que la règle de « toutes choses égales par ailleurs », telle qu’on la connaît, montre que la période au cours de laquelle apparaissent les chefs d’œuvre d’un créateur est également la période donnant naissance à la plupart des œuvres mineures, qui constitue ainsi la majorité de l’ensemble. Les trajectoires de carrière, en termes de réussite et d’échecs, démontrent parfaitement que le processus de variation est fondamentalement aveugle et que la qualité est indubitablement une fonction probabiliste de la quantité. Une autre façon de le formuler consiste à dire que la quantité est le meilleur signe annonciateur de la qualité, et de loin. Dans les sciences, par exemple, le signe annonciateur le plus simple et le meilleur de toute éminence est une publication, n’importe quelle publication, avant d’obtenir un doctorat. Qui plus est, le taux de qualité relativement invariant que constitue la règle de « toutes choses égales par ailleurs » est l’une des découvertes les plus solides des sciences comportementales et elle vaut aussi bien pour les données longitudinales que pour les données transversales. Ceci est important. En premier lieu, de telles données contribuent largement à détruire les illusions de chacun sur la validité résiduelle de l’hypothèse selon laquelle l’acte de créer serait un événement mystérieux, voire mystique. Edison ne plaisantait pas quand il énonçait sa célèbre formule selon laquelle le succès repose sur deux pour cent d’inspiration et quatre-vingt-dix-huit pour cent de transpiration.
11Plus important que l’attaque contre le sophisme du crochet céleste, cependant, est le fait que de telles données corroborent parfaitement la vision selon laquelle la créativité est un processus combinatoire stochastique (Simonton, 2003), en d’autres termes le comportement créatif comporte son élément de hasard. Il ne devrait donc pas être surprenant que l’approche historiométrique se soit traduite par un modèle considérant la créativité explicitement comme une succession de productions et de vérifications. Il suffit par exemple de regarder la différence de production créative dans différents domaines des arts et des sciences. Les mathématiciens atteignent le summum de leur carrière en moyenne au bout de 26 ans et demi, les historiens au bout de 38 ans et demi (Simonton, 1997). La raison d’une telle différence s’explique plus facilement si nous comprenons l’acte de créer, au niveau du créateur individuel, comme un processus empirique, à l’opposé des exploits de quelques génies, à la fois brillants et infaillibles, qui transforment en or tout ce qu’ils touchent. Les mathématiques et l’histoire « diffèrent de par les limites imposées au processus stochastique » (Simonton, 2003, p. 484), ou plus précisément, elles diffèrent de par leur fréquence d’idéation, à savoir, la fréquence d’émergence de nouvelles combinaisons, et de par leur fréquence d’élaboration, à savoir, le temps qu’il faut pour convertir des inspirations en produits créatifs (voir Simonton, 2003 ; ou Dietrich, 2004a). Il est facile, avec notre notion prosaïque de la créativité, de laisser de côté le fait que pour tout artiste et scientifique la route de la créativité est jonchée de billevesées théoriques et empiriques. Le modèle de Simonton rend compte des faits d’autant mieux que précisément il intègre toutes les impasses. Au regard des données historiques, force est de constater que la créativité, au niveau individuel, autant que l’on puisse dire, est un processus empirique, élément de base de tous les algorithmes Darwiniens, et témoigne par conséquent du Darwinisme universel.
La créativité dans l’espace conceptuel du cerveau
12On ne saurait pourtant en déduire, bien entendu, que le processus sous-jacent dans le cerveau repose sur un principe de variation-sélection. Dans l’espoir d’identifier les mécanismes neuronaux de la créativité, les psychologues et les neuroscientifiques ont avancé un certain nombre d’idées conçues, pour la plupart, pour distinguer la créativité de la cognition « ordinaire ». La pensée créative est manifestement particulière à plus d’un titre et il doit bien y avoir une explication. En fin de compte, cependant, ces lignes de démarcation que l’on nous propose se sont rapidement révélées comme des impasses théoriques et le domaine de la créativité souffre toujours des traces pernicieuses et fossilisées de ce type de théorisation fallacieuse. Il suffit de consulter une référence quelconque sur le sujet, académique ou autre, pour trouver que la créativité est liée, par exemple, à une réflexion divergente, une faible excitation, une attention détournée, l’hémisphère droit du cerveau, des processus inconscients, une réflexion latérale, des états de conscience modifiés ou une maladie mentale, pour ne citer que quelques exemples galvaudés, lorsque le bon sens nous dit que (1) ces éléments sous-tendent également la pensée non créative et (2) que les causes opposées sont également des sources de pensée créative (Dietrich, 2007).
13Alors qu’ils étaient largement reconnus comme non sélectifs en matière de créativité, il ne s’en est pas suivi, comme cela aurait dû être le cas, que ces cloisonnements soient rejetés ou remplacés par des nouveaux ou encore approfondis pour voir exactement en quoi ils sont créateurs. Au lieu de cela, comme un diable de mème jaillissant de sa boîte, ils se sont répliqués avec bonheur et se sont propagés largement dans tout le domaine de la créativité alors même que la psychologie cognitive et les neurosciences commençaient à bien saisir les processus mentaux supérieurs, ces mêmes processus qui pourraient servir de points de départ pertinents pour appréhender la mécanique de la créativité.
14Tout ceci, en tout cas nous l’espérons, va bientôt changer. Ceci devrait nous inciter, d’après moi, à tirer parti, de manière systématique, de la base de connaissances étendue de la psychologie cognitive et des neurosciences cognitives. Par chance, nous avons à notre disposition les bouts d’éléments permettant d’établir un programme de recherche en laboratoire, expérimental, orienté vers la découverte d’explications mécanistiques de la créativité. Les avancées des neurosciences cognitives portant sur la créativité, ne serait-ce que ces deux dernières décennies, sont impressionnantes et ouvrent des horizons insoupçonnés sur la compréhension et la prospective du fonctionnement du cerveau. Ce que nous devons faire maintenant c’est ancrer cette recherche de la créativité dans cette immense base de connaissances des processus cognitifs et neuronaux, tout en nous préservant des emprunts hasardeux des concepts dérivés des neurosciences cognitives qui ne feront que générer une autre volée d’hypothèses fallacieuses tout aussi difficiles à démolir.
15Mais l’essentiel, malgré tout, en particulier à la lumière (1) des erreurs commises jusqu’à présent et (2) de nos connaissances sur la façon dont le travail de conception se manifeste à d’autres niveaux – biologie évolutive, anthropologie culturelle, psychologie différentielle, pour reprendre les exemples ci-dessus – il est grand temps d’adopter le paradigme du Darwinisme universel dans nos efforts pour identifier les mécanismes neuronaux de la créativité. Une fois que nous appliquons la notion d’un processus de variation-sélection de façon rigoureuse au niveau des processus cérébraux, plusieurs confusions se dissipent immédiatement parce que cela nous permet de formuler une première distinction critique, à savoir entre le calcul portant sur les combinaisons novatrices d’informations d’une part (la composante variation) et l’évaluation de leur degré de créativité d’autre part (la composante sélection). Pour se rendre compte à quel point il s’agit là d’un réel pas en avant, il faut se souvenir que les neurosciences cognitives sont engagées dans un programme de recherche des plus poussés depuis des décennies pour déterminer comment des structures d’évaluation de rang supérieur, comme le cortex préfrontal, s’acquittent de leurs tâches de sélection du comportement en fonction des objectifs externes et internes (Miller & Cohen, 2001). Plus précisément, cette distinction permet de relier sans hiatus des éléments critiques de créativité (processus de sélection) avec ce que nous savons sur le traitement de l’information normative, en termes d’anatomie et de modularité du processus. Un modèle théorique, par exemple, a proposé que quels que soient la manière et l’endroit où la nouveauté est générée initialement, des circuits dans le cortex préfrontal réalisent les calculs qui transforment la nouveauté en comportement créatif (Dietrich, 2004b). En d’autres termes, le cortex préfrontal réalise le processus de sélection au niveau du cerveau, jusqu’à ce que, bien entendu, à un autre niveau, la sélection véritablement décisive soit opérée par la société. À cette fin, malgré tout, les circuits préfrontaux jouent un rôle dans la prise de conscience de la nouveauté, pour évaluer son bien-fondé, avant finalement de décider de mettre en œuvre son expression créative.
16Il nous reste alors la composante variation, la production de combinaisons d’idées. Là encore, nous pouvons jeter un pont vers les connaissances déjà existantes des neurosciences cognitives. La spécificité fonctionnelle du cerveau suggère que les circuits neuronaux traitant des informations spécifiques pour produire des combinaisons non créatives de ces informations doivent être les mêmes circuits neuronaux qui sont à l’œuvre pour générer des combinaisons créatives de ces informations (Dietrich, 2004a). En d’autres termes, à l’exception de la mémoire de travail dans les régions préfrontales, qui est capable de générer de la nouveauté à partir d’informations normalement codées dans un autre endroit du cerveau, la recombinaison de bribes d’information en configurations novatrices doit provenir des circuits neuronaux proprement dits qui normalement stockent ces bribes d’information. Cela doit être simplement admis dans le cadre de notre compréhension du cerveau comme processeur d’information non linéaire. En effet, la nouveauté est simplement inhérente dans un tel système biologique complexe. C’est une très mauvaise nouvelle pour le camp localisationniste, ceux qui s’accrochent avec entêtement à une quelconque version remise à jour neuroanatomiquement du même du cerveau droit, parce que cela signifie que tous les circuits cérébraux, en principe, produisent des combinaisons d’idées à partir des informations qu’ils gèrent normalement. C’est partout que la nouveauté est ainsi calculée ! Il faut en prendre pleinement conscience.
17Il y a également de bonnes nouvelles. Premièrement, le cerveau n’est pas, bien entendu, un générateur spontané de combinaisons d’idées. Au minimum, nous pouvons supposer que plus la structure neuronale intervenant dans le calcul est intégrative plus la nouveauté combinatoire sera fréquente. La recherche cérébrale moderne conceptualise la fonction cognitive comme une hiérarchie fonctionnelle avec, grossièrement, les circuits inflexibles du tronc cérébral en bas et le cortex cérébral en haut. Les structures comme le cortex préfrontal, sont alors simplement plus susceptibles de contribuer à la mentalisation créative mais, il faut bien le souligner une fois encore, c’est tout le cerveau qui entre en jeu. Ensuite, l’hypothèse selon laquelle tout circuit neuronal calculant des informations spécifiques produit également des combinaisons novatrices de ces informations signifie que ceux qui étudient la créativité peuvent, une fois encore, piocher dans la montagne de données disponibles grâce aux recherches fondamentales en neurosciences cognitives concernant l’endroit et la façon dont les processus cognitifs sont mis en œuvre dans le cerveau. Ainsi, par exemple, si l’on s’intéresse à l’imagerie créative, nous pouvons nous appuyer sur le vaste corpus des travaux effectués sur l’imagerie mentale en général. Ainsi armés, sans doute avec une sorte d’analyse contrastive à déterminer, nous pouvons espérer isoler les éléments qui transforment la simple imagerie mentale en imagerie mentale créative.
18Face à tout cela, on peut être tenté d’opposer plusieurs objections, l’une absolument évidente était sans doute l’affirmation selon laquelle le processus est, d’une certaine façon, fondamentalement aveugle. Pour la composante sélection, cela doit être le cas sinon nous serions obligés de considérer les individus créatifs comme une classe particulière de prophètes. Mais qu’en est-il de la composante variation ? Est-elle, elle aussi, non dirigée, comme l’exige le Darwinisme universel ? Et que dire alors, par exemple, de la survenance commune d’une idée créative, complexe à stimuler, qui s’infiltre dans le conscient dans sa forme finie, soit l’effet Euréka bien connu ou le « bon sang, mais c’est bien sûr ! ». Cela ne va-t-il pas à l’encontre de l’idée d’un processus de variation que l’on suppose aveugle et aléatoire ? Sans parler de toutes les fois où chacun de nous a élaboré une solution créative grâce à une déduction méthodique, sans oublier, parmi de nombreux autres exemples, la chaîne de production d’Edison, approche pratiquement algorithmique de l’invention ou la démarche systématique de Bach pour composer les cantates. En quoi le processus est-il aveugle ? C’est ici qu’il faut introduire une autre distinction si l’on veut appréhender la mécanique de la pensée créative au niveau neuronal.
19J’ai proposé il y a quelques années un cadre pour la base neuronale de la créativité qui distinguait parmi plusieurs types de créativité (pour plus de détails, voir Dietrich, 2004a, 2004b). Tandis que certains chercheurs ont insisté sur le fait que les inspirations sont marquées par des prises de conscience soudaines survenant dans un état mental d’attention défocalisée (il suffit de penser à la rêverie de Kekulé avec des serpents tourbillonnant formant un anneau (de benzène) ou au poème de Coleridge intitulé Kubilai Kahn) d’autres chercheurs ont pris le parti inverse, à savoir que la créativité est le résultat d’une démarche délibérée et méthodique de résolution des problèmes (on peut alors citer la découverte de l’ADN par Watson et Crick, comme contre-exemple). Au regard des preuves apportées, le modèle propose que les inspirations créatives puissent survenir dans deux modes de traitement, spontané et délibéré.
20La principale différence entre les deux modes de traitement, délibéré et spontané, est le procédé utilisé pour représenter les informations novatrices inconscientes en mémoire de travail. Tandis que les recherches délibérées d’inspirations sont motivées par des circuits du cortex préfrontal et ont ainsi tendance à être structurées, rationnelles, et conformes à des valeurs et des systèmes de croyance internalisés, les inspirations spontanées se produisent lorsque le système attentionnel ne sélectionne pas activement le contenu de la conscience, laissant défiler les pensées inconscientes qui sont comparativement plus aléatoires, non filtrées et délicates à représenter en mémoire de travail.
21Le cortex préfrontal, possède alors un moteur de recherche susceptible d’« extraire » des informations utiles à la tâche du stockage à long terme et de les faire entrer dans le champ de la conscience. Une fois en ligne, le nouveau contenu de la conscience est ensuite superposé pour constituer de nouvelles combinaisons. Nous avons de bonnes raisons de supposer que soit l’un soit l’autre est structuré de façon inhérente, à savoir que le moteur de recherche de même que la recombinaison des éléments stockés fonctionne avec un certain nombre de contraintes, comme les partis pris, les attentes, les préférences, les visions du monde, et autres. Qui plus est, ce type de traitement délibéré va probablement opérer suivant une logique formelle (A causant B) en formulant des hypothèses en matière d’intelligibilité, et en anticipant, pour des raisons d’efficacité, des associations libres ou des circuits contre-intuitifs. Ainsi, tandis que le mode délibéré permet au penseur de diriger ses capacités cérébrales vers un problème particulier, cela présente l’inconvénient de limiter l’espace de solution. Ceci rappelle la notion de Boden (1998, p. 348) selon laquelle la pensée créative est « l’exploration d’un espace conceptuel structuré ». Comme elle l’écrit : « De nombreux êtres humains, comme par exemple la plupart des scientifiques de profession, artistes et musiciens de jazz, gagnent leur vie décemment grâce à une activité exploratrice. Plus précisément, ils héritent de leur culture un style de pensée qu’ils acceptent, puis ils l’explorent, parfois l’ajustent superficiellement, pour en explorer le contenu, les frontières et le potentiel. »
22En revanche, le mode spontané est différent (1) qualitativement, parce qu’il n’est pas initié par des recherches de bases de données préfrontales qui sont limitées à des schémas mentaux et (2) quantitativement parce que les informations ne sont pas soumises à la limite de capacité de la mémoire de travail. Lorsque le système attentionnel est réduit par la force des choses, les pensées non tenues en laisse par les normes sociales et non filtrées par la rationalité conventionnelle sont représentées en mémoire de travail (Dietrich, 2003). Dans un tel état mental, la pensée consciente est caractérisée par un égarement non systématique, et la séquence de pensées se manifestant proprement dans la conscience est plus chaotique, permettant l’émergence d’associations plus « librement connectées ».
23Les pensées conscientes qui ne sont pas guidées par une activité préfrontale ne sont aucunement aléatoires. Nous savons que la représentation des connaissances par le cerveau est stockée dans des réseaux associatifs qui prédisent la probabilité de récupération d’un élément stocké donné. Il s’ensuit que même sans la gouverne du cortex préfrontal intégratif, les inspirations spontanées ne seront sans doute pas irrationnelles. En effet, les preuves empiriques démontrent que de nombreuses « inspirations se produisent pratiquement à l’improviste, de manière similaire à une restructuration perceptuelle » (Ward, Smith & Finke, 1999, p. 195), ce qui suggère que l’activation qui se propage grâce à un réseau reposant sur les connaissances à elle seule peut produire une nouvelle Gestalt, plus sophistiquée. Ainsi, les nouvelles idées peuvent être assemblées de manière inconsciente puis représentées dans la mémoire de travail sous leur forme finie.
24Ce cadre embryonnaire permet de nous attaquer, au moins dans une certaine mesure, aux objections soulevées ci-dessus et suggère peut-être plusieurs réponses plausibles. Premièrement, aveugle ne signifie pas complètement aléatoire. Les mutations génétiques ne sont pas non plus entièrement aléatoires dans le sens où certains gènes sont plus stables que d’autres et sont moins sujets, par conséquent, à une erreur de copiage. Il y a même ce que l’on appelle des points chauds génétiques qui présentent des taux élevés de variation en cours de copie. De la même manière, certaines configurations novatrices d’informations dans le cerveau ont davantage de chances de se produire que d’autres, compte tenu de la manière dont le cerveau fonctionne, à savoir par stockage et récupération d’informations. Ce que l’on entend ici par aveugle c’est que les copies variantes ne sont pas le produit d’un processus dirigé au sens téléologique ; en d’autres termes, le processus de variation ne suit pas un fil directeur le portant vers un but ultime comme le définit la théologie. Le fait que la qualité est une fonction probabiliste de la quantité au niveau de l’individu remet fortement en question l’idée d’une direction vers un but préordonné.
25Les modes de traitement délibéré et spontané diffèrent à plus d’un titre ; cependant, ils diffèrent dans la manière dont le processus combinatoire est restreint et non en ce que le mode délibéré serait le produit d’un homonculus Cartésien omniscient qui contrôlerait l’interrupteur magique de l’ampoule proverbiale quelque part aux fins fonds du cerveau, alors que le mode spontané ne le serait pas. Dans la résolution délibérée des problèmes difficiles, la pensée créative est certainement axée directement sur la découverte d’une solution mais non vers une solution déjà connue voire même apparente, sinon la pensée ne serait d’emblée pas nécessaire.
26En psychologie, on distingue typiquement trois stratégies de résolution des problèmes. La première est une façon empirique ou par tâtonnements, qui constitue une approche utile pour un problème ne possédant qu’un nombre limité de solutions possibles. Pour les tâches complexes, la méthode empirique est moins probante. La seconde stratégie est un algorithme, qui est un procédé produisant une solution par la stricte application d’une règle spécifique ou d’un ensemble de règles spécifiques. Bien que les algorithmes, si on les suit scrupuleusement, garantissent d’aboutir à un résultat correct, ils ne sont pas non plus très pratiques pour les tâches complexes. Par exemple, lorsque l’on ne retrouve pas ses clés, on peut les chercher dans la maison centimètre carré par centimètre carré. On finira par retrouver les clés mais cela aura pris plus de temps que l’on peut y consacrer. Les humains utilisent rarement le procédé complètement algorithmique pour prendre des décisions dans la vie quotidienne parce que la plupart des problèmes doivent être résolus en temps réel. Le troisième procédé est heuristique. Il s’agit d’une règle générale dont le fonctionnement n’est pas garanti mais qui peut toujours produire un résultat plus rapidement qu’un algorithme libre. La procédure heuristique procède à des choix rapides et expéditifs en éliminant les solutions peu probables. Mais de tels choix sont toujours mis en œuvre de manière algorithmique. Ainsi, mettre en contraste le procédé heuristique avec le procédé algorithmique est quelque peu trompeur dans la mesure où le premier repose malgré tout sur un algorithme ; il est simplement plus imaginatif et rajoute quelques lourdes contraintes sur l’approche entièrement algorithmique. Ces contraintes consistent, bien entend, à faire des suppositions raisonnables ayant pour but d’accélérer la solution ; cependant, elles ne contiennent pas de notions téléologiques ; en d’autres termes, elles n’impliquent pas de suivre une direction vers un objectif connu, plus noble. Et après tout, c’est précisément ce procédé heuristique qui bloque ce que l’on appelle la pensée « sortie de la boîte », celle qui est responsable des avancées majeures, à savoir les changements de paradigmes à l’opposé des étapes incrémentales, dans un élan créatif.
27Ces stratégies entrent toutes dans la catégorie de la pensée cognitive ; cependant, il est également possible de déboucher sur des solutions sans raisonnement intentionnel. Ceci nous ramène à notre défi d’origine qui pose la question de comment assembler des solutions complexes, clés en main, dans l’esprit inconscient. Ici également nous pouvons facilement nous dispenser de faire appel à une sorte d’homonculus Freudien qui pilote la génération d’idées novatrices et nous pouvons au contraire fournir une explication Darwinienne de A à Z. Pour cela, il serait utile de connaître le nombre total de combinaisons novatrices d’informations que le cerveau produit dans une séquence temporelle donnée. Mais la connaissance de ce nombre n’est pas strictement nécessaire à l’argumentation, dans la mesure où il est sage de supposer que ce nombre doit, dans tous les cas de figure, être plus élevé, beaucoup plus élevé en effet, que le nombre qui atteint le niveau de conscience. Nous devons ici mettre de côté le problème de savoir comment, pour commencer, les informations inconscientes deviennent conscientes, car ce n’est pas dans le cadre du présent article (pour plus de détails en la matière, voir Dietrich, 2007). Il est intéressant de constater dans ce contexte que la recherche a montré que le cortex préfrontal dorsolatéral, avec sa mémoire tampon de travail, est activé par des violations soudaines de savantes associations (Fletcher et al., 2001), suggérant que les pensées novatrices contraires à la sagesse conventionnelle pourraient présenter un seuil inférieur pour accéder à la sensibilisation consciente. Nous ne pouvons que nous risquer à supposer combien d’idées novatrices respectant un schéma mental prédéfini surgissent dans le cerveau par unité de temps, mais il y a de grandes chances que ce nombre soit astronomique. De toutes façons, nous avons une certaine connaissance du nombre d’idées soi-disant créatives qui accèdent à notre niveau de conscience pour ne s’avérer être que des fausses alertes après confrontation à d’autres connaissances grâce à des processus mentaux conscients. Naturellement, peu de gens comptent leurs glorieuses erreurs mais une certaine réflexion introspective et honnête suffirait à imposer l’idée que ce nombre est également nettement supérieur au nombre d’idées ayant survécu à ce second niveau de sélection. Il ne s’agit là encore, d’après ce que l’on sait de la recherche historiométrique, que d’un sous-ensemble des idées que la société considère comme créatives.
28En somme, le processus de variation-sélection est à l’œuvre à tous les niveaux. Les produits créatifs, dans l’espace conceptuel de la vie, l’infosphère, l’individu, de même que les processus cérébraux sont le résultat d’un algorithme Darwinien. La proposition avancée ici, pour être clair, n’est pas que le processus créatif, dans l’ensemble, semble en moyenne le produit d’un processus de variation-sélection avec certains individus brillants qui produiraient le bon grain et une majorité l’ivraie, mais que ce processus est le principe sous-jacent fondamental à tous les niveaux du processus créatif. Produire et mettre à l’épreuve est l’attitude fondamentale à la base de tout le travail de conception qui se manifeste dans le monde et le domaine des neurosciences cognitives serait bien inspiré d’étudier les caractéristiques du mécanisme neuronal utilisant ce paradigme.
29Il apparaît donc que nous comprenons déjà le principe central sous-jacent des produits créatifs, même si nombreux sont ceux qui rechignent à cette conclusion, voire la méprisent. Il est alors raisonnable de se demander ce que viennent faire les psychologues et les neurologues dans cette entreprise ! Une réponse possible serait la suivante. Nous autres humains possédons un cerveau bien particulier, qui naturellement impose certains types de contraintes à ce processus de variation-sélection (à savoir les capacités limitées en ressources attentionnelles, la capacité de la mémoire de travail, les tendances à la catégorisation, pour ne citer que quelques exemples). Il y a toutes chances que cela soit le cas des deux composantes du processus créatif, le calcul de la simple nouveauté de même que l’évaluation de son utilité. Le programme de recherche des neurosciences cognitives, consiste alors à reprogrammer le cerveau pour que nous puissions comprendre le type de cerveau dont nous sommes dotés et, par extension, le type de créativité dont notre cerveau est éventuellement capable ; en d’autres termes, identifier l’ensemble particulier d’algorithmes heuristiques que nous utilisons pour circonscrire l’espace de conception de l’infosphère. Ce n’est pas strictement nécessaire à la conception de cerveaux artificiels qui soient créatifs mais cela ferait grandement progresser la recherche que de leur faire acquérir le type de créativité que nous pouvons comprendre et dont nous pouvons tirer profit avec le type de cerveau qui nous est donné.
La créativité dans l’espace conceptuel de l’intelligence artificielle
30La question de l’intelligence de la machine s’inscrit dans une longue tradition. L’idée fut avancée par les Grecs et les premières tentatives de fabrication de machines pensantes furent réalisées par Pascal et Leibniz. Les progrès enregistrés à la fois au niveau du matériel (moteur analytique de Babbage) et du logiciel (algèbre Booléenne) ont conduit dans les années Trente à la conception de la théorie de l’information. Les attaques visant le problème des cerveaux artificiels n’ont pas cessé depuis, en progressant constamment sur deux fronts parallèles. Un front d’opposition venait des spécialistes de l’informatique qui augmentaient sans relâche la puissance de calcul brute, tactique calquée avec la même ardeur par les scientifiques cognitifs qui faisaient de leur mieux pour formaliser les processus cognitifs humains. Tout système que l’on formalise peut s’intégrer à une machine. Cette prise de conscience, couplée à l’optimisme à toute épreuve qui suivit la défaite du comportementalisme (behaviorisme), conduisit à croire qu’avec le temps les facultés mentales les plus sophistiquées, y compris la créativité, pourraient être répliquées dans une machine. Aujourd’hui, les ordinateurs font des tas de choses merveilleuses et chacun devrait en être impressionné. Ils calculent des théorèmes, construisent des voitures, battent les Russes aux échecs, recherchent des traces de vie sur Mars, surveillent la météo régionale et optimisent les portefeuilles d’actions. Cela dit, tout le monde, à l’exception des ardents défenseurs de la communauté de l’Intelligence Artificielle (IA), comprend maintenant que le chemin est un peu plus tortueux qu’il n’y paraissait initialement. Même si certains problèmes ont pu être résolus avec facilité, d’autres se sont révélés pratiquement impossibles à traduire en code informatique. Seuls les cerveaux peuvent rire d’une plaisanterie, appeler à l’aide, être fiers de leur pays, avoir une angoisse existentielle, simuler un orgasme, se chercher ou faire du hula hoop.
31Les 30 premières années de l’IA, ce que l’on désigne en anglais comme « Good Old-Fashioned Artificial Intelligence » (GOFAI) et que l’on peut traduire par « Intelligence artificielle du bon vieux temps », furent marquées par le développement de systèmes de plus en plus complexes. Mais l’architecture des systèmes GOFAI (quelle que soit leur complexité) présentait des limites majeures. Les connexions internes de ces systèmes étaient réglées de telle sorte qu’elles ne pouvaient adapter leur fonctionnement en fonction des retours d’information. Cela signifiait que l’ordinateur ne pouvait réaliser que des opérations définies avec précision au préalable ; à moins d’avoir été programmées dans la machine, ces opérations n’étaient pas à la portée des systèmes GOFAI. Depuis le milieu des années Quatre-vingt, les réseaux de neurones artificiels ou « ANN » (Artificial Neural Networks) tentent de résoudre ce problème. Cette nouvelle génération de systèmes est différente dans la mesure où leur architecture est connexionniste, et où les unités sont connectées un peu comme des réseaux de neurones dans le cerveau. En d’autres termes, il s’agit de modèles informatiques de réseaux de neurones. Dans ces circuits, il n’est pas nécessaire de préciser entièrement les opérations a priori ; ces systèmes peuvent suivre un apprentissage. Cela fonctionne parce que l’architecture de ces systèmes connexionnistes ou PDP (pour « traitement distribué en parallèle »), est dynamique ; ils changent de configuration en fonction du traitement des informations. En bref (et en gros), chaque lien dans le réseau présente un poids particulier s’ajustant (se renforçant ou s’affaiblissant) au fur et à mesure que le système apprend une tâche. Considérons par exemple la manière dont un système acquiert la capacité de reconnaître des motifs complexes comme les visages, problème délicat pour l’IA parce que les visages, comme la parole ou les émotions, souffrent d’irrégularités statistiques rendant impossible toute spécification formelle. Dans l’architecture PDP, on évite l’impasse liée à la programmation de quelque chose impossible à expliquer en laissant le système apprendre tout seul à reconnaître les visages. Le réseau est nourri d’exemples de visages et il produit des réponses pour chaque visage, par exemple il spécifie si c’est le visage d’un homme ou celui d’une femme. Selon le retour d’information (vrai ou faux), l’ANN modifie progressivement le poids de ses connexions jusqu’à ce qu’il fournisse la bonne réponse avec régularité. Il fait appel pour cela à un algorithme de propagation arrière. En d’autres termes, le retour d’information remonte le courant à travers le réseau et les connexions qui contribuent à la réussite de la concordance sont renforcées tandis que les autres sont affaiblies. Avec l’apprentissage, la fréquence d’erreur baisse progressivement jusqu’à ce que le système soit capable de catégoriser mêmes les visages nouveaux avec grande précision. En réalité tous les liens sont corrigés à l’intérieur du système pour que chacun contribue dans les bonnes proportions, statistiquement parlant, à déterminer le sexe de la personne associée au visage. L’architecture résultante du réseau reflète de manière structurelle l’expérience passée du système, tout comme cela se passe dans le cerveau. Conséquence intéressante de ce processus : il est impossible de dire, même pour les fabricants de la machine, comment au bout du compte la machine parvient à catégoriser les visages correctement.
32Outre les ANN, une autre phase critique tendant vers des systèmes au comportement authentiquement intelligent nous amène au concept de la cognition incarnée. Dès le début, l’IA a été handicapée par le problème de la fondation. Tous les programmes se limitent à faire des calculs abstraits ; ils ne savent rien de la signification des calculs qu’ils effectuent. Le calcul d’une trajectoire pour lancer une bombe atomique est similaire au calcul du parachutage de vivres à une population en détresse ; c’est toujours le même traitement en masse des chiffres, des uns et des zéros. Leurs calculs ne sont pas ancrés dans le monde réel. On pense généralement que c’est parce qu’ils sont désincarnés. Enfermés dans des boîtiers de plastique, ils n’interagissent pas avec l’environnement et ne peuvent donc rien comprendre au monde réel. On pense que la personnification en serait la solution parce que, après tout, cette interaction avec notre environnement constitue le véritable fondement de la signification intrinsèque de nos représentations mentales. Pour l’IA, cela implique la robotique. En disposant des programmes dans des robots, les chercheurs en IA peuvent créer des entités avec des capteurs et des membres artificiels établissant un contact avec le monde qu’ils sont censés représenter dans leurs programmes. La personnification est alors ce qui donne du sens à la représentation et l’environnement, dans cette perspective, dresse les véritables contraintes d’un comportement réfléchi.
33Les gens semblent croire que les ordinateurs ne sont pas créatifs de manière indépendante. Ils ne font que ce qu’on leur dit, n’est-ce pas ? Qui plus est, tout s’accorde également à penser que cela ne va pas changer, ni demain, ni l’année prochaine, ni jamais ! Lorsque l’on suggère à l’homme de la rue que les robots pourraient un jour devenir des agents créatifs capables d’écrire des poèmes ou d’inventer des pas de danse, il se contente de soupirer, avant de déclarer que les humains auront toujours le monopole de l’activité créatrice. Mais pourquoi est-il si sûr au fond de lui-même que l’IA (quel que soit son état d’avancement) n’engendrera jamais quoi que ce soit qui ressemblerait à de la créativité authentique ?
34On trouve deux problèmes liés à l’objection selon laquelle les ordinateurs sont programmés et ne manifestent ainsi aucune créativité, originalité ou sens de l’initiative. Premièrement, ce n’est pas vrai, en tout cas en principe. Dès le début, même les systèmes GOFAI effectuaient un travail de création. Considérons le « Logic Theorist », programme élaboré dans les années Cinquante pour résoudre des problèmes logiques (Newell & Simon, 1972). Il démontra 38 des 52 théorèmes des Principia Mathematica de Russell et Whitehead, mais, ce qui est plus important, il proposa une démonstration nouvelle et plus élégante de l’un d’entre eux, le théorème 2.85. Si cela avait été l’œuvre d’un mathématicien, personne n’aurait mis en doute la nature créative de l’exploit. De nos jours, avec les remises à jour des ANN et de la robotique, le silicium ne cesse de produire des solutions créatives. Deuxièmement, comme nous l’avons déjà vu, nous devons nous poser la question de savoir si la procédure de base qui génère notre propre créativité diffère d’une quelconque façon de l’IA. L’IA est constituée d’automates, fort bien, mais Darwin disait que nous descendions d’automates. Alors comment ce qui descend de l’automate peut être autre chose qu’un automate ? Notre cerveau, voir pour cela l’argumentation ci-dessus, est créatif en vertu du procédé consistant à produire et à tester, élément de base de tout algorithme Darwinien. Étant donné que les algorithmes peuvent être mis en œuvre dans une machine, même si, comme c’est le cas des ANN, ils n’y sont pas programmés au tout début, cela signifie qu’en principe il faut bien concéder une certaine créativité aux machines.
35Cette approche marque un point à la lumière du récent événement ci-dessous. Le 25 janvier 2005 le Bureau Américain des Brevets et des Marques Commerciales octroya un brevet à une machine pour la toute première fois. Un brevet requiert, selon cette institution gouvernementale plutôt conservatrice, un « élément non évident ». Étant donné que le Bureau des Brevets connaissait parfaitement l’identité du créateur, on peut dire que cet ordinateur avait réussi au premier test de Turing des IA en conditions réelles. Même si cela ne parvient pas à vous convaincre, on peut voir les choses comme cela : cette entité de silicium, un tas de métal, détient des droits de propriété intellectuelle et non son concepteur humain, John Koza ! Le principal ici n’est pas tant ce que la machine a inventé mais la façon dont elle y est arrivée en faisant appel à un processus de variation-sélection – connu sous le nom de programmation génétique dans l’IA (Koza, 1992) – ce qui, incidemment, est exactement la façon dont toute l’œuvre de conception voit le jour dans la biosphère, par une accumulation progressive de gestes intelligents. La machine commence par générer un code informatique puis le teste sur le terrain. Elle conserve ce qui semble marcher et génère à partir de ce code parent des rejetons qui passent à l’étape suivante du tournoi de la survie. Cependant, on attend toujours le test de Turing le plus sophistiqué en matière de créativité pour cette machine à invention : créer quelque chose qui survive à la sélection brutale du marché et engrange plusieurs millions d’Euros ! Et là, un moyen sûr mais surprenant de passer d’une situation à l’autre, compte tenu de la règle « toutes choses égales par ailleurs » (la qualité étant une fonction probabiliste de la quantité), consiste à augmenter la puissance brute de calcul d’une machine.
36L’objection selon laquelle les programmes informatiques ne peuvent pas calculer de solutions créatives n’est qu’un aspect d’une objection plus répandue. Les ordinateurs ne feront jamais X. Depuis Descartes, les gens s’obstinent à protéger le cerveau de l’étude scientifique. Cela a souvent pris la forme d’une liste de capacités mentales qui étaient censées ne jamais, pas même en principe, se manifester chez une machine. Descartes, par exemple, a désigné le langage et le raisonnement. Il aurait été surpris d’apprendre que la réelle difficulté n’est pas le raisonnement mais des processus « de rang inférieur » comme les émotions, la perception et le mouvement. Il est ironique de voir que la liste se réduit de jour en jour comme une peau de chagrin, avec l’IA butinant d’une capacité à l’autre. Cette battue en retraite perpétuelle devrait instiller un peu plus de prudence quant aux déclarations définitives (Dietrich, 2007).
37Nous pouvons envisager cette objection sous un autre angle : les humains évoluent tandis que les ordinateurs sont le fruit d’une conception particulière. Il s’agit, et je pense que cela est maintenant clair pour tout le monde, d’un exemple de raisonnement éhonté dans le meilleur des cas et d’une bourde conceptuelle au pire. Dans l’argumentation opposant évolution et conception nous devons nous demander si le processus d’évolution présente quelque chose d’unique de nature à le désigner comme seul producteur de créativité. Mais, au risque de nous répéter, l’évolution n’est rien d’autre qu’un algorithme de changement. Il s’agit d’un mécanisme de copie dans lequel l’erreur produit une variation qui est ensuite soumise à la sélection. Avec les siècles, ce processus a généré un réseau véritablement extraordinaire d’unités informatiques capables d’exploits extraordinaires. Mais cela ne fait pas du cerveau un crochet céleste. C’est toujours une collection de grues, même si l’on peut parler d’une grue contenant des super grues au-dessus d’autres super grues. Cette machine peut fonctionner, avec ses moteurs de recherche, quelques algorithmes heuristiques solidement sophistiqués opérant une élévation parfois prodigieuse dans l’espace de conception mais le processus lui-même est aveugle et non miraculeux. Le cerveau humain est une grue qui fabrique des grues (Dennett, 1995) et l’on peut s’attendre à ce que ses artefacts (les ordinateurs par exemple) se qualifient, comme cela a déjà été le cas, pour devenir pareils.
38Il est également vrai que, à tous les niveaux d’organisation, le cerveau humide n’a absolument rien à voir avec la conception de réseaux artificiels courants. Mais l’intérêt de considérer l’évolution comme un algorithme universel réside dans le fait qu’il peut modifier n’importe quoi à condition que ce n’importe quoi varie et soit copié de manière sélective. Comme l’évolution est le processus à l’origine de notre cerveau, nous serions bien inspirés, si notre but est de créer une créativité humanoïde, de soumettre également le silicium à un certain type de processus de variation-sélection. C’est exactement ce que fait la programmation génétique. Mais ce n’est pas une exigence rédhibitoire pour les robots créatifs, seulement, peut-être, pour les robots créatifs humanoïdes. On pourrait donc continuer à s’accrocher à l’idée selon laquelle l’évolution crée une sorte de cerveau différent de celui qui fonctionne à base de silicium mais cela ne revient pas à dire que les cerveaux artificiels ne peuvent pas exister. Il n’est pas impossible que dans un avenir relativement proche les ordinateurs dressent une liste de toutes les choses que les humains ne pourront jamais réaliser (malgré tous leurs efforts dans le génie génétique) comme par exemple appréhender la 5e dimension, résoudre l’hypothèse de Riemann, éliminer les guerres, les préjugés et la pauvreté ou, en l’espèce, comprendre la source de ses propres pouvoirs créatifs.
Bibliographie
Des DOI sont automatiquement ajoutés aux références bibliographiques par Bilbo, l’outil d’annotation bibliographique d’OpenEdition. Ces références bibliographiques peuvent être téléchargées dans les formats APA, Chicago et MLA.
Format
- APA
- Chicago
- MLA
Bibliographie
Blackmore J. S., The Meme Machine, Oxford, Oxford University Press, 1999.
10.1016/S0004-3702(98)00055-1 :Boden, M. A., «Creativity and artificial intelligence», Artificial Intelligence, 103, 1998, p. 347-356.
10.4324/9781912281251 :Dawkins R., «The Selfish Gene», New York, Oxford University Press, 1989.
Dawkins R., in J. Brockman (éd.), What We Believe But Cannot Prove, Simon & Schuster Pocket Books, 2005, p. 9.
Dennett D. C., Consciousness Explained, Boston, Little, Brown & Co, 1991.
Dennett D. C., Darwins’ Dangerous Idea, New York, Simon & Schuster, 1995.
10.1016/S1053-8100(02)00046-6 :Dietrich A., «Functional neuroanatomy of altered states of consciousness: The transient hypofrontality hypothesis», Consciousness and Cognition, 12, 2003, p. 231-256.
Dietrich A., «The cognitive neuroscience of creativity», Psychonomic Bulletin & Review, 11, 2004, p. 1011-1026.
10.1016/j.concog.2004.07.002 :Dietrich A., «Neurocognitive mechanisms underlying the experience of flow», Consciousness and Cognition, 13, 2004, p. 746-761.
Dietrich A., «Who is afraid of a cognitive neuroscience of creativity?», Methods, 42, 2007, p. 22-27
Dietrich A., Introduction to Consciousness, Basingstoke, Palgrave Macmillan, 2007.
10.1038/nn733 :Fletcher P. C., Anderson J. M., Shanks D. R., Honey R., Carpenter T. A., Donovan T., Papdakis N., & Bullmore E. T., «Responses of the human frontal cortex to surprising events are predicted by formal associative learning theory», Nature Neuroscience, 4, 2001, p. 1043-1048.
10.1007/BF00175355 :Koza J. R., Genetic programming: On the programming of computers by means of natural selection, Cambridge, MA, MIT Press, 1992.
Miller E. K., & Cohen J. D., «An integrative theory of prefrontal cortex function (Pour une théorie intégrative de la fonction du cortex préfrontal)», Annual Review of Neuroscience, 24, 2001, p. 167-202.
Newell A., & Simon H. A., Human problem solving, Englewood Cliffs, NJ, Prentice Hall, 1972.
10.1037/0033-295X.104.1.66 :Simonton D. K., «Creative productivity: A predictive and explanatory model of career trajectories and landmarks», Psychological Review, 104, 1997, p. 66-89.
10.1037/0033-2909.129.4.475 :Simonton D. K., «Scientific creativity as constrained stochastic behavior: The integration of process, and person perspectives», Psychological Bulletin, 129, 2003, p. 475-494.
10.1017/9781316979839 :Ward T. B., Smith, S. M., & Finke, R. A., «Creative cognition», in R. J. Sternberg (éd.), Handbook of Creativity, New York, Cambridge University Press, 1999, p. 189-212.
Notes de bas de page
2 Note du traducteur : dans la métaphore de Dennett, les crochets célestes, engins à soulever miraculeux ne possédant aucune assise terrestre, s’opposent aux grues, engins à soulever qui nécessitent un ancrage solide sur un sol ferme.
Auteurs
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
À quoi sert aujourd'hui la psychologie sociale ?
Demandes actuelles et nouvelles réponses
Gérard Guingouain et François Le Poultier (dir.)
1994
Psychologie sociale et formation professionnelle
Propositions et regards critiques
Jacques Py, Alain Somat et Jacques Baillé (dir.)
1998
La maîtrise du langage
Textes issus du XXVIIe symposium de l’Association de psychologie scientifique de langue française (APSLF)
Agnès Florin et José Morais (dir.)
2002
L'apprentissage de la lecture
Perspectives comparatives
Mohamed Nouri Romdhane, Jean Emile Gombert et Michèle Belajouza (dir.)
2003
Réussir à l'école
Les effets des dimensions conatives en éducation. Personnalité, motivation, estime de soi, compétences sociales
Agnès Florin et Pierre Vrignaud (dir.)
2007
Lire-écrire de l'enfance à l'âge adulte
Genèse des compétences, pratiques éducatives, impacts sur l'insertion professionnelle
Jean-Pierre Gaté et Christine Gaux (dir.)
2007
L’apprentissage de la langue écrite
Approche cognitive
Nathalie Marec-Breton, Anne-Sophie Besse, Fanny De La Haye et al. (dir.)
2009
Musique, langage, émotion
Approche neuro-cognitive
Régine Kolinsky, José Morais et Isabelle Peretz (dir.)
2010