Lire, se souvenir, comprendre : interview de Thierry Baccino
Publié le
Nous publiions dans le numéro précédent de Dazibaola synthèse du colloque “Les métamorphoses numériques du livre”1, dont la conférence donnée par Thierry Baccino où il avait été principalement question de lecture sur écran. Il nous a semblé opportun d’enrichir auprès de lui cet éclairage scientifique des processus de lecture, et de mettre en lumière l’importance de la mémoire et du temps dans le parcours de compréhension de l’écrit. Chantre incontesté de la lecture rapide, François Richaudeau fait pour sa part référence en matière d’étude de la typographie et de la lisibilité dans les arts graphiques.
Bien que vivant dans la région Provence-Alpes-Côte d’Azur, les deux hommes ne s’étaient jamais rencontrés. De cultures et de générations différentes, ces deux penseurs de la lecture méritaient d’échanger leurs points de vue. Dazibao a organisé cette rencontre… et posé son micro. Nous rapportons ici l’essentiel de leurs propos ; l’intégralité de ces entretiens est disponible sur le site de l’Agence.
*Dazibao (D***) : Comment expliquer les différences de performance en lecture ?
Thierry Baccino (TB) : Il existe de très fortes différences individuelles dans la lecture. Si l’on observe les fixations oculaires des lecteurs rapides, moyens et lents, on se rend compte que le lecteur expert fait beaucoup moins de fixations que le lecteur lent…
D : Ce qui veut dire qu’à chaque fixation, l’œil du lecteur rapide saisirait plus de mots ?
TB : Le lecteur rapide a une meilleure compréhension du texte, parce qu’il va savoir utiliser en contexte ses connaissances, c’est-à-dire sa mémoire. On appelle cette activité de la mémoire en lecture : des inférences ; et l’on peut être beaucoup plus efficace – même sans avoir la connaissance du domaine traité – qu’un spécialiste qui ne ferait pas ces inférences, se basant uniquement sur ce qui est écrit.
D : L’efficacité du lecteur dépendrait donc de l’activité de sa mémoire ; plus on est actif, plus on essaie de deviner ce qui va suivre, plus on manipule mentalement les contenus réveillés par ces signes… ?
TB : Oui. Nous parlons plutôt de motivation, d’intérêt – pour acquérir une connaissance par exemple. C’est une question d’attention : l’attention est découplée par rapport au regard, mais si cette attention s’interrompt, si vous vous mettez à penser à autre chose, vous continuez de lire mais en ayant perdu tout intérêt… et donc vous ne mémorisez plus, vous ne comprenez rien.
D : Dans La lecture électronique, vous présentez les différents niveaux de mémoire mobilisés en lecture, et vous montrez que la mémoire de travail (MT)2 peut être exercée pour devenir une mémoire de travail à long terme (MTLT) : c’est le cas des lecteurs experts.
TB : La mémoire de travail à long terme… Oui, c’est une belle notion. Certaines personnes réussissent à entraîner leur mémoire pour la rendre extensible. Elle n’est pas extensible à l’infini, mais on peut l’améliorer par des exercices mnémotechniques, sur le principe des associations (associations de mots ou d’idées à des lieux, etc.). On peut comme ça améliorer la MT, qui est d’habitude très limitée : on sait que dans la lecture, on ne peut se rappelermot à mot que de la dernière phrase lue. Plus généralement, la MT est limitée à 7 items avec une variabilité de plus ou moins deux items selon les individus ; mais on peut développer une MTLT à condition de suivre un apprentissage motivé fondé sur la répétition.
D : Poursuivons sur les différents types de mémoire associés à la lecture, et plus précisément aux mots : là encore, vous faites plusieurs distinctions ?
TB : Oui. Pour le dire simplement, il y a la mémoire vraiment immédiate, de court terme (MT) ; et puis il existe une mémoire à long terme (MLT), un peu plus tortueuse, nous ne savons d’ailleurs pas très bien comment elle est organisée… Soit on voit la mémoire sous forme de niveaux, avec des capacités de stockage plus ou moins longues : la MLT quasiment infinie et la MT très limitée ; soit on la voit selon le contenu stocké, et dans la lecture, il y en aura deux qui seront importantes : la mémoire épisodique (ME) et la mémoire sémantique (MS). La MS, ce sont les définitions du dictionnaire, de l’information pure, indépendante de votre vécu.
Les linguistes ont l’habitude de présenter le mot comme ayant deux entités : le sens, le signifiant, et puis le référent, le référentiel. Le signifiant, c’est la définition que l’on partage tous. La mémoire épisodique (ME) est au contraire propre à chacun. La liaison se fait lorsque vous lisez un texte : chacune de ces mémoires sera activée à la lecture d’un même mot. La MS est beaucoup moins riche que la ME ; la MS n’est pas émotionnelle, alors que la ME l’est, parce qu’elle correspond aux événements de votre vie ; ça peut être lié à une rencontre, quelque chose de positif ou de négatif par ailleurs, mais c’est celle que l’on conserve le plus profondément.
D : Avec La lecture électronique, on apprend qu’il n’y a de perception visuelle que grâce au déplacement du regard, et on a envie de faire une analogie avec la mémoire, de comparer la mémoire à l’activité visuelle ; c’est-à-dire qu’une mémoire, c’est quelque chose de dynamique, et que pour ne pas la perdre, il faudrait que ce soit rafraîchi constamment… même si on ne s’en occupe pas. Il n’y a pas de souvenirs inertes, stockés quelque part comme des objets. Et de même, quand on lit, il faut que l’œil se déplace pour que le texte s’anime…
TB : Oui : le cerveau – comme tout le fonctionnement de l’être humain – est un système dynamique. Si on stabilise complètement un œil, l’image disparaît : on est aveugle. Parce qu’il faut absolument activer ses cellules rétiniennes pour pouvoir percevoir la lumière. Sans mouvement, on ne voit rien, on ne perçoit rien. Pour la mémoire, c’est un peu la même chose : les neurones sont fortement interconnectés, et le message électrochimique qui passe entre eux doit être réactivé régulièrement. C’est pour ça que si vous lisez une nouvelle information, si ça ne correspond pas à une espèce de choc émotionnel, ou à un intérêt particulier, et que surtout ce n’est pas répété, répliqué par la suite – si vous ne voyez cette information qu’une fois, en règle générale vous allez complètement l’oublier. D’où l’apprentissage par les situations répétées pour les enfants. Et pour les adultes, c’est pareil, la redondance permet de stabiliser une configuration neuronale, parce que c’est un réseau qui a besoin d’être réactivé en permanence.
D : Il y a cependant certains mots qu’on lit très très rarement, et dont on se souviendra pourtant… toute sa vie !
TB : Ça a pu correspondre à une particularité de ce mot, sa musique, sa beauté… C’est un facteur qui revient souvent dans les expériences sur la lecture : c’est ce que l’on appelle les mots fréquents versus les mots rares. Les mots rares sont fixés beaucoup plus longtemps que les mots fréquents, bien sûr, parce que cela correspond à une phase de récupération plus complexe.
Mais… il y a un équilibre à trouver : les mots fréquents, précisément parce qu’on les utilise fréquemment, portent souvent moins d’informations que les mots rares. Ils seront donc traités très rapidement, mais moins bien mémorisés. En revanche, un mot assez rare, pas trop rare mais assez rare, pèsera plus parce qu’il sera plus informationnel.
D : Si on pense en terme de phrase, donc avec un premier niveau d’intégration, peut-être qu’un assemblage de mots très simples créera une information qui sera elle-même très particulière ?
TB : Là, on se situe effectivement à un autre niveau. Si on parle au niveau un peu plus large de la phrase voire du paragraphe, il n’est plus question de fréquence, mais d’essayer de trouver le paragraphe ou la phrase qui puisse évoquer la situation la mieux connue et l’information qui est la plus généralement partagée, parce que ce sera la condition d’une bonne mémorisation.
D : Vous ne vous intéressez plus seulement aux problèmes de visibilité occasionnés par les écrans, comme le scintillement créé par le balayage ou le rétroéclairage qui freine ou perturbe la lecture… Vous modélisez maintenant l’étape au-dessus, c’est-à-dire la compréhension.
TB : On me demande aujourd’hui de développer de nouvelles technologies, en relation avec des informaticiens, c’est-à-dire de modéliser les comportements en lecture pour écrire des programmes sensés simuler ce que fait un être humain, puis développer les interfaces cerveau/ordinateur.
D : L’apparition de l’imprimé a engendré toute une série de critiques, et principalement celle de nous faire perdre l’essence de la connaissance, c’est-à-dire la mémoire, parce qu’en déléguant sa mémoire dans un objet extérieur on risquait de la perdre… En même temps, cela permet d’augmenter le volume de connaissance disponible et donc de potentiellement la suractiver…
TB : L’être humain a cette faculté… c’est l’animal le plus intelligent ; mais le livre est une mémoire externe. Je crois donc que le moment où un nouvel outil apparaît correspond à une adaptation supplémentaire à notre environnement. Mais on peut s’adapter jusqu’à certaines limites. Et sur Internet, il y a des limites qui sont nettement dépassées : ce n’est pas possible de traiter cinquante informations qui arrivent en même temps. D’autre part, ce qui était important avec les livres, c’était l’accès au contenu. Comprendre était un processus assez long. Maintenant, on a tout sur Internet, tout de suite, on a des moteurs de recherche pour cela, et le marché a changé : il ne porte plus sur le contenu mais sur l’attention, et c’est cette attention qui est monnayée. Le contenu n’est plus tellement un enjeu. La conséquence qui me semble dommageable d’un point de vue psychologique, c’est donc la question du temps : on n’a plus le temps. On n’a plus le temps de tout percevoir, de prêter suffisamment d’attention, et donc de comprendre, sachant que la compréhension requiert un effort de la mémoire et donc de l’attention. Quelle société veut-on ? Est-ce une société tayloriste de pure efficacité ? – c’est le fameux “time is money” : le temps, cela a une rentabilité économique. Ou est-ce une société où le contenu reste ce qui compte avant tout ? Et peu importe le temps qu’on puisse mettre…
D : Est-ce qu’une société orale ne va pas plus profiter de l’introduction de ces nouveaux outils et s’en saisir facilement, instinctivement ?
TB : J’ai plutôt l’impression qu’on va de plus en plus vers l’écrit, parce que l’écrit est beaucoup plus efficace que le son, qui est séquentiel : il faut parler et on est canalisé dans la linéarité du temps de l’écoute, alors que le regard est capable de basculer très rapidement d’une information à une autre… On peut vous envoyer plusieurs informations visuelles, mais on ne peut pas vous les dire en même temps : on va vous les envoyer sur un écran, vous allez avoir six, sept blocs qui parlent de choses complètement différentes, et s’il y a quelque chose de très important, on va vous le mettre en rouge, et votre regard va être capté tout de suite… À mon avis, le visuel est beaucoup plus efficace que l’auditif. D’autre part, il permet d’apporter des indices perceptifs, comme le soulignement, les différences de graisse, etc. Pourquoi recourir à la mise en page ? On pourrait dans un même livre tout présenter au kilomètre ; mais on met en page pour accentuer la mémorisation en rehaussant le niveau d’attention.
D : Et le multimédia ? Est-ce que ça ne pourrait pas favoriser la mémorisation, étant donné qu’il est plus riche que simplement du noir sur blanc ?
TB : Le livre est un contexte pauvre… éventuellement, il y a l’image. Avec le multimédia, on se retrouve dans un contexte qui est beaucoup plus riche. Mais il faut l’employer avec parcimonie : on ne peut pas tout mettre. Ce qui signifie qu’une certaine redondance est efficace, mais que la répétition à l’identique sous plusieurs formes est au contraire préjudiciable.
D : Concernant l’e-learning, auquel vous consacrez quelques paragraphes dans votre livre, quelque chose est frappant : l’analyse sémantique latente3.
TB : Ce sont des informaticiens qui ont inventé cela, initialement pour proposer aux bibliothécaires des moyens d’indexation automatique. Généralement, on indexe automatiquement les livres numérisés par auteur ou thème, mais sans pouvoir détailler le contenu, à moins de lire vraiment. Ils ont trouvé des méthodes statistiques pour pouvoir faire ces analyses de contenu et par extension, on utilise ces outils pour simuler la compréhension d’un lecteur. Dans mon modèle, on sait comment simuler où le regard va se poser, mais la compréhension c’est difficile parce que l’ordinateur n’a pas la mémoire humaine. Ce genre de programme permet de lui en donner un équivalent sur des thèmes donnés. Par exemple, on prend toutes les archives numériques du journal Le Monde sur plusieurs années : il y a des millions de mots… Ce programme va créer un tableau avec tous les mots du corpus associés à leur fréquence, et transposer cela dans un espace vectoriel à x dimensions (x représentant le nombre d’entités sémantiques contenues dans le corpus) : le sens d’une phrase pourra alors être représenté mathématiquement par une combinaison de vecteurs qui seront des vecteurs sémantiques. Il y a eu plusieurs applications ; l’une d’elles, aux États-Unis, consistait à automatiser la correction des copies d’étudiants…