Compte-rendu du colloque “Les Métamorphoses numériques du livre”

Voici le compte-rendu de l’intervention de Thierry Baccino, qui a eu lieu les 30 novembre et 1er décembre 2009 à la Cité du livre d’Aix-en-Provence, dans l’amphithéâtre de la Verrière, organisé par l’Agence Régionale du Livre (ARL).
 

Thierry Baccino – Les lectures numériques : réalité augmentée ou diminuée ?

Thierry Baccino est psychologue cognitif à l’Université de Nice, Sophia Antipolis. Son but est d’étudier le comportement du cerveau et les traces laissées par certaines réactions que le lecteur va utiliser pour lire.

Au cours de l’histoire, plusieurs supports de lectures ont été utilisés (volumen, codex, livre typographique) et ont évolués jusqu’au livre électronique que l’on connaît aujourd’hui. Mais une question se pose au vue de l’accélération de ces différentes présentations du texte : le cerveau humain évolue-t-il aussi vite lui aussi ? Aujourd’hui notre cerveau, bien qu’adapté, est le même que le cerveau des babyloniens. Si nous disposons de beaucoup plus de connaissances et d’informations, nous conservons cependant les même capacités d’apprentissage.

 Quelques rappels historiques

Au VIII et au IXème  siècle, des moines irlandais ont tenté de développer le texte de la Bible pour le faire lire à un plus grand nombre de personnes. Mais l’absence de segmentation entre les mots rendait la lecture difficile, et ils ont donc conçu un système de division entre les mots afin de faciliter la lecture.

 Du XVème siècle jusqu’à aujourd’hui, c’est le support du livre typographique qui se développe massivement.

Á partir de 1980, le nombre de supports de lecture se développent et se multiplient beaucoup plus rapidement : écrans d’ordinateurs, téléphone, i-phone, ebook… Le moteur de ces évolutions actuelles est bien sur le profit économique. Les sociologues et les psychologues sont exclus de ce développement et ne peuvent que se poser la question : le lecteur va-t-il s’adapter à toutes ces évolutions ? Les conclusions de Thierry Baccino nous amènent à penser que rien n’est moins sûr.

Arguments 

La multitude  des supports est assimilée à la multitude d’informations. Par exemple, la plus grande bibliothèque du monde, la bibliothèque du Congrès à Washington (Etats-Unis) dispose de dix fois moins de document que l’on peut en trouver sur Internet. Or, toutes ces informations sont toujours traitées par le même cerveau, celui dont disposaient les babyloniens près de 2000 ans avant notre ère.

Lire est un acte différent de celui de rechercher une information. Il est possible d’analyser ces deux actions grâce à des occulomètres : ce sont des appareils qui enregistrent le mouvement des yeux, les fixations et les saccades. Dans l’exemple de la lecture d’une page d’un livre classique (lecture de type « profonde »), le mouvement de l’œil est linéaire, de gauche à droite et de haut en bas. Le cerveau comprend le contenu de ce qu’il est train de lire, il peut l’analyser. Or, l’exemple de la lecture d’une page Web, analysée grâce à un occulomètre montre bien qu’ici, la lecture est sélective. L’œil va partout, il se promène sur l’ensemble de la page dans un mouvement de papillonnement. Le but est de repérer rapidement une information, l’analyse et la compréhension de cette information se fera plus tard, au besoin. Sur le Web, le foisonnement d’informations disponibles accentue cette tendance à faire de la lecture sélective. Il s’agit de zapper de bloc en bloc pour prendre de l’information, et de suivre des liens pour aller plus profondément dans l’analyse de cette information. Mais le suivi des liens sur Internet n’est pas toujours pertinent, et peut conduire à une désorientation cognitive : au bout d’un certain niveau de profondeur, le lecteur va perdre de vue l’objectif initial.

Travail des psychologues au niveau comportemental sur l’action de lire

L’acte de lire peut s’analyser en trois phases universelles (chez tous les modes d’écriture) :

            1 –  détecter les lettres (visibilité)

            2 – identifier les mots (discriminabilité)

            3 – comprendre le texte (intégration)

Nous n’avons qu’une seule région du cerveau dédié à la reconnaissance des mots écrits : elle se trouve dans l’hémisphère gauche (pour la reconnaissance des mots oralisés, c’est une autre région du cerveau qui s’en charge). Mais la lecture numérique active d’autres actions : cliquer, vouloir aller sur un lien… Dans ces cas là, ce sont d’autres régions du cerveau qui s’activent, et la lecture est d’emblée différentes de celle d’une simple page papier.

1 – Comment est-ce qu’on voit ? (il s’agit du principe du déplacement des yeux dans la lecture, et non pas dans la visualisation d’une image)

  • Vision fovéale : à chaque fixation de l’œil sur un mot, nous ne sommes capables de ne distinguer clairement que quatre lettres. Cette vision est appelée la vision fovéale. L’œil n’est pas une caméra, il ne fixe pas tous les mots (c’est pour cette raison que les yeux bougent en permanence). L’œil ne fixe pas les articles, les déterminants, il ne fixe que les mots importants pour en saisir le sens. La signification des mots plus petits est devinée par le cerveau, mais pas lu directement par l’œil.

 

  • Vision parafovéale : elle permet de percevoir un certain type d’informations autour du mot, mais pas le mot lui-même (si la phrase est longue, combien de mots entourent mot que je fixe avec ma vision fovéale etc…). Pour les cerveaux lisant de haut en bas et de gauche à droite (comme par exemple pour  l’écriture d’origine latine), l’empan visuel est plus étendu à droite qu’à gauche. Pour le Chinois par exemple, qui se lit de haut en bas, l’empan visuel est plus étendu en bas. Pour l’Arabe, il l’est d’avantage à gauche, etc. Cela démontre ici une capacité certaine du cerveau à s’adapter.  

Les conséquences de la lecture sur écran sur la vision : l’empan visuel diminue sur un écran rétro-éclairé (ordinateur, téléphone…) avec :

_ Le contraste (la couleur des caractères / la couleur du fond) : la couleur de fond blanche est idéale pour le papier, mais pas pour un écran qui réfléchie la lumière (ce qui n’est pas bon pour l’œil).

_ L’espacement inter-caractère (entre les mots et les lignes)

_ L’emploi de colonnes réduites : la lecture sur de petits écrans obligent en permanence les yeux à faire des allers-retours (des études démontrent que moins de 40 caractères par ligne pose problème pour la lecture).

La lecture à haute dose sur un écran rétro-éclairé entraîne une fatigue visuelle conséquente.

La fixation oculaire : quand on fixe un mot, on le fixe plus ou moins au centre. Quand on ne comprend pas ce mot, on le fixe deux fois. Certains écrans nous obligent d’emblée à fixer ce mot deux fois, comme par exemple un fond coloré ou en mosaïque qui obligent à faire une double fixation : une première sur le début du mot, et une deuxième fixation sur le milieu du mot. Ainsi, la lecture sur des écrans rétro-éclairés nous oblige à faire un effort de 25% de fixation en plus.

2 – Identifier les mots / les lettres

Le cerveau humain est très bon pour identifier les lettres. Le processus est très efficace, il prend environ ¼ de seconde. Mais un ordinateur a des difficultés pour reconnaître des lettres de formes ou de typographie différentes. De même, on ne fixe pas les mots lettre par lettre mais de manière globale. L’ordinateur lui n’est pas capable de faire cela.

De plus, dans un traitement de texte on utilise un curseur pour se déplacer sur la page, de haut en bas et de droite à gauche. Ce ne sont plus nos yeux qui défilent, mais la page elle-même grâce aux flèches de déplacement. Or, c’est un vrai problème pour la lecture parce qu’ainsi on détruit « la mémoire spatiale du lecteur » : lorsqu’on lit un mot sur une page d’un livre papier, on peut se rappeler après, avoir lu d’autres pages, que le mot en question était situé à un endroit bien précis de la page (en haut à gauche, en bas au milieu…). Le « scrolling » (procédé qui permet de faire défiler la page grâce au curseur) supprime cet effet en dégradant la mémoire spatiale du lecteur.

3 – Comprendre le texte

Le cerveau, au cours de la lecture, essaie de tisser des liens mots, entre les mots du texte mais aussi avec les mots hors du texte. On lie l’information que comporte le mot avec le mot lui-même, mais aussi avec les mots du paragraphe précédent pour essayer de traiter la cohérence. C’est ce qui va permettre de comprendre le texte, et qui explique aussi que l’on puisse lire un texte sans le comprendre. On lit un texte avec notre mémoire, nos connaissances et sans cela, on ne peut pas le comprendre. On va projeter sur ce texte nos propres connaissances individuelles. Mais établir une cohérence entre les mots, les phrases, les paragraphes et nos propres connaissances nécessite une lecture attentive 

Est-ce la même chose pour les hypertextes (les liens que l’on peut suivre sur Internet et qui mènent à d’autres sources d’information) ? L’hypertexte pose un problème de cohérence : dans un texte papier, l’auteur guide lui-même le lecteur pour que la compréhension soit la plus simple possible. Mais dans l’hypertexte, cette démarche est propre au lecteur. Paradoxalement, il est beaucoup plus difficile de lire lorsque l’on peut faire des choix que lorsque la lecture nous est imposée. A force de suivre de trop de liens et de choisir de suivre différentes informations, il arrive souvent que l’on perde l’information de base que l’on était venu chercher.

Le problème qui se pose également est celui de la mémoire :

            _ la mémoire à court terme: mémoire de travail , qui est très limitée

            _ la mémoire à long terme, qui existe depuis la naissance et qui est quasiment infinie.

Le but de la mémoire à court terme est de servir de filtre pour la mémoire à long terme, également appelée « mémoire interne ». Mais l’hypertexte pose problème, car la mémoire pour stocker toute cette masse d’information est limitée. Dans l’hypertexte, les novices ont tendance à prendre tout ce qu’il trouvent et à suivre tous les liens, tandis que les chercheurs eux sélectionnent mais ont plus de mal à choisir les « bonnes » informations. Les hypermédias entraînent des difficultés pour lier les informations entre elles, la perte de l’objectif initial poursuivi par le lecteur et enfin une difficulté de mémorisation.

La loi de Hick

Sur le Web, la lecture doit être efficace et rapide. Ce n’est d’ailleurs pas une lecture à l’origine, mais une recherche d’information qui peut ensuite devenir, dans le meilleur des cas, une véritable lecture. Sur le Web, la lecture devient un écrémage d’informations. Il y a une surcharge cognitive, puisque lorsqu’on lit un livre papier on n’a pas de décision à prendre. Sur le Web, oui. Cela s’appelle la Loi de Hick : le temps qu’il faut à un utilisateur pour prendre une décision augmente en fonction du nombre de choix qu’il a à sa disposition.

Multimodalité

Le mieux (ici la possibilité d’avoir accès en même temps à du texte, de la vidéo, des commentaires oraux…) est parfois l’ennemi du bien (le texte seul). La question qui se pose aujourd’hui est la suivante : comment intégrer toutes ces informations en sachant que nos capacités visuelles et mnésiques (de la mémoire) ne sont pas très extensibles ? 

Ecran éléctronique des e-books

Les e-books ne présentent pas de problème du point de vue du rétro-éclairage. La lisibilité sur ces écrans se fait en lumière naturelle, et permet un confort visuel identique à celui du papier. La consommation électrique est faible, l’écran est souple, solide et parfois même étanche. 

Le problème ne se pose donc pas au niveau de l’éclairage, mais au niveau du changement de page : lorsqu’on change de page sur un e-book, il y a un bref passage en écran noir et cela perturbe fortement la lecture. De plus, la qualité du blanc de l’écran n’est pas parfaite (pour l’instant). Le blanc est blanc à 45% pour un e-book, et à 80% sur un livre papier. Mais ces deux problèmes (éclairage et blancheur de l’écran) sont des inconvénients techniques dû à la nouveauté de ces appareils. Avec le temps et l’évolution de la technique, il deviendra facile de les résoudre.
 

Ouvrages

_ Baccino, T. (2004) La lecture éléctronique, PUG, Coll. Sciences et Technologies de la Connaissance

_ Baccino, T. (2005) Mesure de l’utilisabilité des interfaces, Hermès Science Publisher, Paris

Liens

_  Un site sur Thierry Baccino, son activité à la Cité des Sciences et de l’Industrie et ses publications.

Thierry Baccino a publié un nombre très important d’articles sur le sujet. Certains sont accessibles en ligne ou téléchargeables gratuitement sur le site donné ci-dessus.

Pour consulter les autres comptes-rendus du colloque :

_ Intervention d’Hervé Le Crosnier (enseignant-chercheur à l’Université de Caen), Pratiques de lecture à l’ère de l’ubiquité, de la communication et du partage de la connaissance

_ Intervention de Marin Dacos (directeur du Centre pour l’édition electronique ouverte – Cléo – et ingénieur de recherche au CNRS), Read/Write book : le livre devient inscriptible

_ Intervention d’Isabelle Le Masne (adjointe au directeur des collections à la bibliothèque nationale de France), La bibliothèque numérique de la BnF

_ Intervention de Brigitte Simonnot (maître de conférences en Sciences de l’Information et de la communication à l’Université Paul Verlaine de Metz, chercheur au Centre de Recherche sur les Médiations) Nouvelle médiations, nouveaux médiateurs de la lecture numérique 

_ Intervention de Bernard Stiegler (philosophe, directeur du département du développement culturel au Centre Georges-Pompidou), La grammaticalisation du lecteur

_ Intervention d’Alain Giffard (Directeur du Groupement d’intérêt scientifique Culture & Médias numériques, animateurs de l’association Ars Industrialis crées par Bernard Steigler), La lecture numérique peut-elle se substituer à la lecture publique ?