Un ouvrage en histoire comme en sciences humaines peut n'être vendu qu'à 300 exemplaires, même quand son auteur est renommé et que la maison d'édition dispose d'un bon réseau de diffusion (ex: G. Noiriel rappelle que «plusieurs titres de notre collection chez Belin n'ont pas dépassé les 400 exemplaires»). La vente de 800 exemplaires constitue déjà un succès éditorial. Pour expliquer cet état de faits, on peut incriminer le trop grand nombre de publications, la baisse d'intérêt pour la lecture etc. Mais je préfère, comme Philippe Schuwer (Le grand atlas des littératures, Encyclopaedia Universalis France, 1990, pp. 398-399), le relier à la crise éditoriale française, qui date des années soixante-dix: celle-ci, après avoir vécu sur ses rentes durant un siècle, a soudain découvert la concurrence internationale et en a épousé les méthodes: diffusion en un temps limité, valorisation des best-sellers, association avec d'autres industries de masse, comme la presse et l'audiovisuel, autonomisation des centres de diffusion/distribution. La durée de vie du livre «s'abrégea [alors] d'année en année». Aussi, 10 mois après sa parution, un ouvrage érudit comme «L'école républicaine et les petites patries» de Jean-François Chanet (Paris, Aubier, 1996) était disponible dans une seule librairie parisienne.
Tout opposé est le rapport au temps des revues: leur fonctionnement est très lent, et souvent les comptes rendus d'ouvrages surviennnent trois ans après publication. Ainsi leur efficacité est nulle: ou l'on découvre l'existence de l'ouvrage quand il est introuvable, ou on l'a déjà lu et le compte rendu ne sert qu'à reproduire un processus obsolète de reconnaissance d'un chercheur par ses pairs. Par ailleurs, la faible diffusion des revues savantes les incite à publier des articles synthétiques, débarrassés de tous types de sources, suivis de comptes rendus trop brefs pour compléter la synthèse de l'ouvrage commenté d'une critique scientifique. Enfin, la faible culture technique des éditeurs comme des imprimeurs interdit quasiment toute publication de document graphique, en couleur comme en noir et blanc.
La publication de documents visuels est aussi considérablement simplifiée et peut s'accompagner d'extraits sonores ou vidéo, que le support papier ne pouvait accueillir. Gardons néanmoins à l'esprit les limites propres à Internet: si le format de page peut être fixé (en pdf), la diversité des écrans rend difficile un étalonnage des couleurs (instabilité d'une charte graphique). Mais une autre possibilité apparaît, notamment dans le domaine de la cartographie: on peut, outre la publication de quelques cartes synthétiques et bien commentées, laisser au lecteur le soin d'en réaliser autant qu'il veut, en fonction de ses centres d'intérêt. Ces atlas dynamiques sont à la carte ce qu'un interrogateur textuel est au texte. (ex: barthes.ens.fr/atlasclio, barthes.ens.fr/carto/era face à barthes.ens.fr/atelier/actuel/France-oct-99.gif et à barthes.ens.fr/atelier/actuel/Monde-oct-99.gif);
Ce déplacement de la matérialité du papier au disque dur, et du camion au réseau, favorise aussi un autre mode de publication des revues, où les articles ne sont pas contraints par des délais ou par une masse critique de pages pour paraître. Et les corrections comme les mises à jour sont considérablement simplifiées.
De notre expérience ressort le fait que l'interactivité entre les auteurs et leur lectorat est faible, même quand elle est favorisée par l'incitation à correspondre par mail. Mais, dans une logique de recherche, cela peut suffire car le serveur crée alors, comme l'explique Philippe Rygiel, un effet «aimant»: d'autres chercheurs, français ou étrangers, se proposent de collaborer avec l'équipe et les relations nouées sont souvent très fructueuses.
En revanche, les pratiques du lectorat sont archivées (dans les access_log) et l'auteur comme l'éditeur peuvent en tirer de riches informations: mode de navigation, mode d'accès à une page donnée (via un indexeur, la page de garde, ou direct -forme d'abonnement), etc. Ces pratiques définissent des profils au sens où leur agrégation donne du sens. En effet, on ne dispose pas de l'identité du lecteur, mais de celle d'une machine; pire, ce repérage n'est pas bi-univoque si l'on n'installe pas des cookies ou si celles-ci sont refusées (ex. des modems des providers).
Cette mesure des pratiques du lectorat peut conduire à de premières inquiétudes éditoriales: l'innovation n'est pas valorisée: nous l'avons vérifié à nos dépens en mesurant le très faible succès de notre atlas de l'immigration (barthes.ens.fr/atlasclio, 60 accès par mois à ses débuts, il y a un an, 800 aujourd'hui sur un total de 25000); l'insertion de copies d'archives, sources essentielles pour l'historien, est elle aussi boudée (barthes.ens.fr/clio/illusref/a.gif, jusqu'à g.gif).
Elle peut aussi mener à favoriser la publication de textes brefs, puisque les textes de plus de 5 pages semblent ne pas être lus. De telles analyses sont en fait erronées: les pages non-lues sont souvent des pages non-vues. En effet, on oublie fréquemment que la moitié du lectorat est constituée de machines pures (sans humains derrière les claviers): dans une première estimation qui ne mesure pas l'incidence des caches, les indexeurs (moteurs de recherche) sont responsables de la moitié des accès à notre site barthes.ens.fr.
Ici nous touchons à un phénomène essentiel dans la promotion-réception de pages Internet. Il existe en effet deux méthodes pour faire connaître un serveur; l'une concentre toutes les modalités techniques du bouche à oreille: envois de mails collectifs, participation à des listes de discussion (ou gestion de ces listes) etc. L'autre renvoie à un lecteur autonome, qui interroge des indexeurs pour obtenir une information précise. Cela suppose que le serveur soit régulièrement référencé (après trois mois, les indexeurs «oublient» de revenir) et que les pages soient construites d'une façon qui corresponde à l'algorithme de l'indexeur: en effet, la majorité des moteurs de recherche n'effectuent leur indexation que sur l'équivalent de la première demi-page d'un document, mots clés (keywords) inclus. Ce qui signifie que 95% des mots d'un texte de 10 pages ne seront jamais indexés.
Nous visualisons là clairement une nouvelle pratique éditoriale, qui consiste à définir des mots-clés pertinents, à demander aux auteurs de rédiger un résumé de leur texte, et à spécifier régulièrement aux indexeurs les pages, anciennes comme nouvelles, d'un site donné, voire... à payer pour que les pages du site apparaissent en bonne position dans la liste des réponses proposées. (+ erreur à ne pas commettre: pages dynamiques non référençables, cf. O. Jacob, rechercher «Charles Goldfinger est consultant international en stratégies», sur un indexeur quelconque... www.odilejacob.fr/index.asp). Cette démarche est essentielle pour se faire connaître des lecteurs.
Je concluerai en insistant sur le poids des traditions socio-économiques, dans l'espace de l'édition comme dans l'espace académique pour expliquer le besoin des chercheurs dynamiques de maîtriser les techniques contemporaines: dans un monde paralysé, Internet est un refuge technique particulièrement attrayant pour les chercheurs qui prennent très vite conscience des pratiques d'exclusion des propriétaires de l'écrit. Ce faisant, les premiers nourrissent la recherche et se créent des niches de compétence, puisqu'ils doivent acquérir une compétence technique tout en complétant leur culture traditionnelle en sciences humaines. Mais je ne doute pas non plus de la capacité des éditeurs (publishers) à reconstituer une alliance avec les «editors», anciens ou modernes, pour reconquérir, de façon encore plus monopolistique, le territoire des revues savantes.