Dans la suite, un ordinateur est pris dans son sens commun contemporain: nous oublierons donc l’ENIAC et ses trente tonnes (1943) pour ne considérer que des objets constitués d’un écran, d’un clavier, d’un système de traitement des signes et d’un système d’archivage. A cette configuration minimale, dont nous demandons qu’elle permette de lire et d’écrire 1, peuvent s’ajouter divers autres « périphériques », comme la souris ou le joystick, l’imprimante, etc., mais aussi d’autres éléments de base: deux ou plusieurs unités centrales reliées par un réseau, deux écrans, d’autres imprimantes, etc. Ces divers éléments ne sont pas nécessairement en un même lieu.
Plus en rapport avec l’internet, une imprimante commandée à distance —pour les besoins du télégraphe— est testée en 1902 5; Édouard Belin fabrique son bélinographe 6 en 1907. Le tube à faisceau cathodique est conçu en 1897 par l’allemand Karl Braun 7. Vannevar Bush construit un réel ordinateur en 1927, mais on oublie que celui-ci est analogique. Il faut attendre 1940 pour que le codage numérique, décrit comme l’essence de l’informatique, apparaisse avec la machine de George Stibitz reliée par téléphone à un teleprinter.
On pourrait considérer que les réseaux informatiques actuels, au premier lieu desquels l’internet, ont donc plus de 60 ans, et qu’à l’exception de la souris, les composants de nos ordinateurs sont centenaires.
Certes, quelques améliorations techniques se sont produites, dues en grande partie aux progrès de l’électronique (semi-conducteurs, circuits intégrés, micro-processeurs, etc.). Mais le résultat actuel est plus le fruit d’associations inédites d’objets connus et de lentes améliorations que de pure « innovation ». Par exemple, les travaux sur l’interface graphique se développent dans les années 1970, parce que l’écran de télévision devient abordable et peut être utilisé comme terminal d’un micro-ordinateur 8.
Pour éviter une surenchère dans l’hagiographie confinant au culte du progrès technique, nous nous contenterons de rappeler quelques faits supplémentaires en liaison avec notre recherche: en 1977, Steve Wozniak et Steve Jobs commercialisent l’Apple II 9, premier micro-ordinateur massivement vendu 10. Fait essentiel pour notre propos, le tableur « Visicalc » (1979) est à lui seul responsable du quart des ventes 11. Les premiers ordinateurs à système d’exploitation commandé par interface graphique sont en 1983, le Lisa, puis en 1984, le Macintosh, tous deux produits par la marque Apple. Le statut de l’ordinateur peut alors être comparé à celui de la voiture, puisque tous deux peuvent se piloter sans expertise « informatique » ou mécanique. Mais cette analogie fortement répandue étouffera tout questionnement sur les transformations des pratiques d’écriture, tandis que les objets se multiplient: avec le langage POSTSCRIPT (1982) et les imprimantes laser (1984), les conditions sont réunies pour que l’ordinateur puisse pénétrer dans le cercle fermé des mondes lettrés. Parallèlement, d’autres ordinateurs sont développés, comme ceux qui utilisent le système d’exploitation Unix; mais ils resteront longtemps réservés aux professionnels de l’informatique scientifique, notamment à cause de l’absence d’environnement graphique.
La souris 15 donne l’impression formidable d’être toujours au cœur du texte, de le manipuler, de le réorganiser en le pensant comme objet graphique, au point que certains traducteurs, comme Jean-René Ladmiral 16, considèrent que l’ordinateur propose un retour au stylo, antérieur à la distanciation du texte induite par la machine à écrire. On en oublierait presque les commandes que rend accessibles la souris, par le biais de la sélection des « menus ».
Ces deux objets ne servent donc pas qu’à saisir ou reproduire du texte, mais à le manipuler, le réordonner, grâce à d’autres fonctionnalités permises par la machine. On est dans le registre du « bras articulé », et la proximité entre texte et pensée est accrue.
En effet, la majorité des « programmes », ces successions de phrases interprétables par la machine, se ressemblent, et il fallait pouvoir réorganiser de façon rapide —et si possible systématique— les unes pour en réaliser d’autres. D’où le besoin de rechercher du texte, de le remplacer, de le déplacer, de le dupliquer. Cette production textuelle massive destinée à multiplier le nombre de tâches que peut réaliser un ordinateur a donné lieu à la construction de « bibliothèques de ressources » 18, indispensables aux programmeurs: ce sont en fait des milliers de routines, de programmes spécifiques qui peuvent être aisément sollicités par d’autres programmes.
Ce besoin impérieux d’écrire, de transmettre du code coûte que coûte, s’est encore amplifié avec le développement des réseaux: non seulement il faut « traverser » les diverses strates d’un ordinateur, mais, depuis 20 ans à 30 ans, les différentes « couches » de ces réseaux. Partant de leur hétérogénéité, ces couches ont été définies de façon à normaliser les opérations qui permettent l’interconnection des machines: « les concepts de base de cette architecture constituent le modèle de référence pour l’interconnexion de systèmes ouverts —dit modèle OSI— dont les modalités sont réparties en [...] couche physique, couche liaison de données, couche réseau, couche transport, couche session, couche présentation, couche application » 19.
Ainsi, les textes de l’informaticien et de l’utilisateur sont-ils appelés à subir de multiples transformations. Nous ne doutons pas que ces nouveaux statuts du texte, comme le développement des « outils » conçus pour l’appréhender, finiront par être perçus par un grand nombre d’auteurs, au-delà du monde des ingénieurs. Nous retrouvons là un aspect du processus réflexif de l’écriture, d’autant plus difficile à cerner que le respect des usages traditionnels incite à le masquer au mieux. Par exemple, la programmation, nouveau genre d’écriture, permet de fabriquer des outils qui donnent à l’utilisateur l’illusion que le traitement de texte modifie son mode de travail de façon minimale.
Ce type de paradoxe nous apparaît constant dans les discours et analyses relatifs à l’innovation: celle-ci ne se produit pas là où on l’évoque. Avec l’informatique, la technique reste dans le registre de la machine-outil qui allège des tâches et qui sert avant tout à reproduire —sans imagination— des pratiques enracinées 20. Cette logique d’effort physique, de travail « manuel », incite à négliger le caractère intellectuel des pratiques quand on est confronté à un ordinateur. Il semble pourtant que ce soit là que l’on puisse parler d’innovation, et non pas en expliquant aux érudits que le traitement de texte leur permet d’accéder au statut bien peu convoité de secrétaire. Pourtant, les discours sur l’innovation adhèrent doublement à la métaphore de la presse de Gutenberg: d’une part, en euphémisant toute forme de changement, comme l’inventeur l’a fait lui-même 21; d’autre part, en colportant une histoire mythique de cette invention, sous sa forme la plus réductrice 22: la technique génère des outils, qui, par magie, vont amplifier les potentialités de la pensée intérieure. Ici, le système de signes est oublié au profit d’une conception binaire de la matière et de l’esprit, incompatible avec une étude précise de l’invention et du fonctionnement des ordinateurs: certes, la combinaison d’instruments —d’usines, en fait— et d’un travail conceptuel permet de concevoir d’autres machines; mais celles-ci ne transforment pas la matière, elles sont avant tout destinées à la production de signes, peu ou prou associés à notre système graphique. Ces symboles ont deux fonctions entrelacées: la plus visible, destinée à l’auteur ou au lecteur, est aussi la plus traditionnelle. La seconde, assez masquée, est destinée à la gestion de ce système graphique. Cette double fonctionnalité permet le travail de production et de réorganisation des signes sans lesquels la pensée ne peut se déployer. Mais on remarque aussi un saut conceptuel, fruit d’une audace intellectuelle qu’on aurait tort de négliger, et générateur d’une nouvelle relation à l’écriture, qu’il convient de détailler.
Ce dédoublement du support, entre disque dur composé d’éléments magnétisés positivement ou négativement (d’où la notion de codage binaire), et écran, somme de points rouges, verts ou bleus, auparavant ou verts ou jaunes sur fond noir, induit un effet essentiel dans le code de l’écrit: au système graphique, mais aussi à la structure du texte, se surimposent des centaines de codages, au point que ces derniers priment sur les premiers.
Dans une acception simple, on pourrait supposer que le codage entre l’homme et la machine soit unique, et parfaitement réversible. L’ordinateur assurerait les deux traductions nécessaires, même si le système de signes serait étendu à un alphabet qui dépasse un cadre strictement national 25. On pourrait admettre que cet alphabet subisse des altérations, consécutives à des rapports de force culturels, comme cela se produit déjà: l’absence d’accents dans le premier code ASCII 26, la disparition du œ dans la graphie sur le Web en sont autant d’exemples 27.
Dans les faits, la situation est bien plus inquiétante; cette fonction de transcodage n’est plus maîtrisée par le scripteur, et finit par devenir opaque, même pour les informaticiens les plus érudits: déjà, des dizaines d’instructions s’intercalent entre le texte sur le disque et son affichage (déchiffrement des secteurs du disque, transmission à l’unité centrale, interprétation par un logiciel, commande d’une carte graphique pour afficher des dessins correspondant à une police de caractères, etc.). Si celles-ci sont encore vaguement « normalisées », les codages induits par les logiciels, souvent appelés « formats », sont tous différents, même s’il existe parfois des passerelles entre eux. Ce sont donc des centaines de codes qui s’interposent entre ce que le scripteur croit écrire et ce qui est véritablement inscrit 28: l’industrie ne propose pas toujours que des solutions rationnelles ou universelles...
On découvre alors, comme corollaire de cette distance entre espace de visualisation et espace de stockage, que le support n’existe pas sans codage, sans texte. Ce fait est essentiel, et il induit une association inattendue entre l’instrument et le système de signes: si le même texte, ici pris comme succession de caractères alphabétiques, pouvait être indifféremment écrit sur la pierre, la cire, le bois, le papier, aujourd’hui, son inscription sur un écran passe par un support qui est définitivement illisible si l’on ne dispose pas de toute une panoplie d’objets, physiques comme moins matériels: disque, écran, et leurs pilotes, logiciel, etc. Un même disque dur ne sera pas lisible par un autre système d’exploitation que celui qui l’a « formaté »; un document QuarkXPress écrit dans sa version 3.32 n’est pas lisible par la version 3.31 du même logiciel; une cartouche amovible n’entre pas dans un lecteur qui accepte un support de taille différente.
Cette dissociation entre lieux géographiques de la visualisation et du stockage induit toute une série de traductions qui deviennent de plus en plus difficiles à maîtriser, et qui finissent par unifier les notions, historiquement distinctes, de support et de système de signes, de matériel et d’écriture.