NEF - Le Livre 010101 de Marie Lebert - 1993-2003
Si la société de l’information nous est régulièrement annoncée depuis les années 1960, il semble que nous en vivions en fait les premières années. En quoi consiste la convergence multimédia, et comment affecte-t-elle l’industrie du livre? Faut-il légiférer ou non le cyberespace? Qu’en est-il de la propriété intellectuelle à l’heure de l’internet? Le document imprimé et le document électronique sont-ils complémentaires ou concurrents? Voici un point sur ces quelques questions.
8.1. Numérisation et convergence multimédia
8.2. Le droit du cyberespace
8.3. La propriété intellectuelle
8.4. Document imprimé et/ou électronique
Depuis trente ans, la chaîne traditionnelle de l’édition est soumise à de nombreux bouleversements. Dans les années 1970, l’imprimerie traditionnelle est d’abord ébranlée par l’apparition des machines de photocomposition. Le coût de l’impression continue ensuite de baisser avec les procédés d’impression assistée par ordinateur, les photocopieurs, les photocopieurs couleur et le matériel d’impression numérique. Dans les années 1990, l’impression est le plus souvent assurée à bas prix par des ateliers de PAO (publication assistée par ordinateur).
Toutes les informations doivent être numérisées pour permettre leur transfert par voie électronique. La numérisation permet de créer, d’enregistrer, de combiner, de stocker, de rechercher et de transmettre des textes, des sons et des images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l’écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l’écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l’édition (qui produit des livres) et l’industrie musicale (qui produit des disques) travaillent de concert pour produire des CD-Rom.
La numérisation accélère considérablement le processus matériel de production. Dans la presse, alors qu'auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes et les rédacteurs envoient maintenant directement leurs textes pour mise en page. Dans l’édition, le rédacteur, le concepteur artistique et le personnel chargé de la mise en page travaillent souvent simultanément sur le même ouvrage. On assiste progressivement à l’unification de tous les secteurs liés à l’information: imprimerie, publication, conception graphique, presse, enregistrement sonore, réalisation de films, radiodiffusion, etc. C’est ce qu’on appelle la convergence multimédia.
La convergence multimédia amène-t-elle des emplois nouveaux, comme l’assurent les employeurs, ou bien est-elle source de chômage, comme l’affirment les syndicats? Le Colloque sur la convergence multimédia organisé en janvier 1997 à Genève par l’Organisation internationale du travail (OIT) comprend des contributions particulièrement intéressantes à cet égard.
Peter Leisink, professeur associé d’études sociales à l’Université d’Utrecht (Pays-Bas), précise que les fonctions de correction d’épreuves et de rédaction s’effectuent désormais à domicile, le plus souvent par des travailleurs ayant pris le statut d’indépendants à la suite de licenciements, délocalisations ou fusions d’entreprises. "Or cette forme d’emploi tient plus du travail précaire que du travail indépendant, car ces personnes n’ont que peu d’autonomie et sont généralement tributaires d’une seule maison d’édition."
A part quelques cas particuliers mis en avant par les organisations d’employeurs, la convergence multimédia entraîne des suppressions massives d’emplois, comme pratiquement tous les changements liés à l’introduction des nouvelles technologies.
Selon Michel Muller, secrétaire général de la FILPAC (Fédération des industries du livre, du papier et de la communication), les industries graphiques françaises ont perdu 20.000 emplois en dix ans (1987-1996). Les effectifs sont passés de 110.000 personnes à 90.000. Les entreprises doivent mettre sur pied des plans sociaux très coûteux pour favoriser le reclassement des personnes licenciées, en créant des emplois souvent artificiels, alors qu’il aurait été très préférable de financer des études fiables sur la manière d’équilibrer créations et suppressions d’emplois, quand il était encore temps.
Partout dans le monde, de nombreux postes à faible qualification technique sont remplacés par des postes exigeant des qualifications techniques élevées. Les personnes peu qualifiées sont licenciées. D’autres suivent une formation professionnelle complémentaire, parfois auto-financée et prise sur leur temps libre, et cette formation professionnelle ne garantit pas pour autant le réemploi.
Lors du même colloque, Walter Durling, directeur des AT&T Global Information Solutions (Etats-Unis), insiste sur le fait que les nouvelles technologies ne changeront pas fondamentalement la situation des salariés au sein de leur entreprise. L’invention du film n’a pas tué le théâtre, et celle de la télévision n’a pas fait disparaître le cinéma. Les entreprises devraient créer des emplois liés aux nouvelles technologies et les proposer à ceux qui sont obligés de quitter d’autres postes devenus obsolètes. Des arguments bien théoriques alors que le problème est plutôt celui du pourcentage. Combien de créations de postes pour combien de licenciements?
De leur côté, les syndicats préconisent la création d’emplois par l’investissement, l’innovation, la formation professionnelle aux nouvelles technologies, la reconversion des travailleurs dont les emplois sont supprimés, des conditions équitables pour les contrats et les conventions collectives, la défense du droit d’auteur, une meilleure protection des travailleurs dans le secteur artistique, et la défense des télétravailleurs en tant que travailleurs à part entière. D’après les prévisions de la Commission européenne, l’Europe devrait compter 10 millions de télétravailleurs en l’an 2000, soit un cinquième du nombre de télétravailleurs dans le monde.
Malgré tous les efforts des syndicats, la situation deviendra-elle aussi dramatique que celle décrite dans une note du rapport de ce colloque, demandant si "les individus seront forcés de lutter pour survivre dans une jungle électronique avec les mécanismes de survie qui ont été mis au point au cours des précédentes décennies?"
Dans leur livre Cyberplanète: notre vie en temps virtuel (paru en 1998 aux éditions Autrement), Philip Wade et Didier Falkand indiquent que les Etats-Unis, le Canada et le Japon, pays qui investissent le plus dans les nouvelles technologies, sont aussi ceux qui créent le plus d’emplois. D’après une étude réalisée en février 1997 par le cabinet Booz, Allen & Hamilton pour les ministres européens de l’Industrie, le retard de l’Europe lui aurait coûté un million d’emplois en 1995 et 1996. Ce retard correspond à une croissance technologique faible, qui s’élève à 2,4% seulement, alors qu’elle est de 9,3% aux Etats-Unis. Selon une autre étude réalisée en janvier 1997 par la société conseil BIPE pour le compte de la Commission européenne, 1,3 million d’emplois pourraient être maintenus ou créés dans l’Union européenne d’ici l’an 2005. Les 300.000 suppressions d’emplois prévues chez les opérateurs traditionnels seraient compensées par 93.000 emplois créés par leur concurrents, auxquels s'ajouteraient 1,2 million d’emplois créés dans les secteurs suivants: télécommunications, construction électrique et électronique, équipement et distribution de produits de communication.
La distinction traditionnelle entre maison d’édition, éditeur de presse, librairie, bibliothèque, etc., sera-t-elle encore de mise dans quelques années? Le développement récent de l’édition électronique amène déjà des changements substantiels dans les relations entre les auteurs, les éditeurs et les lecteurs. Les catégories professionnelles forgées au fil des siècles: éditeurs, journalistes, bibliothécaires, etc., résisteront-elles à la convergence multimédia tout en s’adaptant au cyberespace, comme c’est le cas avec les premiers cyberthécaires, cyberéditeurs, cyberjournalistes, cyberlibraires, etc., ou bien toutes ces activités seront-elles progressivement restructurées pour donner naissance à de nouveaux métiers?
L’internet offre de réels avantages en matière d'emploi, notamment la possibilité de chercher du travail en ligne et de recruter du personnel par le même biais. Changer d’emploi devient plus facile et le télétravail ouvre de nouveaux horizons pour ceux qui préfèrent travailler chez eux. Isabelle Aveline, rédactrice du site littéraire Zazieweb, déclare en juin 1998: "Grâce à internet les choses sont plus souples, on peut très facilement passer d'une société à une autre (la concurrence!), le télétravail pointe le bout de son nez (en France c'est encore un peu tabou...), il n'y a plus forcément de grande séparation entre espace pro et personnel."
Claire Le Parco, de la société Webnet (qui gère le site Poésie française), précise à la même date: "En matière de recrutement, internet a changé radicalement notre façon de travailler, puisque nous passons maintenant toutes nos offres d'emploi (gratuitement) dans le newsgroup 'emploi'. Nous utilisons un intranet pour échanger nombre d'informations internes à l'entreprise: formulaires de gestion courante, archivage des documents émis, suivi des déplacements, etc. La demande des entreprises est très forte, et je crois que nous avons de beaux jours devant nous!"
Rédacteur et webmestre du Biblio On Line, un portail destiné aux bibliothèques, Jean-Baptiste Rey relate en juin 1998: "Personnellement internet a complètement modifié ma vie professionnelle puisque je suis devenu webmestre de site internet et responsable du secteur nouvelles technologies d'une entreprise informatique parisienne (Quick Soft Ingénierie, ndlr). Il semble que l'essor d'internet en France commence (enfin) et que les demandes tant en matière d'informations, de formations que de réalisations soient en grande augmentation."
Fabrice Lhomme, webmestre d’Une Autre Terre, site consacré à la science-fiction, raconte à la même date: "Une Autre Terre est un serveur personnel hébergé gratuitement par la société dans laquelle je travaille. Je l'ai créé uniquement par passion pour la SF et non dans un but professionnel même si son audience peut laisser envisager des débouchés dans ce sens. Par contre internet a bel et bien changé ma vie professionnelle. Après une expérience de responsable de service informatique, j'ai connu le chômage et j'ai eu plusieurs expériences dans le commercial. Le poste le plus proche de mon domaine d'activité que j'ai pu trouver était vendeur en micro-informatique en grande surface. Je dois préciser quand même que je suis attaché à ma région (la Bretagne, ndlr) et que je refusais de 'm’expatrier'. Jusqu'au jour donc où j'ai trouvé le poste que j'occupe depuis deux ans. S'il n'y avait pas eu internet, je travaillerais peut-être encore en grande surface. Actuellement, l’essentiel de mon activité tourne autour d'internet (réalisation de serveurs web, intranet/extranet,...) mais ne se limite pas à cela. Je suis technicien informatique au sens large du terme puisque je m'occupe aussi de maintenance, d'installation de matériel, de réseaux, d'audits, de formations, de programmation... (...) J'ai trouvé dans internet un domaine de travail très attrayant et j'espère fortement continuer dans ce segment de marché. La société dans laquelle je travaille est une petite société en cours de développement. Pour l'instant je suis seul à la technique (ce qui explique mes nombreuses casquettes) mais nous devrions à moyen terme embaucher d'autres personnes qui seront sous ma responsabilité."
Par ailleurs, plusieurs professionnels du livre décident de rejoindre des sociétés informatiques, ou alors de se spécialiser au sein de la structure dans laquelle ils travaillent, en devenant par exemple les webmestres de leur librairie, de leur maison d’édition ou de leur bibliothèque. Malgré cela, les perspectives d’emploi restent assez inquiétantes. De nombreuses tâches deviennent obsolètes avec l’introduction des nouvelles technologies. Les professionnels du livre pourront-ils tous se recycler grâce à des formations professionnelles adaptées, ou bien seront-ils frappés de plein fouet par le chômage?
Lié à la fois au droit informatique en place et à quelques législations balbutiantes, le droit du cyberespace est en train d’émerger - non sans mal - d’un réseau en ébullition. On tente de redéfinir des domaines existants tels que la propriété intellectuelle ou la censure. On tente aussi d’en définir de nouveaux, comme la responsabilité ou non des fournisseurs d’accès internet vis-à-vis de l’information circulant par leur intermédiaire.
Créées en été 1992 par Paul Southworth à l’Université du Michigan (Etats-Unis), les ETEXT Archives se donnent pour but de rassembler des textes électroniques de toutes sortes: textes politiques, textes personnels, textes sacrés, textes profanes, etc. Elles hébergent aussi gratuitement des périodiques, oeuvres de fiction, oeuvres politiques, poétiques, religieuses, etc., à la demande d’auteurs ou d’organismes souhaitant les faire connaître. Les volontaires qui composent l’équipe s’engagent à ne pas juger le contenu de ces textes, mais refusent les oeuvres à caractère pornographique.
Mygale, site communautaire francophone, offre aux particuliers et aux associations à but non lucratif une messagerie électronique gratuite et un hébergement gratuit de leur site web (10 Mo (méga-octets) puis 20 Mo au bout d’un an), avec aide en ligne et divers services à l’appui, ce qui contribue grandement au développement du web francophone. Dans sa charte à destination de ses membres, Mygale précise: "Vous êtes responsable des informations diffusées sur vos pages. En cas de non respect des lois en vigueur, ces informations sont susceptibles d'engager votre responsabilité civile et/ou pénale. Notamment, vos pages ne doivent pas être à caractère pornographique, raciste, diffamatoire." Mygale est ensuite remplacé par MultiMania, basé sur le même principe.
Les internautes sont censés respecter la nétiquette, à savoir un ensemble de règles de savoir-vivre régissant entre autres le courrier électronique, les forums de discussion et les sites web. Toutefois l’augmentation inquiétante de sites pornographiques, pédophiles et nazis entraîne l'apparition de logiciels pouvant être paramétrés par les parents et les éducateurs en fonction de l’âge des enfants et du degré de contrôle souhaité (par exemple Cyber Patrol, CyberSitter, Net Nanny, SafeSurf et SurfWatch).
Une réglementation est mise en place pour lutter contre les spams, ces messages électroniques non sollicités à caractère souvent commercial qui prolifèrent dans les boîtes aux lettres électroniques. En avril 1998, l’Etat de Washington crée un précédent avec une loi anti-spamming prévoyant de "condamner toute personne morale ou physique qui envoie des messages intempestifs en masse en cachant son identité et en trompant les destinataires par des titres de messages fallacieux". Effective début août, cette loi est le "premier pas vers un cadre législatif qui pourrait faire école", lit-on dans Le Micro Bulletin Actu du 2 avril 1998.
Dans le quotidien Libération du 9 janvier 1998, Esther Dyson, présidente d’EDventure Holdings, précise que l’internet commercial devrait être réglementé moins par un gouvernement central qui en définirait les règles que par plusieurs organismes mis en concurrence dans l'intérêt du consommateur.
Patrick Rebollar, créateur d'un site web de recherches et d’activités littéraires, voit l’avenir du réseau assez trouble. Il écrit en juillet 1998: "Entre ceux qui cherchent à gagner de l'argent à tout prix, et ceux qui en font une banque d'images pornographiques, ceux qui cherchent des amis pour pallier un manque et ceux qui cherchent du travail. Ceux qui... et ceux qui... le réseau devient progressivement une projection du monde lui-même, plus précise et exacte chaque jour."
Autorité administrative indépendante, la Commission nationale de l’informatique et des libertés (CNIL) est un organisme public français chargé de veiller à l’application de la loi relative à l’informatique, aux fichiers et aux libertés, communément appelée loi "informatique et libertés" (loi n° 78-17 du 6 janvier 1978). Son article premier rappelle que "l’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles et publiques." La CNIL veille donc entre autres à ce que la gestion des fichiers informatiques tienne compte du respect de la vie privée du citoyen.
La CNIL est en train d’adapter son activité à l’internet, la courte existence de celui-ci ayant déjà démontré que tout internaute est facilement repérable sur le réseau. L’annuaire Dejanews, par exemple, donne la possibilité à un employeur de connaître les forums de discussion auxquels participe un salarié. Utilisés à l’origine pour des raisons commerciales, pour repérer les sites consultés par un usager et connaître ainsi ses centres d’intérêt, les outils de filature (cookie, applet Java, etc.) peuvent très bien servir aussi à d’autres fins mettant en péril la liberté individuelle et la vie privée. "Sur internet, il n'y a pas d'anonymat, prévient la CNIL sur son site. Ce qui impose à chacun d'être vigilant." Le site donne nombre d’indications pratiques sur la manière de neutraliser ces outils de filature.
La délibération de la CNIL du 8 juillet 1997 sur les annuaires des abonnés au téléphone traite des projets de basculement de ces annuaires sur l’internet et de l’absence de dispositifs de sécurité permettant d’éviter leur téléchargement. Des informations personnelles pourraient être massivement téléchargées depuis un pays non soumis à des règles de protection des données, afin d’être cédées, vendues, stockées, traitées et exploitées sans garantie ni contrôle. Pour contrer tout téléchargement de ce type, il est demandé à chaque Etat membre de transposer d’ici la fin 1998 dans sa propre législation la directive de l’Union européenne du 24 octobre 1995. Les transferts internationaux de données ne doivent être autorisés que si le pays destinataire peut assurer une protection adéquate conforme aux normes européennes.
En ce qui concerne le transfert de l’annuaire des abonnés au téléphone sur le web, la CNIL recommande que la décision soit prise par les utilisateurs eux-mêmes, comme c’est déjà le cas pour l’inscription sur la liste rouge ou la liste orange. S’inscrit sur la liste rouge toute personne ne souhaitant pas figurer sur l’annuaire. 5,6 millions d’abonnés y sont inscrits, soit le quart des abonnés de France Télécom. L’inscription à cette liste est payante malgré les recommandations de la CNIL qui prône sa gratuité, comme c’est le cas dans d’autres pays européens. La liste orange, elle, regroupe l’ensemble des personnes qui, quoique souhaitant figurer dans l’annuaire, s’opposent à l’utilisation commerciale de leurs coordonnées. Contrairement à la liste rouge, l’inscription à la liste orange est gratuite.
Pour contrer à la fois ceux qui mettent la technologie sur un piédestal et ceux qui y sont systématiquement hostiles, un mouvement appelé Technorealism est lancé en mars 1998 aux Etats-Unis. Les idées exposées dans Technorealism Overview sont reprises au Québec dans le Manifeste pour un technoréalisme qui, comme l'explique la cyber-revue Mémento, veut faire le point entre "ces prophètes nouveau genre qui nous promettent un monde meilleur grâce à la technologie, et les nostalgiques qui veulent faire marche arrière et revenir au poêle à bois, au crayon de plomb et aux chevaux de trait".
Ce Manifeste s’appuie sur les huit principes suivants: 1) la technologie n’est pas neutre; 2) l’internet est un médium révolutionnaire, pas une utopie; 3) le gouvernement a un rôle important à jouer dans le cyberespace; 4) l’information n’est pas un gage de connaissance; 5) brancher les écoles n’assurera pas une éducation de meilleure qualité; 6) la qualité de l’information doit être protégée; 7) les ondes sont du domaine public et c’est le public qui devrait en tirer les bénéfices; 8) une bonne compréhension de la technologie devrait constituer un des fondements de la citoyenneté.
Ce Manifeste fait notamment le point sur les relations entre cyberespace et société: "Plus le cyberespace devient populaire, plus il ressemble à la société réelle dans toute sa complexité. Chacun des côtés positifs ou habilitants de la vie en ligne est accompagné de dimensions malicieuses, perverses. (...) Contrairement à ce que certains prétendent, le cyberespace n'est pas un lieu distinct qui serait régi par des règles distinctes de celles de la société civile. Les gouvernements doivent respecter les règles et coutumes nées avec le cyberespace, mais cela ne veut pas dire pour autant que le public n'a aucun droit sur un citoyen qui déraille ou une entreprise qui commet une fraude. En tant que représentant du peuple et gardien des valeurs démocratiques, l'État a le droit et la responsabilité d'aider à intégrer le cyberespace à la société civile."
Disponible en plusieurs langues (allemand, anglais, espagnol, français, occitan et portugais), le Manifeste du web indépendant insiste pour sa part sur la nécessité d’un web respectueux de la liberté individuelle et de la diversité culturelle face à la main-mise croissante des dinosaures politiques et commerciaux. "Le web indépendant, ce sont ces milliers de sites offrant quelques millions de pages faites de passion, d'opinion, d'information, mises en place par des utilisateurs conscients de leur rôle de citoyens. Le web indépendant, c'est un lien nouveau entre les individus, une bourse du savoir gratuite, offerte, ouverte; sans prétention. Face aux sites commerciaux aux messages publicitaires agressifs, destinés à ficher et cibler les utilisateurs, le web indépendant propose une vision respectueuse des individus et de leurs libertés, il invite à la réflexion et au dialogue.
Quand les sites d'entreprises se transforment en magazines d'information et de divertissement, quand les mastodontes de l'info-spectacle, des télécommunications, de l'informatique et de l'armement investissent le réseau, le web indépendant propose une vision libre du monde, permet de contourner la censure économique de l'information, sa confusion avec. (...) Nous invitons donc les utilisateurs à prendre conscience de leur rôle primordial sur l'internet: lorsqu'ils montent leur propre site, lorsqu'ils envoient des commentaires, critiques et encouragements aux webmestres, lorsqu'ils s'entraident dans les forums et par courrier électronique, ils offrent une information libre et gratuite que d'autres voudraient vendre et contrôler. La pédagogie, l'information, la culture et le débat d'opinion sont le seul fait des utilisateurs, des webmestres indépendants et des initiatives universitaires et associatives."
La loi n° 92-597 du 1er juillet 1992, qui régit le droit d’auteur français, précise que "l’auteur jouit sa vie durant du droit exclusif d’exploiter son oeuvre sous quelque forme que ce soit et d’en tirer un profit pécuniaire. Au décès de l’auteur, ce droit persiste au bénéfice de ses ayants droit, pendant l’année civile en cours et les cinquante années qui suivent."
Les sites web sont eux aussi régis par le droit d’auteur. Sur le site de sa bibliothèque numérique Gallica, inaugurée en 1997, la Bibliothèque nationale de France (BnF) donne les précisions suivantes: "En application de la loi française 92-597 du 1er juillet 1992, portant code de la propriété intellectuelle, la Bibliothèque nationale de France est titulaire des droits d'auteur sur le site dénommé 'Gallica' et la base de données ainsi constituée. Toute représentation ou reproduction intégrale ou partielle faite sans le consentement de la Bibliothèque nationale de France est illicite, et constitue une contrefaçon sanctionnée pénalement."
Dans nombre de législations nationales, la règle générale est un délai de protection qui débute à la date de création de l'oeuvre et qui expire 50 à 70 ans après la mort de l'auteur, quand ce n’est pas davantage. Il existe des exceptions pour certaines catégories d'oeuvres (par exemple les photos et les oeuvres audiovisuelles) ou pour certains usages (par exemple la traduction). Passé le délai mentionné dans la législation nationale, l’oeuvre tombe dans le domaine public et peut être librement reproduite.
A l’échelon international, la protection du droit d’auteur est légiférée par l’Organisation mondiale de la propriété intellectuelle (OMPI), qui est l’une des seize institutions spécialisées du système des Nations unies. L’OMPI est chargée de promouvoir la protection de la propriété intellectuelle dans le monde, grâce à la coopération des États, et d'assurer l'administration de divers traités multilatéraux touchant aux aspects juridiques et administratifs de la propriété intellectuelle.
En 1998, sur son site web, l’OMPI définit la protection du droit d’auteur de la manière suivante: "La protection du droit d'auteur signifie en général que certaines utilisations de l'oeuvre ne sont licites que si elles sont autorisées par le titulaire du droit d'auteur. Les plus typiques sont: le droit de copier ou de reproduire n'importe quel genre d'oeuvre; le droit de diffuser des exemplaires dans le public; le droit de louer des exemplaires, du moins pour certaines catégories d'oeuvres (telles que les programmes d'ordinateur et les oeuvres audiovisuelles); le droit de faire des enregistrements sonores de représentations ou d'exécutions d'oeuvres littéraires ou musicales; le droit de représenter ou d'exécuter en public, spécialement des oeuvres musicales, dramatiques ou audiovisuelles; le droit de communiquer au public, par câble ou autrement, les représentations ou exécutions de ces oeuvres et, en particulier, de transmettre par radio, télévision ou par d'autres moyens sans fil toutes sortes d'oeuvres; le droit de traduire des oeuvres littéraires; le droit de louer, notamment, des oeuvres audiovisuelles, des œuvres matérialisées dans des phonogrammes et des programmes d'ordinateur; le droit d'adapter toutes sortes d'oeuvres et en particulier le droit d'en faire des oeuvres audiovisuelles."
Qu’est-ce exactement qu’un texte du domaine public? L’Association des bibliophiles universels (ABU), qui gère la bibliothèque numérique ABU: la bibliothèque universelle, répond à cette question sur son site web. En France, un texte tombe dans le domaine public 50 ans après la mort de son auteur. Les années de guerre (1914-1919 et 1938-1948) comptent double. Quand un texte appartient au domaine public, il peut être diffusé et reproduit, mais non mutilé ou déformé puisque le droit moral de l’auteur (paternité et respect de l’oeuvre) est intemporel. Même si une oeuvre est du domaine public, une édition donnée de cette oeuvre n’est pas pour autant libre de reproduction si elle est récente. La traduction, l’appareil critique (notes, préface, etc.) et l’appareil éditorial (tables, index, pagination, etc.) sont soumis au droit d’auteur.
Michael Hart, fondateur du Projet Gutenberg, pionnier des bibliothèques numériques, explique aux volontaires désireux de scanner de nouvelles oeuvres quelles sont les règles à suivre pour déterminer si un titre en langue anglaise appartient ou non au domaine public. Au Royaume-Uni, comme dans nombre de pays, l’oeuvre est sujette au droit d’auteur pendant 70 ans après le décès de l’auteur. Aux Etats-Unis, une oeuvre publiée avant 1923 est soumise au droit d’auteur pendant 75 ans après sa date de publication. Une oeuvre publiée entre 1923 et 1977 est soumise au droit d’auteur pendant 95 ans après sa date de publication. Une oeuvre publiée en 1998 ou les années suivantes est soumise au droit d’auteur 70 ans après la date du décès de l’auteur s’il s’agit d’un auteur personnel, et 95 ans après la date de publication ou 120 ans après la date de création s’il s’agit d’un auteur collectif.
La législation s’est ensuite nettement durcie après l’acceptation par le Congrès de la loi du 27 octobre 1998. "Le copyright a été augmenté de 20 ans, explique Michael Hart en juillet 1999. Auparavant on devait attendre 75 ans, on est maintenant passé à 95 ans. Bien avant, le copyright durait 28 ans (plus une extension de 28 ans si on la demandait avant l’expiration du délai) et il avait lui-même remplacé un copyright de 14 ans (plus une extension de 14 ans si on la demandait avant l’expiration du délai). Comme vous le voyez, on assiste à une dégradation régulière et constante du domaine public."
Des réalisations d’intérêt public comme le Projet Gutenberg - utiliser l’internet pour mettre des livres à la disposition du plus grand nombre - n’ont malheureusement guère de poids vis-à-vis des majors de l’édition, comme l’écrit Michael Hart à la même date: "J’ai été le principal opposant aux extensions du copyright, mais Hollywood et les grands éditeurs ont fait en sorte que le Congrès ne mentionne pas mon action en public. (...) Les débats actuels sont totalement irréalistes. Ils sont menés par 'l’aristocratie terrienne de l’âge de l’information' et servent uniquement ses intérêts. Un âge de l’information? Et pour qui?" Très juste. Plus les gouvernements parlent d’âge de l’information, plus ils durcissent les lois relatives à la libre mise à disposition des écrits. La contradiction n’est-elle pas flagrante?
L’arrivée en force des textes électroniques rend le problème du droit d’auteur encore plus complexe qu’il n’était. En 1998, nombre d’auteurs, d’éditeurs, de journalistes, etc., étudient fébrilement comment venir à bout de la complexité du problème. Les journalistes voient souvent leurs articles réutilisés sans en avoir donné l’autorisation, y compris par les organes de presse pour lesquels ils travaillent.
Par ailleurs, la preuve tangible de la propriété intellectuelle est beaucoup moins évidente. Jusqu’à une époque récente, la page dactylographiée ou imprimée constituait la preuve physique de l’information protégée par le droit d’auteur. Depuis quelques années, cette sécurité légale s’effondre, ce qui ajoute à la complexité du débat sur le contrôle des droits électroniques. Le débat est rendu plus difficile encore par la présence de liens hypertextes permettant d’aller d’un document à l’autre. Lier deux documents entre eux doit-il faire l’objet d’une réglementation? Ceci serait contraire à la nature même du web.
Le respect du droit d’auteur est à la fois un problème crucial et une des clés de l’édition électronique. En décembre 1996, sous l’égide de l’OMPI (Organisation mondiale de la propriété intellectuelle), une conférence internationale réunit à Genève des experts de 160 pays différents. Les débats aboutissent au vote de plusieurs textes, notamment l’adaptation de la Convention de Berne de 1889 sur les droits littéraires et artistiques, convention dont le dernier amendement date de 1971. La convention prend désormais en compte la protection des "transmissions et distributions numérisées". Le stockage d’une oeuvre sous forme numérique constitue une reproduction. En cas de diffusion sur l’internet, l’émetteur est tenu au respect du droit d’auteur.
Par contre, les délégués ne réussissent pas à se mettre d’accord sur l’extension du droit d’auteur aux copies électroniques temporaires stockées dans la mémoire vive de l’ordinateur quand l’internaute consulte une page web. Alors que l’OMPI aurait souhaité que ces reproductions relèvent aussi du droit d’auteur, les fournisseurs d’accès internet menacent de paralyser le réseau si une telle mesure est adoptée. A juste titre, ils estiment ne pouvoir être tenus pour responsables de la protection d’un contenu original qu’ils n’ont aucun moyen de vérifier.
A la même date, en décembre 1996, la Commission européenne publie un Livre vert sur le droit d’auteur et les droits voisins dans la société de l’information. Ces droits recouvrent les oeuvres imprimées, les films, les oeuvres d’art graphiques et plastiques, les logiciels, les émissions retransmises par câble ou satellite, les disques, les représentations théâtrales et musicales, les expositions et ventes aux enchères, les revues d’art, les oeuvres électroniques, les services à la demande et les prestations électroniques à distance, toutes ces activités représentant 5 à 7% du produit national brut des quinze pays membres. Les législations nationales étant toutes différentes, une harmonisation de la protection du droit d’auteur à l’échelle européenne serait nécessaire. Il appartiendrait ensuite aux Etats d’appliquer ces dispositions, avec adaptation du cadre juridique dans lequel les œuvres seront créées et protégées.
Dans un article de l’AJR NewsLink (AJR: American Journalism Review) consacré à la propriété intellectuelle sur le web, Penny Pagano, journaliste indépendante, tente de cerner les problèmes légaux auxquels se heurtent journalistes, écrivains et éditeurs pour la protection du droit d’auteur sur les documents électroniques qu’ils produisent ou distribuent. Elle relate la création par la National Writers Union (Etats-Unis) d'une nouvelle agence dénommée la Publication Rights Clearinghouse (PRC). Pour la somme de 20 dollars, les auteurs indépendants qui le souhaitent peuvent s’inscrire à la PRC. Leurs articles sont alors inclus dans les fichiers de l’agence, qui surveille leur réutilisation. Tout comme l’ASCAP (American Society of Composers, Authors and Publishers), qui gère les droits de l’industrie musicale, la PRC recense les transactions individuelles et paie des royalties aux auteurs dont les articles sont réutilisés (droit d’auteur secondaire). L’agence est également ouverte aux collectivités. Plusieurs sociétés se sont inscrites, notamment UnCover, le grand fournisseur mondial d’articles de journaux et magazines (intégré ensuite à Ingenta).
Dans son livre Digital Literacy (paru en 1997 chez Wiley à New York), Paul Gilster précise que, suite à l’extension du droit d’auteur à des supports électroniques à usage international, la protection du droit d'auteur pour de tels supports relève de la Convention universelle sur le droit d’auteur (adoptée en septembre 1952 et révisée en juillet 1971). Adoptée par 70 pays, cette convention vise à protéger le droit d’auteur aussi bien pour les oeuvres d’un pays concerné que pour les oeuvres étrangères à ce pays.
Parallèlement, plusieurs organismes travaillent à des solutions logicielles permettant d’établir une connexion entre les tenants de la propriété intellectuelle d'une part et les usagers d'autre part, et de localiser et conserver la trace de toute copie d’un texte donné, en utilisant par exemple des moteurs de recherche pour localiser ces copies. Le logiciel déciderait d’une taxe qui serait divisée entre l’auteur, l’éditeur et le service de protection. Paul Gilster donne l’exemple du système mis au point par Digimarc Corporation. Un code transparent est attribué à une image numérique, un document audio ou un document vidéo. L’utilisation du document entraîne l’activation de ce code pour le calcul et le paiement du droit d’auteur.
Pour les textes électroniques, la solution proposée par Paul Gilster est une taxe par page ou par unité d’information. Le paiement basé sur le principe de l’abonnement serait remplacé par ce que l'auteur appelle le système de la microtransaction. Situés dans de multiples bibliothèques ou librairies numériques, les documents, qu’ils soient payants ou gratuits, seraient tous accessibles sans abonnement. Dans le cas de documents payants, qui sont ceux soumis au droit d’auteur, le fait de cliquer sur l’un d’eux générerait un système de paiement qui taxerait l’usager uniquement pour les pages lues, et ainsi de suite pour tout document du même type. La carte de crédit de l’usager serait automatiquement débitée de la somme correspondante. Cette somme devant être distribuée entre différents partenaires, à commencer par l’auteur et l’éditeur, elle serait divisée d’emblée en microtransactions permettant de favoriser cette distribution.
Dans le même ordre d’idées, plusieurs éditeurs décident de développer un nouveau système d’identification pouvant être utilisé pour tout contenu numérique, le Digital Object Identifier System (DOI System). L’origine du DOI System est la suivante: l’internet représentant un nouvel environnement pour l’industrie du livre, il est nécessaire de développer une technologie adaptée protégeant à la fois le consommateur et l’éditeur, et donc un système pouvant authentifier un contenu afin de certifier que l’information fournie au consommateur est bien l’information demandée, et pouvant assurer en parallèle le calcul et le paiement du droit d’auteur. Le DOI System procurerait non seulement une identification unique pour ce contenu, mais aussi un lien entre les utilisateurs et les gestionnaires des droits du dit contenu, ceci afin de faciliter le commerce électronique dans ce domaine.
Développé et testé en 1996, le DOI System est d’abord utilisé par une dizaine d’éditeurs américains et européens (Academic Press, Authors’ Licensing and Collecting Society, Copyright Clearance Center, Elsevier, Houghton Mifflin Company, International Publishers Association (IPA), John Wiley & Sons, Shepard’s, Springer-Verlag) dans le cadre d’un programme pilote mis en place entre juillet et octobre 1997. Lors de la Foire du livre de Francfort d'octobre 1997, la participation à la deuxième phase du programme est étendue à tous les éditeurs désireux d’y participer. Une fois passé le stade expérimental, la gestion du DOI System est confiée à l’International DOI Foundation, fondée en 1998, avec un siège aux Etats-Unis et un autre en Suisse.
En 1998, pratiquement tous les documents imprimés sont issus d’une version électronique sur traitement de texte, sur tableur ou sur base de données. Il est désormais fréquent qu’un même document fasse l’objet de deux versions, numérique et imprimée. A l'inverse, pour des raisons pratiques, de plus en plus de documents imprimés sont numérisés. Ce mouvement s’accentuera encore dans les prochaines années, à tel point qu’il deviendra probablement ridicule d’établir une distinction entre document électronique et document imprimé.
Pour des raisons budgétaires, de plus en plus de publications n'existent qu’en version électronique. Outre sa facilité d’accès et son faible coût, le grand mérite du document électronique est de pouvoir être régulièrement actualisé. Point n’est besoin d’attendre une nouvelle édition imprimée soumise aux contraintes commerciales ou aux exigences de l’éditeur. Ceci s’avère particulièrement utile pour les ouvrages et périodiques scientifiques et techniques, dans lesquels l’information la plus récente est primordiale. L’édition électronique apparaît comme une solution à étudier de près pour les presses universitaires et les éditeurs spécialisés.
Document électronique? Document numérique? Livre numérique? Livre électronique? Un vocabulaire adapté reste à définir. Comme l’explique Jean-Gabriel Ganascia, directeur du Groupement d’intérêt scientifique (GIS) Sciences de la cognition, dans son rapport de synthèse Le livre électronique: réflexion de prospective, le terme "livre électronique", souvent utilisé en français, est "à la fois restrictif et inopportun". Ce terme est restrictif parce que le livre désigne "un support particulier de l'écrit qui est advenu à un moment donné dans l'histoire" alors que le document électronique comporte à la fois de l’écrit, de l’image et du son. Ce terme est également inopportun parce qu’on ne peut guère juxtaposer au terme "livre" le terme "électronique", "un nouvel objet immatériel défini par un ensemble de procédures d'accès et une structuration logique". De plus, qu’il s’agisse de sa forme exacte ou de sa fonction exacte, le statut même de ce qu’on appelle "livre électronique" reste encore à déterminer. Ceci dit, ce rapport ne propose pas de meilleur terme.
En 1998, les livres électroniques (appareils de lecture) sont pour bientôt. Un petit ordinateur ayant le format d'un livre permettra de lire plusieurs dizaines de livres numérisés qui pourront être achetés directement auprès des éditeurs ou distributeurs. Quatre modèles de livres électroniques sont prévus pour fin 1998 ou début 1999: le Rocket eBook (créé par la société NuvoMedia en partenariat avec la chaîne de librairies Barnes & Noble et le géant des médias Bertelsmann), le SoftBook (créé par la société SoftBook Press en partenariat avec les grands éditeurs Random House et Simon & Schuster), l'Everybook (créé par la société du même nom) et le Millennium EBook (créé par la société Librius.com).
L’utilisation de l’internet entraîne des changements considérables dans la manière d’enseigner. En juillet 1998, Patrick Rebollar, professeur de français et d’informatique dans des universités japonaises, analyse l’impact de l’internet sur sa vie professionnelle: "Mon travail de recherche est différent, mon travail d'enseignant est différent, mon image en tant qu'enseignant-chercheur de langue et de littérature est totalement liée à l'ordinateur, ce qui a ses bons et ses mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt constituée de gens âgés et technologiquement récalcitrants). J'ai cessé de m'intéresser à certains collègues proches géographiquement mais qui n'ont rien de commun avec mes idées, pour entrer en contact avec des personnes inconnues et réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les colloques des uns ou des autres). La différence est d'abord un gain de temps, pour tout, puis un changement de méthode de documentation, puis de méthode d'enseignement privilégiant l'acquisition des méthodes de recherche par mes étudiants, au détriment des contenus (mais cela dépend des cours). Progressivement, le paradigme réticulaire l'emporte sur le paradigme hiérarchique - et je sais que certains enseignants m'en veulent à mort d'enseigner ça, et de le dire d'une façon aussi crue. Cependant ils sont obligés de s'y mettre..."
Dans sa communication (Creativity and the Computer Education Industry) donnée en septembre 1996 lors de la conférence mondiale de l’IFIP (International Federation of Information Processing), Dale Spender, professeure à l’Université de Queensland (Australie), tente elle aussi d’analyser les changements fondamentaux apportés par l’internet dans l’enseignement. Voici son argumentation résumée dans les deux paragraphes qui suivent.
Depuis plus de cinq siècles, l’enseignement est essentiellement basé sur l’information procurée par les livres. Or les habitudes liées à l’imprimé ne peuvent être transférées dans l’univers numérique. L’enseignement en ligne offre des possibilités tellement nouvelles qu’il n’est guère possible d’effectuer les distinctions traditionnelles entre enseignant et enseigné. Le passage de la culture imprimée à la culture numérique exige donc d’entièrement repenser le processus d’acquisition du savoir, puisque nous avons maintenant l’opportunité sans précédent de pouvoir influer sur le type d’enseignement que nous souhaitons recevoir.
Dans la culture imprimée, l’information contenue dans les livres reste la même un certain temps, ce qui nous encourage à penser que l’information est stable. La nature même de l’imprimé est liée à la notion de vérité, stable elle aussi. Cette stabilité et l’ordre qu’elle engendre sont un des fondements de l’âge industriel et de l’ère des sciences et techniques. Les notions de vérité, de loi, d’objectivité et de preuve constituent le fondement de nos croyances et de nos cultures. Mais l’avènement du numérique change tout ceci. Soudain l’information en ligne supplante l’information imprimée pour devenir la plus fiable et la plus utile, et l’usager est prêt à la payer en conséquence. Cette transformation radicale de la nature même de l’information doit être au coeur du débat relatif aux nouvelles méthodes d’enseignement.
Cette transformation affecte aussi le processus de l’écriture, comme le constate Jean-Paul, webmestre des Cotres furtifs, un site hypermédia collectif. En juin 1998, il relate: "Une navigation sur la toile se fait en rayon (j'ai un centre d'intérêt et je clique méthodiquement sur tous les liens que contient sa base, sa page d’accueil) ou en louvoiements (de clic en clic, à mesure qu'ils apparaissent). Bien sûr, c'est possible avec l'imprimé. Mais la différence saute aux yeux. L'internet n'a donc pas changé ma vie, mais mon écriture. On n'écrit pas de la même manière pour un site que pour un scénario, une pièce de théâtre, etc..."
Chose qu’on oublie trop souvent, il rappelle que toutes les fonctionnalités de l’internet étaient déjà en gestation dans le Macintosh (couramment appelé Mac), lancé en 1984 par Apple. Premier ordinateur personnel à disposer d’une interface graphique intuitive facilement utilisable par le non spécialiste, le Mac remporte un succès colossal parce qu’il révolutionne le rapport entre l’utilisateur et l’information.
"Ce n'est pas internet qui a modifié ma manière d’écrire, c'est le premier Mac, que j'ai découvert à travers l'auto-apprentissage d'Hypercard, écrit Jean-Paul. Je me souviens encore de la stupeur dans laquelle j'ai été plongé, durant le mois qu'a duré mon apprentissage des notions de boutons, liens, navigation par analogies, par objets, par images. L'idée qu'un simple clic sur une zone de l'écran permettait d'ouvrir un éventail de piles de cartes dont chacune pouvait offrir de nouveaux boutons dont chacun ouvrait un nouvel éventail dont... bref l'apprentissage de tout ce qui aujourd'hui sur la toile est d'une banalité de base, cela m'a fait l'effet d'un coup de foudre (il paraît que Steve Jobs et son équipe eurent le même choc lorsqu’ils découvrirent l’ancêtre du Mac dans les laboratoires de Rank Xerox).
Depuis, j’écris directement à l’écran: l'imprimé ne me sert plus que pour fixer de temps en temps l'état d'un texte, pour en donner, à quelqu’un d’allergique à l’écran, une sorte de photo, d’instantané, une approximation. Une simple approximation parce que l'imprimé nous oblige à une relation linéaire: le texte s'y déroule page à page (la plupart du temps). Alors que la technique des liens permet une autre relation au temps et à l’espace de l’imaginaire. Et, pour moi, c’est surtout l’occasion de pratiquer l’écriture/lecture 'en sphère', dont l'action de feuilleter un livre ne donne qu'une idée, vague parce que le livre n'est pas concu pour ça."
Tout comme Jean-Paul, en 1998, plusieurs écrivains se lancent dans l’exploration des possibilités offertes par l’hyperlien dans la création littéraire, reprenant à leur compte ce commentaire de Tim Berners-Lee, inventeur du Word Wide Web en 1990, qui explique dans A short history of web development: "L’universalité du web est essentielle, à savoir le fait qu’un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu’une réalisation hautement sophistiquée."
Vol. 2 (1998-2003)
Vol. 1 & 2 (1993-2003)
© 2003 Marie Lebert