NEF - Le Livre 010101 de Marie Lebert - 1993-2003

Le Livre 010101 (2003)
Tome 2 (1998-2003)
9. Bientôt des livres multilingues?

En 1998 et 1999, la nécessité d’un web multilingue occupe tous les esprits. Au début des années 2000, le web, devenu multilingue, permet une très large diffusion des textes électroniques sans contrainte de frontières, mais la barrière de la langue est loin d’avoir disparu. En 2003, la priorité semble être la création de passerelles entre les communautés linguistiques pour favoriser la circulation des écrits dans d’autres langues, en augmentant fortement les activités de traduction. Les technologies numériques facilitant grandement le passage d’une langue à l’autre, il reste à créer ou renforcer la volonté culturelle et politique dans ce sens.

9.1. Les systèmes de codage
9.2. Des communautés linguistiques
9.3. L’importance de la traduction


9.1. Les systèmes de codage

Le premier système de codage informatique est l’ASCII (American standard code for information interchange), créé en 1963 par l’American National Standards Institute (ANSI). L’ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A=1000001, B=1000010, etc.). Les 128 caractères comprennent 26 lettres sans accent, les chiffres, les signes de ponctuation et les symboles. L’ASCII permet donc uniquement la lecture de l’anglais. Il ne permet pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes, et à plus forte raison les systèmes non alphabétiques (chinois, japonais, coréen, etc.).

Ceci ne pose pas de problème majeur les premières années, tant que l’échange de fichiers électroniques se limite essentiellement à l’Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale. Solution provisoire, les alphabets européens sont traduits par des versions étendues de l’ASCII codées sur huit bits, afin de pouvoir traiter un total de 256 caractères, dont les lettres avec accents. L’extension pour le français est définie par la norme ISO-Latin-1 (ISO-8859-1:1998). Mais le passage de l’ASCII à l’ASCII étendu devient vite un véritable casse-tête, y compris au sein de l’Union européenne, les problèmes étant entre autres la multiplication des systèmes d’encodage, la corruption des données dans les étapes transitoires, ou encore l’incompatibilité des systèmes entre eux, les pages ne pouvant être affichées que dans une seule langue à la fois.

Avec le développement du web, l’échange des données s’internationalise de plus en plus, et ne peut donc plus se limiter à l’utilisation de l’anglais et de quelques langues européennes, traduites par un système d’encodage datant des années 1960. Fondé en janvier 1991, l’Unicode Consortium regroupe des sociétés informatiques, des sociétés commercialisant des bases de données, des concepteurs de logiciels, des organismes de recherche et différents groupes d’usagers. Il a pour tâche de développer l’Unicode, un système d’encodage sur 16 bits spécifiant un nombre unique pour chaque caractère, et de donner toutes les explications techniques nécessaires aux usagers potentiels.

Les usagers non anglophones étant de plus en plus nombreux, l’Unicode répond partiellement à leurs problèmes, puisqu’il est lisible quels que soient la plate-forme, le logiciel et la langue utilisés. Il peut traiter 65.000 caractères uniques, et donc prendre en compte tous les systèmes d’écriture de la planète. L’Unicode (qui, en 2003, en est à sa 4e version) remplace progressivement l’ASCII. Les versions récentes du système d’exploitation Windows de Microsoft (Windows 2000, Windows XP, Windows NT, Windows Server 2003) utilisent l’Unicode pour les fichiers texte, alors que les versions précédentes utilisaient l’ASCII.

Mais l’Unicode ne peut résoudre tous les problèmes, comme le souligne en juin 2000 Luc Dall’Armellina, co-auteur et webmestre d’oVosite, un espace d’écritures multimédias: "Les systèmes d’exploitation se dotent peu à peu des kits de langues et bientôt peut-être de polices de caractères Unicode à même de représenter toutes les langues du monde; reste que chaque application, du traitement de texte au navigateur web, emboîte ce pas. Les difficultés sont immenses: notre clavier avec ses ± 250 touches avoue ses manques dès lors qu’il faille saisir des Katakana ou Hiragana japonais, pire encore avec la langue chinoise. La grande variété des systèmes d’écritures de par le monde et le nombre de leurs signes font barrage. Mais les écueils culturels ne sont pas moins importants, liés aux codes et modalités de représentation propres à chaque culture ou ethnie."

Que préconise Olivier Gainon, créateur de CyLibris et pionnier de l’édition littéraire en ligne? "Première étape: le respect des particularismes au niveau technique, explique-t-il en décembre 2000. Il faut que le réseau respecte les lettres accentuées, les lettres spécifiques, etc. Je crois très important que les futurs protocoles permettent une transmission parfaite de ces aspects - ce qui n’est pas forcément simple (dans les futures évolutions de l’HTML, ou des protocoles IP, etc.). Donc, il faut que chacun puisse se sentir à l’aise avec l’internet et que ce ne soit pas simplement réservé à des (plus ou moins) anglophones. Il est anormal aujourd’hui que la transmission d’accents puisse poser problème dans les courriers électroniques. La première démarche me semble donc une démarche technique. Si on arrive à faire cela, le reste en découle: la représentation des langues se fera en fonction du nombre de connectés, et il faudra envisager à terme des moteurs de recherche multilingues."

En été 2000, les usagers non anglophones dépassent la barre des 50%. Ce pourcentage continue ensuite de progresser, comme le montrent les statistiques de la société Global Reach, mises à jour à intervalles réguliers. Le nombre d’usagers non anglophones est de 52,5% en été 2001, 57% en décembre 2001, 59,8% en avril 2002 et 63,5% en été 2003 (dont 35,5% d’Européens non anglophones et 28,3% d’Asiatiques).


9.2. Des communautés linguistiques

"Comme l’internet n’a pas de frontières nationales, les internautes s’organisent selon d’autres critères propres au médium", écrit en septembre 1998 Randy Hobler, consultant en marketing internet de produits et services de traduction. "En termes de multilinguisme, vous avez des communautés virtuelles, par exemple ce que j’appelle les 'nations des langues', tous ces internautes qu’on peut regrouper selon leur langue maternelle quel que soit leur lieu géographique. Ainsi la nation de la langue espagnole inclut non seulement les internautes d’Espagne et d’Amérique latine, mais aussi tous les hispanophones vivant aux Etats-Unis, ou encore ceux qui parlent espagnol au Maroc."

L’anglais reste prépondérant

Principale langue d’échange internationale, l’anglais reste prépondérant et ceci n’est pas près de disparaître. Comme l’indique en janvier 1999 Marcel Grangier, responsable de la section française des services linguistiques centraux de l’Administration fédérale suisse, "cette suprématie n’est pas un mal en soi, dans la mesure où elle résulte de réalités essentiellement statistiques (plus de PC par habitant, plus de locuteurs de cette langue, etc.). La riposte n’est pas de 'lutter contre l’anglais' et encore moins de s’en tenir à des jérémiades, mais de multiplier les sites en d’autres langues. Notons qu’en qualité de service de traduction, nous préconisons également le multilinguisme des sites eux-mêmes. La multiplication des langues présentes sur internet est inévitable, et ne peut que bénéficier aux échanges multiculturels."

Dès décembre 1998, Henri Slettenhaar, professeur en technologies des communications à la Webster University de Genève, insiste sur la nécessité de sites bilingues, dans la langue originale et en anglais. "Les communautés locales présentes sur le web devraient en tout premier lieu utiliser leur langue pour diffuser des informations. Si elles veulent également présenter ces informations à la communauté mondiale, celles-ci doivent être aussi disponibles en anglais. Je pense qu'il existe un réel besoin de sites bilingues. (...) Mais je suis enchanté qu'il existe maintenant tant de documents disponibles dans leur langue originale. Je préfère de beaucoup lire l'original avec difficulté plutôt qu'une traduction médiocre." En août 1999, il ajoute: "A mon avis, il existe deux types de recherches sur le web. La première est la recherche globale dans le domaine des affaires et de l’information. Pour cela, la langue est d’abord l’anglais, avec des versions locales si nécessaire. La seconde, ce sont les informations locales de tous ordres dans les endroits les plus reculés. Si l’information est à destination d'une ethnie ou d'un groupe linguistique, elle doit d'abord être dans la langue de l’ethnie ou du groupe, avec peut-être un résumé en anglais."

Philippe Loubière, traducteur littéraire et dramatique, dénonce pour sa part la main-mise anglophone sur le réseau. "Tout ce qui peut contribuer à la diversité linguistique, sur internet comme ailleurs, est indispensable à la survie de la liberté de penser, explique-t-il en mars 2001. Je n’exagère absolument pas: l’homme moderne joue là sa survie. Cela dit, je suis très pessimiste devant cette évolution. Les Anglo-saxons vous écrivent en anglais sans vergogne. L’immense majorité des Français constate avec une indifférence totale le remplacement progressif de leur langue par le mauvais anglais des marchands et des publicitaires, et le reste du monde a parfaitement admis l’hégémonie linguistique des Anglo-saxons parce qu’ils n’ont pas d’autres horizons que de servir ces riches et puissants maîtres. La seule solution consisterait à recourir à des législations internationales assez contraignantes pour obliger les gouvernements nationaux à respecter et à faire respecter la langue nationale dans leur propre pays (le français en France, le roumain en Roumanie, etc.), cela dans tous les domaines et pas seulement sur internet. Mais ne rêvons pas..."

Tôt ou tard, le pourcentage des langues sur le réseau correspondra-t-il à leur répartition sur la planète? Rien n’est moins sûr à l’heure de la fracture numérique entre riches et pauvres, entre zones rurales et zones urbaines, entre régions favorisées et régions défavorisées, entre l’hémisphère nord et l’hémisphère sud, entre pays développés et pays en développement. Selon Zina Tucsnak, ingénieure d’études à l’ATILF (Analyse et traitement informatique de la langue française), interviewée en octobre 2000, "le meilleur moyen serait l’application d’une loi par laquelle on va attribuer un 'quota' à chaque langue. Mais n’est-ce pas une utopie de demander l’application d’une telle loi dans une société de consommation comme la nôtre?" Interviewé à la même date, Emmanuel Barthe, documentaliste juridique, exprime un avis contraire: "Des signes récents laissent penser qu’il suffit de laisser les langues telles qu’elles sont actuellement sur le web. En effet, les langues autres que l’anglais se développent avec l’accroissement du nombre de sites web nationaux s’adressant spécifiquement aux publics nationaux, afin de les attirer vers internet. Il suffit de regarder l’accroissement du nombre de langues disponibles dans les interfaces des moteurs de recherche généralistes."

Le français sur le réseau

Dès le milieu des années 1990, quelques pionniers œuvrent pour le développement du français sur le réseau, par exemple Jean-Pierre Cloutier ou Olivier Bogros.

En novembre 1994, Jean-Pierre Cloutier, journaliste québécois, décide de passer en revue le web francophone dans une chronique hebdomadaire qu’il intitule Les Chroniques de Cybérie. "Au début, les Chroniques traitaient principalement des nouveautés (nouveaux sites, nouveaux logiciels), relate-t-il en juin 1998. Mais graduellement on a davantage traité des questions de fond du réseau, puis débordé sur certains points d'actualité nationale et internationale dans le social, le politique et l'économique."

En juin 1996, Olivier Bogros, bibliothécaire français, crée la Bibliothèque électronique de Lisieux, l’une des premières bibliothèques numériques francophones. "Les bibliothèques ont la possibilité d’élargir leur public en direction de toute la francophonie, explique-t-il en juin 1998. Cela passe par la mise en ligne d’un contenu qui n’est pas seulement la mise en ligne du catalogue, mais aussi et surtout la constitution de véritables bibliothèques virtuelles."

Deux exemples parmi d’autres puisque les initiatives individuelles et collectives ont fleuri, d’abord au Québec, ensuite en Europe et maintenant en Afrique.

Bakayoko Bourahima, bibliothécaire à l’ENSEA (Ecole nationale supérieure de statistique et d’économie appliquée) d’Abidjan, écrit en juillet 2000: "Pour nous les Africains francophones, le diktat de l’anglais sur la toile représente pour la masse un double handicap d’accès aux ressources du réseau. Il y a d’abord le problème de l’alphabétisation qui est loin d’être résolu et que l’internet va poser avec beaucoup plus d’acuité, ensuite se pose le problème de la maîtrise d’une seconde langue étrangère et son adéquation à l’environnement culturel. En somme, à défaut de multilinguisme, l’internet va nous imposer une seconde colonisation linguistique avec toutes les contraintes que cela suppose. Ce qui n’est pas rien quand on sait que nos systèmes éducatifs ont déjà beaucoup de mal à optimiser leurs performances, en raison, selon certains spécialistes, des contraintes de l’utilisation du français comme langue de formation de base. Il est donc de plus en plus question de recourir aux langues vernaculaires pour les formations de base, pour 'désenclaver' l’école en Afrique et l’impliquer au mieux dans la valorisation des ressources humaines. Comment faire? Je pense qu’il n’y a pas de chance pour nous de faire prévaloir une quelconque exception culturelle sur la toile, ce qui serait de nature tout à fait grégaire. Il faut donc que les différents blocs linguistiques s’investissent beaucoup plus dans la promotion de leur accès à la toile, sans oublier leurs différentes spécificités internes."

Richard Chotin, professeur à l’Ecole supérieure des affaires (ESA) de Lille, rappelle à juste titre que la suprématie de l’anglais a succédé à celle du français. "Le problème est politique et idéologique: c’est celui de l’'impérialisme' de la langue anglaise découlant de l’impérialisme américain, explique-t-il en septembre 2000. Il suffit d’ailleurs de se souvenir de l’'impérialisme' du français aux 18e et 19e siècles pour comprendre la déficience en langues des étudiants français: quand on n’a pas besoin de faire des efforts pour se faire comprendre, on n’en fait pas, ce sont les autres qui les font."

Les langues "minoritaires"

De plus, cet impérialisme linguistique, politique et idéologique n’est-il pas universel, malheureusement? La France elle aussi n’est pas sans exercer pression pour imposer la suprématie de la langue française sur d’autres langues, comme en témoigne Guy Antoine, créateur du site Windows on Haiti, qui écrit en juin 2001:"J’ai fait de la promotion du kreyòl (créole haïtien) une cause personnelle, puisque cette langue est le principal lien unissant tous les Haïtiens, malgré l’attitude dédaigneuse d’une petite élite haïtienne - à l’influence disproportionnée - vis-à-vis de l’adoption de normes pour l’écriture du kreyòl et le soutien de la publication de livres et d’informations officielles dans cette langue. A titre d’exemple, il y avait récemment dans la capitale d’Haïti un salon du livre de deux semaines, à qui on avait donné le nom de 'Livres en folie'. Sur les 500 livres d’auteurs haïtiens qui étaient présentés lors du salon, il y en avait une vingtaine en kreyòl, ceci dans le cadre de la campagne insistante que mène la France pour célébrer la francophonie dans ses anciennes colonies. A Haïti cela se passe relativement bien, mais au détriment direct de la créolophonie.

En réponse à l’attitude de cette minorité haïtienne, j’ai créé sur mon site web Windows on Haiti deux forums de discussion exclusivement en kreyòl. Le premier forum regroupe des discussions générales sur toutes sortes de sujets, mais en fait ces discussions concernent principalement les problèmes socio-politiques qui agitent Haïti. Le deuxième forum est uniquement réservé aux débats sur les normes d’écriture du kreyòl. Ces débats sont assez animés, et un certain nombre d’experts linguistiques y participent. Le caractère exceptionnel de ces forums est qu’ils ne sont pas académiques. Je n’ai trouvé nulle part ailleurs sur l’internet un échange aussi spontané et aussi libre entre des experts et le grand public pour débattre dans une langue donnée des attributs et des normes de la même langue."

En septembre 2000, Guy Antoine a pour projet de rejoindre l’équipe dirigeante de Mason Integrated Technologies, dont l’objectif est de créer des outils permettant l’accessibilité des documents créés dans des langues dites minoritaires. "Etant donné l’expérience de l’équipe en la matière, nous travaillons d’abord sur le créole haïtien (kreyòl), qui est la seule langue nationale d’Haïti, et l’une des deux langues officielles, l’autre étant le français. Cette langue ne peut guère être considérée comme une langue minoritaire dans les Caraïbes puisqu’elle est parlée par huit à dix millions de personnes."

Autre expérience, celle de Caoimhín Ó Donnaíle, professeur d’informatique à l’Institut Sabhal Mór Ostaig, situé sur l’île de Skye, en Ecosse. Il dispense ses cours en gaélique écossais. Il est aussi le webmestre du site de l’institut, bilingue anglais-gaélique, qui se trouve être la principale source d’information mondiale sur le gaélique écossais. Sur ce site, il tient à jour European Minority Languages, une liste de langues minoritaires elle aussi bilingue, avec classement par ordre alphabétique de langues et par famille linguistique. Interviewé en mai 2001, il raconte: "Nos étudiants utilisent un correcteur d’orthographe en gaélique et une base terminologique en ligne en gaélique. (...) Il est maintenant possible d’écouter la radio en gaélique (écossais et irlandais) en continu sur l’internet partout dans le monde. Une réalisation particulièrement importante a été la traduction en gaélique du logiciel de navigation Opera. C’est la première fois qu’un logiciel de cette taille est disponible en gaélique."

Plus généralement, "en ce qui concerne l’avenir des langues menacées, l’internet accélère les choses dans les deux sens. Si les gens ne se soucient pas de préserver les langues, l’internet et la mondialisation qui l’accompagne accéléreront considérablement la disparition de ces langues. Si les gens se soucient vraiment de les préserver, l’internet constituera une aide irremplaçable."

En 1999, Robert Beard co-fonde yourDictionary.com, portail de référence pour toutes les langues sans exception, avec une section importante consacrée aux langues menacées (Endangered Language Repository). "Les langues menacées sont essentiellement des langues non écrites, écrit-il en janvier 2000. Un tiers seulement des quelque 6.000 langues existant dans le monde sont à la fois écrites et parlées. Je ne pense pourtant pas que le web va contribuer à la perte de l’identité des langues et j’ai même le sentiment que, à long terme, il va renforcer cette identité. Par exemple, de plus en plus d’Indiens d’Amérique contactent des linguistes pour leur demander d’écrire la grammaire de leur langue et de les aider à élaborer des dictionnaires. Pour eux, le web est un instrument à la fois accessible et très précieux d’expression culturelle."


9.3. L’importance de la traduction

Un nombre de traductions insuffisant

L’internet étant une source d’information à vocation mondiale, il semble indispensable d’augmenter fortement les activités de traduction. Auteur des Chroniques de Cybérie, chronique hebdomadaire des actualités du réseau, Jean-Pierre Cloutier déplore en août 1999 "qu’il se fasse très peu de traductions des textes et essais importants qui sont publiés sur le web, tant de l’anglais vers d’autres langues que l’inverse. (...) La nouveauté d’internet dans les régions où il se déploie présentement y suscite des réflexions qu’il nous serait utile de lire. À quand la traduction des penseurs hispanophones et autres de la communication?" Professeure d’espagnol en entreprise et traductrice, Maria Victoria Marinetti écrit à la même date: "Il est très important de pouvoir communiquer en différentes langues. Je dirais même que c’est obligatoire, car l’information donnée sur le net est à destination du monde entier, alors pourquoi ne l’aurions-nous pas dans notre propre langue ou dans la langue que nous souhaitons lire? Information mondiale, mais pas de vaste choix dans les langues, ce serait contradictoire, pas vrai?"

Si toutes les langues sont désormais représentées, on oublie trop souvent que de nombreux usagers sont unilingues. C'est le cas de Miriam Mellman, qui travaille dans le service de télévente du San Francisco Chronicle, un quotidien à fort tirage. "Ce serait formidable que des gens paresseux comme moi puissent disposer de programmes de traduction instantanée, raconte-t-elle en juin 2000. Même si je décide d’apprendre une autre langue que l’anglais, il en existe bien d’autres, et ceci rendrait la communication plus facile." Ce souhait est également partagé par ceux qui parlent plusieurs langues, comme Gérard Fourestier, créateur du site Rubriques à Bac, ensemble de bases de données pour les lycéens et les étudiants. "Je suis de langue française, écrit-il en octobre 2000. J’ai appris l’allemand, l’anglais, l’arabe, mais je suisencore loin du compte quand je surfe dans tous les coins de la planète. Il serait dommage que les plus nombreux ou les plus puissants soient les seuls qui 's’affichent' et, pour ce qui est des logiciels de traduction, il y a encore largement à faire."

Il importe en effet d’avoir à l’esprit l’ensemble des langues et pas seulement les langues dominantes, comme le souligne en février 2001 Pierre-Noël Favennec, expert à la direction scientifique de France Télécom R&D: "Les recherches sur la traduction automatique devraient permettre une traduction automatique dans les langues souhaitées, mais avec des applications pour toutes les langues et non les seules dominantes (ex.: diffusion de documents en japonais, si l’émetteur est de langue japonaise, et lecture en breton, si le récepteur est de langue bretonne...). Il y a donc beaucoup de travaux à faire dans le domaine de la traduction automatique et écrite de toutes les langues."

La traduction automatique

Il va sans dire que la traduction automatique n’offre pas la qualité de travail des professionnels de la traduction, et qu’il est très préférable de faire appel à ces derniers quand on a le temps et l’argent nécessaires. Les logiciels de traduction sont toutefois très pratiques pour fournir un résultat immédiat et à moindres frais, sinon gratuit. Des logiciels en accès libre sur l’internet permettent de traduire en quelques secondes une page web ou un texte court, avec plusieurs combinaisons de langues possibles.

Le but d’un logiciel de traduction automatique est d’analyser le texte dans la langue source (texte à traduire) et de générer automatiquement le texte correspondant dans la langue cible (texte traduit), en utilisant des règles précises pour le transfert de la structure grammaticale. Comme l’explique l’EAMT (European Association for Machine Translation) sur son site, "il existe aujourd’hui un certain nombre de systèmes produisant un résultat qui, s’il n’est pas parfait, est de qualité suffisante pour être utile dans certaines applications spécifiques, en général dans le domaine de la documentation technique. De plus, les logiciels de traduction, qui sont essentiellement destinés à aider le traducteur humain à produire des traductions, jouissent d’une popularité croissante auprès des organismes professionnels de traduction."

En 1998, un historique de la traduction automatique était présent sur le site de Globalink, société spécialisée dans les produits et services de traduction. Le site a depuis disparu, Globalink ayant été racheté en 1999 par Lernout & Hauspie (lui-même racheté en 2002 par ScanSoft). Voici cet historique résumé dans les deux paragraphes qui suivent.

La traduction automatique et le traitement de la langue naturelle font leur apparition à la fin des années 1930, et progressent ensuite de pair avec l’évolution de l’informatique quantitative. Pendant la deuxième guerre mondiale, le développement des premiers ordinateurs programmables bénéficie des progrès de la cryptographie et des efforts faits pour tenter de fissurer les codes secrets allemands et autres codes de guerre. Suite à la guerre, dans le secteur émergent des technologies de l’information, on continue de s’intéresser de près à la traduction et à l’analyse du texte en langue naturelle. Dans les années 1950, la recherche porte sur la traduction littérale, à savoir la traduction mot à mot sans prise en compte des règles linguistiques. Le projet russe débuté en 1950 à l’Université de Georgetown représente la première tentative systématique visant à créer un système de traduction automatique utilisable. Tout au long des années 1950 et au début des années 1960, des recherches sont également menées en Europe et aux Etats-Unis. En 1965, les progrès rapides en linguistique théorique culminent avec la publication d’Aspects de la théorie syntaxique, de Noam Chomsky, qui propose de nouvelles définitions de la phonologie, la morphologie, la syntaxe et la sémantique du langage humain. Toutefois, en 1966, un rapport officiel américain donne une estimation prématurément négative des systèmes de traduction automatique, mettant fin au financement et à l’expérimentation dans ce domaine pour la décennie suivante.

Il faut attendre la fin des années 1970 pour que des expériences sérieuses soient à nouveau entreprises, parallèlement aux progrès de l’informatique et des technologies des langues. Cette période voit aussi le développement de systèmes de transfert d’une langue à l’autre et le lancement des premières tentatives commerciales. Des sociétés comme Systran et Metal sont persuadées de la viabilité et de l’utilité d’un tel marché. Elles mettent sur pied des produits et services de traduction automatique reliés à un serveur central. Mais les problèmes restent nombreux: des coûts élevés de développement, un énorme travail lexicographique, la difficulté de proposer de nouvelles combinaisons de langues, l’inaccessibilité de tels systèmes pour l’utilisateur moyen, et enfin la difficulté de passer à de nouveaux stades de développement.

En 1999 et 2000, la généralisation de l’internet et les débuts du commerce électronique provoquent la naissance d’un véritable marché. Trois sociétés – Systran, Softissimo et Lernout & Hauspie – lancent des produits à destination du grand public, des professionnels et des industriels.

Systran développe un logiciel de traduction utilisé notamment par le moteur de recherche AltaVista. Softissimo commercialise la série de logiciels de traduction Reverso, à côté de produits d’écriture multilingue, de dictionnaires électroniques et de méthodes de langues. Reverso équipe par exemple Voilà, le moteur de recherche de France Télécom. Lernout & Hauspie (racheté depuis par ScanSoft) propose des produits et services en dictée, traduction, compression vocale, synthèse vocale et documentation industrielle.

En mars 2001, IBM se lance à son tour dans un marché en pleine expansion. Il commercialise un produit professionnel haut de gamme, le WebSphere Translation Server. Ce logiciel traduit instantanément en plusieurs langues (allemand, anglais, chinois, coréen, espagnol, français, italien, japonais) des pages web, des courriers électroniques et des dialogues en direct (chats). Il interprète 500 mots à la seconde et permet l’ajout de vocabulaires spécifiques.

En juin 2001, les sociétés Logos et Y.A. Champollion s’associent pour créer Champollion Wordfast, une société de services d’ingénierie en traduction et localisation et en gestion de contenu multilingue. Wordfast est un logiciel de traduction automatique avec terminologie disponible en temps réel, contrôle typographique et compatibilité avec le WebSphere Translation Server d'IBM, les logiciels de TMX et ceux de Trados. Une version simplifiée de Wordfast est téléchargeable gratuitement, tout comme le manuel d’utilisation, disponible en 16 langues différentes.

De nombreux organismes publics participent eux aussi à la R&D (recherche et développement) en traduction automatique. Voici trois exemples parmi d’autres, l’un dans la communauté anglophone, l’autre dans la communauté francophone, le troisième dans la communauté internationale.

Rattaché à l’USC/ISI (University of Southern California / Information Sciences Institute), le Natural Language Group traite de plusieurs aspects du traitement de la langue naturelle: traduction automatique, résumé automatique de texte, gestion multilingue des verbes, développement de taxinomies de concepts (ontologies), génération de texte, élaboration de gros lexiques multilingues et communication multimédia.

Au sein du laboratoire CLIPS (Communication langagière et interaction personne-système) de l’Institut d’informatique et mathématiques appliquées (IMAG) de Grenoble, le GETA (Groupe d’étude pour la traduction automatique) est une équipe pluridisciplinaire formée d’informaticiens et de linguistes. Ses thèmes de recherche concernent tous les aspects théoriques, méthodologiques et pratiques de la traduction assistée par ordinateur (TAO), et plus généralement de l’informatique multilingue.

Le GETA participe entre autres à l’élaboration de l’UNL (universal networking language), un métalangage numérique destiné à l’encodage, au stockage, à la recherche et à la communication d’informations multilingues indépendamment d’une langue source donnée. Ce métalangage est développé par l’UNL Program, un programme international impliquant de nombreux partenaires dans toutes les communautés linguistiques. Créé dans le cadre de l’UNU/IAS (United Nations University / Institute of Advanced Studies), ce programme se poursuit désormais sous l’égide de l’UNDL Foundation (UNDL: Universal Networking Digital Language).


Conclusion
Table des matières


Vol. 1 (1993-1998)
Vol. 1 & 2 (1993-2003)


© 2003 Marie Lebert