L’internet : aspects techniques
Albert CHOU

Gilles GIUDICELLI

et

Thomas CHEVANNE

Institut d’Etudes Politiques de Paris
L’internet : Enjeux de théorie politique
Conférence de Paul Mathias 

 


INTRODUCTION

L'internet est né avec des techniques bien particulières qui étaient adaptées à sa nature initiale de réseau destiné avant tout à un nombre relativement restreint de chercheurs. Mais le réseau des réseaux est en train de devenir un média de masse. Pour cela, de nouvelles techniques ont été inventées qui vont en retour modifier profondément la nature du web. Nous nous concentrerons sur les évolutions et les débats techniques les plus marquants et qui pourraient avoir les conséquences les plus importantes sur l’avenir de l'internet. 

L'internet est un réseau de communication qui, en tant que tel, possède deux niveaux, comme pour le téléphone : le premier, le plus bas, est le véhicule ; c'est le combiné téléphonique que l'on décroche, le fil qui transmet les signaux électriques. Le second, plus haut, est le contenu : c'est le " allo, c'est Marie-Pierre ". Or, pour l'internet, le problème est le suivant : le véhicule est en train de changer tandis que le contenu se complexifie. 

À peu près tout le monde le sait à présent : l'internet tel que nous le connaissons vit ses dernières heures (ou plutôt ses dernières années). En ce moment même, un consortium, mené par l'Internet Engineering Task Force travaille à la mise au point d'un internet plus puissant, plus rapide, plus fiable : l'internet 2.

I / De nouvelles techniques au service de la "nouvelle économie"

A ) Les techniques de base : universelles, ouvertes et simples

- Selon une définition du Federal Network Council (1995), instance fédérale dédiée aux nouvelles technologies, l'internet est un réseau relié grâce au protocole TCP/IP et à ses extensions à venir. Même hétérogène sur le plan des canaux de transmission, l'internet demeure homogène sur le plan des protocoles de transfert.

TCP/IP

- Pour plus de détails, sites de vulgarisation : http://www.commentcamarche.net, Internet Encyclopedia

Un principe fondamental de la communication en réseau : l’information est scindée en paquets qui chacun tentent de prendre le chemin le plus fiable pour arriver chez son destinataire. 

L’internet est une suite de protocoles, dont les plus importants sont : IP ? Internet Protocol (système d’adressage, déjà évoqué lors d'un précédent exposé), et TCP (système de vérification des données transmises). En clair, il fournit une adresse IP à chaque machine afin d’acheminer des paquets de données. TCP/IP est tout simplement un système d’adressage et de routage de l’information. Il est décentralisé et fiable car il offre un bon contrôle des erreurs de transmission, de manière que les données arrivent dans le meilleur état possible au destinataire. Désavantage du contrôle : il ralentit la transmission. En conséquence de quoi le protocole est plutôt statique. Il permet de transmettre des programmes ou des données avec une grande fiabilité, mais il est déficient pour d’autres applications, notamment celles qui requièrent un afflux de données
massif et continu. Pour le streaming, par exemple, on utilise un autre protocole : UDP.

HTML

Un protocole de transmission ne serait rien sans le contenu qu'il transporte. Mais sous quelle forme ce dernier s'exprime-t-il ? Sur l'internet, un langage domine : le HTML (ou Hyper Text Markup Language). Conçu pour être universel, facile à utiliser et ouvert, il est le langage qui permit l'essor du Web et l'avènement de l'internet tel qu'on le connaît. 

- Universel, le HTML tourne sur toutes les plates-formes et est reconnu par tous les butineurs ou presque. 

- Facile d'emploi, il fonctionne par un système de flags ou drapeaux, qui symbolisent chacun une fonction de mise en forme (d'où le nom de markup language : la forme d'une phrase dépend du marquage qu'on lui assigne). 

- Ouvert, il est à la fois accessible au plus grand nombre (disponibilité de la source de chaque page) et tourné vers l'accès au plus grand nombre de documents via le concept du lien hypertexte. Ce dernier permet d'accéder directement au document pointé, qu'il soit sur le même site ou à l'autre bout du globe. 

Un tel langage permet donc à tout un chacun de publier des documents en ligne sans nécessairement posséder des connaissances pointues en informatique. Le HTML ne nécessite aucune maîtrise d'équations ou de programmation logique. Le fait de pouvoir voir le code source de telle ou telle page permet au néophyte de s'initier rapidement en disposant immédiatement de modèles relativement faciles à comprendre. 

Grâce ou à cause du HTML, la communication ne suit plus le schéma traditionnel qui prédomine dans les autres médias : vertical, descendant et pyramidale ; de l'émetteur vers le récepteur, sans réciproque. Le schéma fondateur de l'internet, celui qui fait sa force et son originalité est lui, horizontal et circulaire : tous les acteurs sont à la fois émetteurs et récepteurs, et l'information circule latéralement, de pôle à pôle.

Réseau en couche

- Système par couches, qui permet des transferts de données par tous les canaux (téléphone, mais aussi câble, ondes (téléphones portables...)

B ) De l'internet universitaire à l'internet marchand :

Ipv6

Le protocole qui sous-tendait la toile, l'internet Protocol version 4 (ou IPv4), après une période de cohabitation avec son successeur sera, d'ici quelques années, définitivement remplacé par l'internet protocol version 6 (IPv6). Pour les usagers, le changement se fera de manière quasiment imperceptible. Il est même à peu près certain que la mort de l'internet n'émouvra pas l'internaute moyen, celui qui s'est connecté pour la première fois il y a moins de six mois et qui, toujours plus nombreux, alimente la croissance du réseau des réseaux. 

C'est d'ailleurs pour répondre à l'élargissement considérable du parc de machines connectées à l'internet ainsi qu'à la multiplication des différents besoins qui en dérivent que cette réforme du protocole fondateur de l'Internet a été entreprise. 

L'IPv6 répond ainsi aux besoins des nouveaux acteurs de l'internet : les entreprises et tous ceux qui ont décidé de se lancer dans le commerce électronique, fer de lance de la " nouvelle économie ". 

Pour cela, la conception même du principe de transmission de l'information par paquets - clef de voûte de l'Internet - a été repensée. L'IPv6 offrira plus de sécurité en transmettant plus d'informations que l'IPv4 dans leurs en-têtes : 128 bits contre seulement 32. Entre autres choses, il sera possible pour un serveur de connaître la source (adresse de l'expéditeur) du paquet qu'il reçoit, évitant ainsi d'accueillir les paquets suspects à l'origine des actes de piratage dont la plus courante est le spoofing(usurpation d'adresses IP). De plus, contrairement à l'IPv4, l'IPv6 a été pensé depuis l'origine en terme de cryptage. Ce surcroît de sécurité est de nature à rassurer vendeurs et consommateurs qui pourront véritablement jouir de transactions sécurisées, contrairement à ce qui se passe aujourd'hui. 

Avec le développement de nouvelles applications en ligne telles que le streaming vidéo ou musical, le développement d'appareils nomades capables de se connecter au réseau depuis n'importe où, il a fallu également repenser toute l'architecture des protocoles de transmission. IPv6 supporte ainsi le multicast (un paquet est reproduit autant de fois que nécessaire et transmis à tous les utilisateurs d'un même groupe, économisant ainsi de la bande passante) et le anycast (un paquet peut être dirigé par le serveur dans n'importe quelle direction). Ces deux techniques devraient améliorer les performances du streaming. Par ailleurs, la hiérarchie des adresses a été repensée afin de permettre au réseau de supporter structurellement (et non pas par addition de rustines, de modules et autres outils ad hoc comme ce fut le cas de NAT pour accroître artificiellement le nombre d'adresses disponibles par l'IPv4) le plus de connexions possibles. 

L'Internet 2 sera donc plus rapide, plus grand et plus ergonomique. Il reprend les principes qui ont fait le succès de l'IPv4 tout en en corrigeant les lacunes. Sa conception est une réponse aux changements que l'internet a connu ces dernières années et que nul ne pouvait prévoir. A priori donc, l'internet 2 serait une simple mise à jour du premier Internet. Rien de bien méchant. Par conséquent, il n'y a pas lieu de s'interroger sur la technique employée puisque sa finalité est de répondre à l'intérêt général. 

Mais, comme l'on s'en doute, tout n'est pas si simple et cette question du protocole est loin d'être neutre. 

Pour avoir une idée du débat, voir ce lien : http://slashdot.org/features/00/02/06/1155249.shtml

Contrairement à ce qu'il est permis de croire, l'avènement de l'Internet 2 ne fait pas que des heureux. Une bonne partie des internautes de la première heure, les nerds, les hackers, etc. se méfient de l'IPv6. À cela ils déploient plusieurs arguments : 

- Avec l'IPv6, l'anonymat n'est plus possible. En effet, l'accroissement de la taille des adresses IP (qui deviennent virtuellement illimitées), les en-têtes 128 bits des paquets permettront d'identifier et de traquer sans aucun problème tous les internautes. Étant donné qu'il y aura une profusion d'adresses, on peut s'attendre à ce que chacun ait une adresse unique et fixe (contrairement aux connexions par téléphone qui génèrent des adresses différentes à chaque connexion), l'identifiant comme un code-barre sur un produit. Par ailleurs, les en-têtes 128 bits pouvant contenir encore plus d'informations qu'avant, il est tout à fait possible d'envisager la transmission d'un nombre considérable de données personnelles concernant l'internaute et ce, à son insu. Ainsi, on en déduit logiquement qu'avec la disparition de l'anonymat disparaît la liberté qui était la principale caractéristique de l'internet 1. 

- Enfin, l'IPv6 a surtout été voulu pour des raisons marchandes. Ce qui explique l'architecture choisie : il s'agit de se constituer le plus rapidement possible des méga-bases de données qui donnent une véritable puissance économique et politique à leur propriétaire. L'IPv6 serait donc le cheval de Troie de ce qu'il est convenu d'appeler le corporate Internet, l'internet marchand. 

Mais, si l'on reprend l'argument de l'anonymat, on peut simplement remarquer que celui-ci entraîne une certaine forme d'irresponsabilité. Puisqu'il existe une possibilité d'avancer masqué, pourquoi assumerais-je mes propos et mes actes ? D'où l'apparition de comportements inciviques encouragés par un sentiment d'impunité. Or, il n'existe pas de liberté sans responsabilité, sinon chez les enfants. Donc, a contrario, la perte de l'anonymat (nous ne parlons pas de la perte de vie privée) serait un premier pas pour sortir de l'état de nature que constitue l'internet décrit par les nerds. Dans ces conditions, il est nécessaire de voir dans l'internet, non pas un espace privé (ce à quoi tout le monde tend à penser puisque l'on consulte l'Internet depuis un ordinateur posé sur la table de son bureau), mais un espace public doté de lois, comme dans le monde réel. 

Enfin, les informations que les en-têtes de l'IPv6 transmettent ne concernent pas la vie privée (que les détracteurs de l'Internet 2 confondent souvent avec anonymat), mais surtout des informations d'adressage et de routage. Le cryptage incorporé au protocole permettra à l'utilisateur de protéger le contenu de l'information qu'il envoie. On pourra certes savoir d'où il vient et à la rigueur quel est son nom, mais en aucun cas, on ne pourra lire sans son accord le contenu de son mail ou du formulaire qu'il remplit. 

En fait, si l'on y regarde de plus près, l'IPv4 ne protège pas mieux l'anonymat et la vie privée de l'internaute l'IPv6. Les cookies, ces petits fichiers textes envoyés par un serveur et stockés sur le disque dur du client, permettent d'en savoir bien plus long sur son utilisateur que l'IPv6 et ses en-têtes à 128 bits. Par ailleurs, il existe déjà une profusion de logiciels - légaux ou non - qui permettent de suivre la navigation de l'internaute lambda

Le véhicule de l'information et de la pensée sur le réseau des réseaux, l'IPv6, suscite bien plus que des discussions techniques. Il a pour enjeu les formes que prendra dans les années à venir la communication de la pensée et la pensée elle-même. À ce titre, il convient de ne pas négliger le contenu que le véhicule transporte.

Personnalisation

La tendance à la personnalisation des sites remet en cause de manière grave et plus globale l'anonymat. Les techniques de personnalisation progressent très rapidement aujourd'hui. Les créateurs de site disposent d'outils qui leur permettent d'adapter le contenu de leur site au profil des visiteurs. Ce profil est déterminé par les choix que fait le visiteur en navigant sur http://www.imediation.com/
Cf. l'affaire de amazone : plus généralement la plupart des systèmes qui tendent à rendre l'internet plus facile pour le grand public en lui proposant uniquement un contenu susecptible de l'intéresser rompent l'anonymat du web puisqu'il faut disposer d'informations sur cet utilisateur. De plus on se dirige vers un système ou l'information est proposée par le fournisseur de contenu alors que le web à l'origine impliquait une démarche volontaire pour aller chercher l'information (par exemple des systèmes qui proposent des sites en rapport avec les centres d'intérêt de l'Internaute déterminés par les précédents sites visités. Le modèle économique de l'Internet fait une large place à la publicité, ce qui donne un grand avenir à ces technologies). 

Ceci renforce le pouvoir des créateurs de contenu au détriment des "navigants" Ce phénomène est dangereux car la séparation entre les deux catégories pourrait devenir de plus en plus forte.

C ) Un internet plus beau mais moins libre

Ergonomie = technicité croissante

Avec ces nouveaux outils, il est possible désormais de développer des sites attrayants mais qui requièrent, en même temps, un degré de compétence technique toujours plus élevé. 

Or, de plus en plus, la conception d'un site web passe par une division du travail toujours plus poussée : en plus du concepteur, viennent s'ajouter graphistes, programmeurs spécialisés en HTML, C, Java, Flash ou autre, rédacteurs, etc. Concrètement, cela se traduit sur les moniteurs par une très nette différenciation entre les sites professionnels d'une part, et les sites personnels d'autre part. C'est quelque chose que l'on distingue tout de suite, au premier abord. D'un côté, des sites graphiquement riches et denses, jouant sur les derniers effets multimédias, avec un contenu important et renouvelé très régulièrement, de l'autre des sites qui parfois ne contiennent qu'une page de texte avec à peine une illustration mal scannée et dont la mise à jour est quasi-inexistante. 

La plupart du temps, lancé à la recherche d'une information précise, on passera sur ces derniers sites, qui sont souvent trahis par leurs adresses (elles sont souvent rangées dans un sous-répertoire du type /fournisseur/perso/page.html), pour se concentrer uniquement sur les sites dits professionnels. D'où une possible discrimination des sites par l'apparence, le look' and 'feel : c'est parce que les administrations françaises veulent être lues par des citoyens internautes qu'elles ont décidé de faire des pages volontairement au goût du jour, très loin de l'image austère de ces institutions, quitte à leur donner un corporate look'n'feel, comme c'est le cas du site de l'Assemblée nationale. 

Donc, en plus du problème d'indexation sur des moteurs de recherche, existe un problème d'audience : pour avoir une chance d'être lu et d'interagir avec d'autres (ce qui fait l'intérêt de l'internet), il faut un site attrayant, qui requiert un niveau de compétence élevé. À cela s'ajoute le fait que l'embellissement de la page web a un coût, celui des outils utilisés dont certains, comme Dreamweaver de Macromédia est d'environ 5000FF. 

Simple au départ, le HTML s'est complexifié, faisant de la publication en ligne une affaire de spécialistes. Cette situation contredit naturellement le caractère premier de l'internet : la liberté qu'il donne aux individus de s'exprimer, sans aucune barrière technique. On aboutit donc à une situation paradoxale : en dépit du changement de protocole de transmission qui s'annonce, l'internet 2 étant conçu pour accueillir encore plus d'internautes, ceux-ci n'auront peut-être plus la possibilité de s'exprimer sans l'aide d'un technicien, un peu comme un analphabète aurait recours à un écrivain public pour sa correspondance avec le monde extérieur. Malgré ce que ses défenseurs peuvent dire, l'internet serait encore et toujours une affaire de spécialistes, seuls capables de profiter de la liberté que l'internet offre. Affaire de protocoles qui, a priori profite surtout aux techniciens, l'internet est également une question de standards.

Référencement

Avec la croissance de l'internet évoquée plus haut, une difficulté apparaît : plus on est nombreux, moins il est facile de se faire entendre. 

Concrètement, il est devenu difficile de se faire référencer de manière décente sur un annuaire ou un moteur de recherche. En outre, l'indexation a parfois un coût qui varie selon la notoriété de l'annuaire ou du moteur de recherche et de la place que le site occupe lorsque le moteur transmet les occurrences à la requête des l'internaute. Plus on est haut dans la liste des occurrences que le moteur déroule pour l'internaute, et plus l'on a de chance d'être visité. 

Les techniques de référencement et de recherchent se perfectionnent avec des moteurs de recherche qui classent les sites en fonction de leur popularité (jugée par le nombre de liens qui pointent vers eux) comme google ou avec des agences spécialisées dans l'optimisation du référencement.

II / De l'ouverture universelle à l'éclatement clanique

A ) Un internet à deux vitesses

Multiplication des terminaux

Les terminaux d'accès à l'internet se multiplient. Une grande partie des débats techniques actuels portent sur le moyen de faire communiquer grâce à Internet des appareils différents et autres que des PCs. Sans rentrer dans des détails trop techniques on peut mentionner la technologie Jini, mise au point par Sun qui doit permettre de faire communiquer entre eux tous les appareils électroniques, c'est à dire presque tous les objets qui nous entourent. De même la norme qui succédera au GSM pour le téléphone portable est conçu pour permettre la transmission de paquets de données et être compatible avec Internet. 

Ceci pourrait faire perdre son unité à internet. En effet le réseau est actuellement définie par un accès universel grâce à un logiciel unique, le navigateur. 

De plus on pourrait voir apparaître une dissociation des contenus en fonction des moyens d'accès et l'apparition d'un Internet à eux vitesses ou à plusieurs vitesses. 

Multiplication des moyens d'accès 

De même on observe une multiplication des moyens d'accès à Internet avec le cable, le satellite, l'ADSL. Ces moyens doivent permettre, avec le nouveau protocole, la fameuse convergence entre la télévision et Internet qui n'est pas encore possible vu la lenteur des connexions. Il n'est pas certain que ces moyens suffisent pour fournir un débit suffisant et absorber l'augmentation du trafic. 

D'autres solutions plus radicales auraient des conséquences importantes sur la nature de l'internet. 

L’Internet optique qui permettrait avec de nouvelles techniques comme DWDM (Dense Wave Division multiplexing). Elle permet à une fibre optique de transporter plusieurs longueurs d'ondes ou "couleurs" simultanément. Les utilisateurs pourraient donc contrôler leurs propres longueurs d'onde et ainsi construire leur propre réseau optique privé virtuel. Ils pourront prendre en main leur réseau comme ils ont pris en main leur PC, il y a une quinzaine d'années. 

Une autre méthode suggérée pour gérer la montée du trafic est d'utiliser un protocole qui affecte des ordres de priorité aux paquets d'information, comme le projet RSVP Ce projet soulève de nombreuses questions notamment pour savoir qui contrôlera la détermination de la priorité. Il permettra de privilégier certains utilisateurs qui auront le droit d’affecter un niveau de priorité maximal pour leurs communications. On peut se demander à qui ce droit serait il donné : uniquement aux Etats ? Aux communications professionnelles ? Il y aurait là une rupture de l'égalité au moins formelle entre les Internautes qui marquerait un changement fondamental dans la nature de l'Internet. 

Possibilité de réseaux privés et payants

La nécessité de fournir un débit plus important, l'apparition de nouvelles techniques d'accès et la multiplication des terminaux pourraient faire éclater l'Internet actuel. Des réseaux payants seraient alors les seuls à fournir à des internautes privilégiés certains services et certains contenus. L'apparition de groupes combinant production de contenu et fourniture d'accès comme AOL Time Warner pourrait créer des discriminations sur le contenu. 

En effet faire passer de la télévision sur Internet et Internet sur un téléphone portable suppose des investissements importants dans l'infrastructure. Cet investissement ne pourra pas cette fois ci être fait par des uniquement par des universités, des Etats ou des entreprises publiques. Les entreprises qui le feront devront s'assurer un accès privilégié au réseau pour le rentabiliser.

B ) Eclatement des standards ou convergence ?

The nice thing about standards, is that there are so many to choose from - Dicton d’ingénieurs
Pour que des ordinateurs puissent former un réseau, il faut qu’ils puissent communiquer entre eux. Cette communication ne peut avoir lieu sans que les concepteurs des machines et des logiciels se soient accordé sur l’adoption de standards communs. Sans ce travail de standardisation, il serait par exemple impossible de transmettre des dossiers d’un réseau à l’autre, ou bien simplement d’un PC à un Macintosh. C’est l’interopérabilité entre systèmes qui donne au réseau son ampleur, son unicité, et son universalité. Les standards sont la lingua franca qui permet à tous les réseaux de communiquer entre eux sans pertes de
données, et former ainsi l’Internet tel qu’on le connaît aujourd’hui. 

Certains standards sont bien connus du grand public : c’est le cas de l’html, qui rend possible les liens hypertexte, et constitue la base du Web. C’est également celui des formats de compression d’images gif, jpeg ou PDF. Mais c’est un standard un peu moins connu qui sert de soubassement à tout le réseau : il s’agit du protocole TCP/IP, qui fédère la quasi-totalité des applications internet. 

Pour que le Net puisse fonctionner de manière efficace et s’étendre jusqu’à sa taille actuelle, les concepteurs de matériel et de logiciel ont été amenés à trouver entre eux un nombre impressionnant de terrains d’entente. D’où une idée couramment répandue : ce serait le réseau lui-même qui, par sa rapidité et son caractère décentralisé, faciliterait la coopération au pointde rendre inéluctable l’émergence de standards, et l’adoption finale des standards les plus adaptés.

Cependant, si l’hypothèse d’un déterminisme technique poussant vers la standardisation s’avérait justifiée, la nature du protocole effectivement adopté (le langage html, par exemple) serait réductible à une simple contingence matérielle. Le standard ne serait guère que le moyen le plus efficace possible de remplir une fonction donnée à l’époque où il est élaboré. 

Or, les standards ne sont pas neutres : ils conditionnent fortement la nature des applications et des usages du réseau, ainsi que sa forme. De plus, ils sont eux-mêmes façonnés par les circonstances : s’il existe des standards plutôt que rien, c’est parce que des acteurs ont estimé qu’il y allait de leur intérêt commun. 

L’apparition du standard résulte d’une stratégie d’acteurs : en cela, elle constitue un fait historique contingent, et n’a donc rien d’une fatalité. Certains contextes sont favorables à l’émergence de standards, d’autres le sont moins. Et la conjoncture historique porte sa marque sur la nature des réseaux auxquels elle donne naissance. 

Depuis les années 1970 sont apparues des institutions et des pratiques qui ont servi la cause de la standardisation :

- les RFC (requests for comment) : notes circulant sur la Toile, où chacun est appelé à faire son commentaire sur telle ou telle évolution technique. Démultiplie l’efficacité de la coopération en permettant de décentraliser la collaboration. Depuis 1969, ces appels à contribution ont constitué l’un des nerfs de la standardisation. Un exemple de RFC :
http://freesoft.org/CIE/Topics/17.htm
- Des instances de concertation, qui, nées du monde universitaire, ont remarquablement réussi leur ‘sécularisation’. C’est le cas, par exemple, de l’Internet Engineering Task Force (qui édite et rassemble les RFC), ou de la W3C. Le salon Interop, né de rencontres informelles entre chercheurs, rassemble aujourd’hui chaque année des milliers de personnes dans sept capitales mondiales.
La coopération est donc à la fois possible et efficace. Et elle fonctionne pour un grand nombre d’évolutions de l'internet.

Le problème réside dans le fait que tous les acteurs ne souhaitent pas coopérer. Et on assiste actuellement à une modification en profondeur du tissu de producteurs de technique. Depuis la fin de la Guerre Froide et la fin du financement public massif de la recherche, la production de technologie Internet est largement passée aux mains d’acteurs privés et lucratifs de grande taille, qui ont de moins en moins intérêt à collaborer. Et les instances n’y peuvent rien, étant donné l'ampleur des intérêts en jeu.

Guerre des langages

Par ailleurs, un autre problème se pose à qui veut se faire entendre (ou plutôt se faire lire) sur le Net. Depuis un certain temps déjà, d'autres langages que le HTML se sont développés pour embellir les pages web et leur donner davantage de fonctionnalités. Ce sont pêle-mêle le langage Java, le Java-script, les modules propriétaires Flash de Macromédia pour faire des animations, le XML, le VRML, etc.

Exemple de risques d'éclatements :  Guerre des Messengers

Les messengers - des logiciels se présentant sous la frome de fenêtres, grâce auxquelles on peut rester joignable sur le Net et pratiquer le dialogue en direct - représentent un marché prometteur : non seulement ils constituent un support publicitaire de choix (diffusion et ciblage), mais on prévoit également leur extension à des équipements portables (téléphone mobile, assistant personnel...) dans un avenir proche. 

C'est sur ce marché stratégique que se sont affrontés, sur la question des standards, les acteurs les plus importants de l'Internet. Les deux protagonistes sont AOL et Microsoft. 

En juillet 1999, Microsoft lance son produit : le MSN Messenger. A l’époque, il ne  compte guère plus d’un million d’utilisateurs. Un acteur minuscule, comparé à son oncurrent AOL, dont les produits, ICQ et AOL Instant Messenger, rassemblent à eux deux près de 80 millions d’abonnés. Un nain, certes, mais doté d’un fort potentiel de croissance, grâce au parc d’utilisateurs captifs que représente Hotmail. Pour rendre son produit plus attrayant, Microsoft fait en sorte que le MSN Messenger soit compatible avec celui d’AOL Instant Messenger (AIM)

AOL ne voit pas d’un bon oeil ce nouveau concurrent, et réagit de manière agressive en modifiant son protocole, afin de compromettre la compatibilité entre les deux messengers. En réponse, Microsoft modifie à son tour son protocole et le rend de nouveau compatible avec celui de l’AIM... 

Démarre alors un jeu de poursuite qui entraînera les protagonistes dans des manœuvre d’une violence encore jamais vue sur Internet : AOL est allé jusqu’à utiliser une faille de sécurité dans le système de Microsoft pour repérer les utilisateurs du MSN Messenger et leur bloquer l'accès aux abonnés AOL. 

Désavantagé, Microsoft change de tactique, et s'associe avec d’autres acteurs (Yahoo, Prodigy, AT&T...) pour demander la compatibilité. Ironie de l’histoire : dans cette affaire, c'est Microsoft qui s'est retrouvé contraint de se muer en grand défenseur des intérêts du consommateur... 

A travers cet exemple, on voit à quel point la coopération entre producteurs de technique se trouve compromise dès lors qu’on a affaire à un petit nombre d’acteurs de taille importante n’ayant pas nécessairement intérêt à s’entendre. A cet égard, la situation actuelle diffère fondamentalement de celle de la Guerre Froide, où des chercheurs se trouvaient réunis sous l’égide le l’Etat fédéral, grassement payés pour mener à bien ensemble un projet dont le succès allait conditionner le reste de leur carrière. La conquête du cyberespace vient sans aucun doute d’entamer une phase plus violente de son histoire.

La difficulté des stratégies de coopération

D’organisé et coopératif qu’il était du temps de l’ARPANET, le jeu des acteurs est aujourd’hui devenu chaotique et prompt aux rapports de forces. 

Deux types de forces s’affrontent : 

Des forces centripètes, constituées des acteurs ayant intérêt à collaborer, c’est-à-dire : 

- les acteurs les plus minoritaires, qui se trouvent désavantagés dans le cas d’une opposition frontale (dans l’exemple précédent : Microsoft)
- les associations de consommateurs
- les acteurs animés par un biais culturel en faveur de l’interopérabilité. Pour la plupart des survivants ou des héritiers de l’époque héroïque, ils seront peut-être appelés à disparaître un jour. Mais ils constituent encore un groupe important au sein des producteurs de technologie, et leur potentiel de mobilisation est fort. 

Des forces centrifuges, constituées d’acteurs dont la taille va en grandissant et le nombre en s’amenuisant à mesure que les fusions, les rachats et les partenariats divisent le paysage du secteur en groupes et en clans. Ces acteurs sont d’une telle puissance, et les enjeux qui les opposent deviennent si distincts, que les instances de concertation se trouvent impuissantes à les rapprocher en cas de jeu non-coopératif. 

Ce schéma en termes d’opposition demeure toutefois incomplet, dans la mesure où, s’il permet de dégager les raisons de la non-coopération, il échoue lorsqu’il s’agit de prédire à quel niveau l’affrontement doit se situer. Il existe en effet une infinité de niveaux de compatibilité entre les applications (la compatibilité peut être totale ou partielle, permanente ou changeante au gré des nouvelles versions…). Or, la culture de l’interopérabilité est
aujourd’hui suffisamment répandue pour que les acteurs coopèrent au moins ‘par défaut’, c’est-à-dire quand les enjeux commerciaux ne sont pas clairs à court terme. Quel que soit le comportement des nouveaux acteurs, il semble peu probable que la standardisation cesse tout à fait. 

Le principal risque réside dans le fait que les applications qui ont le plus d’avenir seront celles où se cristalliseront les luttes commerciales. D'où le risque d’un Internet ghettoïsé selon des lignes qui restent encore incertaines, mais dépendront étroitement des rapports de force économiques en train de se constituer à l’heure actuelle.

CONCLUSION

Les nouvelles techniques de l'internet à l'image de la transformation du réseau des réseaux. Le réseau de superordinteurs pour scientifiques tend à laisser sa place à un outil de maillage qui permet de relier des terminaux de plus en plus nombreux, mais qui en devient en même temps de plus en plus complexe. Cette complexité croissante associée aux enjeux commerciaux énormes qui sous tendent ces débats techniques peuvent faire craindre un certain éclatement d'Internet, ou une transformation de sa nature. Les nouvelles techniques tendent en effet à rendre plus difficile l'expression de chaque Internaute individuel, au profit des grandes entreprises. 

Dans cette évolution il est assez  vain de se demander si ces sont les évolutions techniques ou celles des utilisations qui sont premières et qui déterminent l'Histoire de l'internet. Les deux apparaissent en effet toujours extrêmement étroitement liés.