Actualités et nouveautés Le colloque de 1999 Articles
Bilans, débats, comptes rendus Dernier ouvrage Pointeurs et Bibliographie
Page de garde Vos commentaires et propositions

Aspects de l'économie de l'Internet

Thomas Serval
École normale supérieure & Harvard University
octobre 1999

Abstract: The growth of the Internet has turned the technical problem of managing a network into a research topic for economists. Internet is a network of network using complementary goods from the terminal to the backbone wires but it is very quickly becoming a market place where services and goods are traded. This paper tries to examplify the different ways used to tackle the economical problems of the Internet. The economics of networks, norms, tariffs, structure of the market, the economics of the software industry, of copyrights and the role of the financial markets will be addressed in this article.


Sommaire

INTRODUCTION
L'économie des infrastructures
- La congestion
- Problèmes de mesure
- Système de tarification théorique
- - Tarification optimale dynamique
- - Tarification de priorité statique
- - Le smart market
L'économie des réseaux
- Définition
- Analyse économique des réseaux
- Externalités
- Approche macro-économique
- - Concurrence pure et parfaite et réseau
- - Externalité de réseau et structure de réseau
L'économie des normes
- Comment naissent les normes ?
- Compatilibités
- L'approche mix and match
- Le cas java
L'économie des logiciels
- versioning et bundling
- Le logiciel libre
La nature de l'échange sur Internet
- Aspects théoriques
- - Le troc
- - La vente
- - L'échange d'information
- La sphère marchande : le commerce électronique
- - Les avantages de la vente par Internet
- - La publicité
- - La création monétaire sur le réseau
- L'aspect financier
- - Les start ups et la bourse
- - La valeur des start ups
- - Utilité sociale de ce mécanisme
Conclusion
- Ordinateur : concurrence
- CPU : monopole
- Mémoire : oligopole
- Périphérique : concurrence
- Système d'exploitation : monopole
- Communiquer
- La boucle locale
- Le backbone
- Le contenu
Bibliographie

INTRODUCTION

L'économie de l'Internet ne se résume pas comme on a trop tendance à le penser à une économie des services immatériels ; aussi la peur d'un monopole contrôlant tout le réseau doit être largement relativisée. Utiliser le réseau Internet c'est consommer de nombreux biens complémentaires. Le réseau Internet résulte d'une superposition de couches de biens et de services, le premier de ces services qui crée l'unité du réseau étant la norme IP (Internet Protocol).

De l'étude de ces couches de produits (cf. annexe), on peut voir se dégager quatre champs de l'économie qui interagissent entre eux. Le premier est traditionnel à l'économie des réseaux il s'agit de l'économie des infrastructures. Le second est plus spécifique à l'innovation technologique dont Internet est à la fois le support et l'objet ; il s'agit de l'économie des normes. Le troisième est propre à l'économie de l'immatériel ; il s'agit de l'économie des logiciels au sens large. Enfin le dernier est étudié traditionnellement par l'économie publique, il s'agit de déterminer l'économie de la sphère marchande et non marchande.

L'économie des infrastructures

La congestion

Etudier l'économie des infrastructures, c'est comprendre les moyens d'utiliser d'une matière optimale les tuyaux par lesquels passent les informations d'Internet. Savoir combien investir, pour quelle capacité, prévenir les embouteillages, savoir combien tarifer chacun des services mais aussi comme Internet est un réseau coopératif, savoir si il faut et à quel prix s'interconnecter avec un autre réseau.

Ces problèmes sont étudiés par les ingénieurs en télécommunication depuis des années mais également par les responsables des réseaux autoroutiers, ferroviaires…

Première constatation les applications de l'Internet demandent de plus en plus de débit (bande passante), ce débit étant limité, il constitue le facteur rare. Une des raisons de cette congestion est que les utilisateurs du réseau ne payent pas le coût réel d'usage de l'Internet et ceci pour plusieurs raisons :
- la difficulté d'identifier tous les coûts de fonctionnement du réseau (cf l'économie des réseaux)
- l'instabilité de la demande de ressources
- l'importance des financements publics qui cachent le coût réel à l'utilisateur, ainsi un étudiant qui fait passer de la vidéo sur un ordinateur de l'université utilise beaucoup plus de bande passante que celui qui consulte son mail mais ne le sait pas car les deux ne payent rien.

Problèmes de mesure

Internet est un réseau de réseaux, les normes de connection étant publiques et le coût de l'interconnection de plus en plus faible, il a tendance à se développer d'une manière anarchique et surtout difficilement quantifiable. Le niveau de complexité atteint par les flux est tel qu'il est devenu illusoire de pouvoir distinguer tous les usages individuels et de mesurer d'une manière exacte les flux d'information échangées entre l'ensemble des utilisateurs. Les modélisations modernes du trafic TCP / IP se basent sur des résultats de géométrie aléatoire. Les mesures de trafic se font principalement sur les backbones et au niveau des ISP. Le caractère stratégique de ces informations les rend parfois difficilement accessibles, la vitesse de transformation du réseau est telle que les tests économétriques sont rarement significatifs.

Ici il faut remarquer le problème de la mesure de la notion d'information. Dans son codage informatique une information est une suite de 0 et de 1. Pourtant le code d'un même contenu informatif peut être très différent. Prenons l'exemple du mot hello, si le mot hello est envoyé en texte sur le réseau il prendra 10 octets environ par contre si ce même mot est écrit sur une image il prendra 100 fois plus même si on compresse l'image. Pire encore, si l'image prend tout l'écran, elle prendra beaucoup plus de place que si elle est toute petite et pourtant le message délivré sera le même. Mais ces remarques sont des observations faites du côté du destinataire du message autrement dit du coté de la demande.

Pour les fournisseurs d'information, le codage de l'information est plus important que l'information elle-même, il s'agit d'allouer les ressources nécessaires à la transmission d'une série de bits peu importe leur informativité propre. Le coût de transmission de l'information du côté offre est donc corrélé à son volume physique. Alors que du côté de la demande la valeur de l'information dépend de l'utilité que chacun en retire. La manière dont sont tarifées ses informations est donc cruciale pour savoir comment se répartissent les gains liés aux autoroutes de l'information.


Quelles que soient les solutions techniques, l'Internet reste un réseau assimilable à un réseau routier dans lequel la circulation doit être le plus fluide possible. En effet si le réseau constitue en lui-même une externalité positive en permettant à l'ensemble des utilisateurs d'échanger des informations à faible coût, la congestion du réseau est une externalité négative dont le coût social peut être très important, par exemple un chirurgien peut attendre deux heures les radios d'un patient parce qu'un adolescent charge une copie pirate de star wars.

On pourrait être tenté de penser que ce problème de congestion n'est qu'un problème de technique de transport et qu'en achetant plus de matériel on arrivera à résoudre l'engorgement. A cela il faut faire deux objections, la première est que la couche IP (la norme de transport) se superpose à une couche physique, si la seconde permet de garantir un débit, la première ne gère pas les priorités. La seconde objection est qu'investir dans la capacité plutôt que dans la gestion des flux n'est pas socialement efficace.

L'économie étant l'art d'allouer au mieux les ressources rares, les économistes ont proposé différents modèles de tarification afin d'allouer au mieux la ressource rare (la bande passante) entre les utilisateurs. Ces modèles visent à se partager les tuyaux qui sont des biens physiques susceptibles d'appropriation (biens privés).

Système de tarification théorique

Le problème de la gestion de la congestion a été étudié depuis Pigou (1928) et Vickrey (1969). En suivant l'allégorie des autoroutes de l'information, on peut résumer le problème ainsi :
Un voyageur veut aller de la ville A à la ville B, son temps de trajet dépendra de la circulation sur la route. Le temps de trajet augmentera de plus en plus au fur et à mesure que l'on atteindra la capacité de la route. Le voyageur décidera de partir à l'heure de pointe si son bénéfice marginal est supérieur à son coût marginal (en temps). Le temps de trajet qui résulte des décisions de chacun des voyageurs a un coût social qui est la somme de tous les coûts individuels et seuls les voyageurs dont le bénéfice marginal issu du voyage excède son coût social marginal doivent partir aux heures de pointe.

Si l'on fixe le coût d'accès au réseau à zéro aux heures de pointe, un nombre trop important de personnes utilisera le réseau car elles n'en supportent pas le vrai coût social. La solution théorique consiste à établir une taxe de congestion de telle sorte qu'en comparant son bénéfice marginal à son coût marginal plus la taxe, chaque utilisateur puisse prendre une décision socialement optimale.

L'obstacle permanent de ce type de tarification est le coût administratif de collecte des données et le temps nécessaire à leur traitement. Néanmoins comme on le verra plus loin au sujet du e-commerce, l'homogénéité des données et les capacités de traitements du réseau permettront sans doute de mettre en place de tels systèmes.

Tarification optimale dynamique
La recherche de l'optimalité de l'allocation des ressources sur un réseau est aussi vieille que l'informatique. L'application de la théorie économique au réseau d'ordinateur commence avec Naor (1969), Mendelson (1985) et Pick et Whinston (1989). Ces travaux ont ensuite été adapte à l'Internet et ont permit d'effectuer des vérifications empiriques. Le modèle de référence est Gupta, Stahl and Whinston (1995) [GSW]. GSW est une représentation modélisation mathématique très complexe d'un réseau d'ordinateur qui comprend un modèle de prix, une demande de service qui varie au cours du temps et un modèle stochastique de flux de trafic.

GSW montre que l'allocation sociale optimale de ressources réseaux rares peut être obtenue en imposant une tarification optimale en terme de priorité à chaque point de congestion potentielle. Le prix optimal dépend du flux de trafic sur le site, de la taille des paquets, de la classe de priorité et du coût social du temps.

Gupta et alii (97) propose une méthode d'estimation non paramétrique de la valorisation du temps par l'utilisateur d'après des statistiques d'utilisation en temps réel, et il montre que ces estimations sont suffisamment précises pour que la perte sociale soit négligeable par rapport à la situation d'information parfaite. GSW propose une méthode de détermination des prix optimaux décentralisée en temps réel.

Dans un monde à la gsw, l'utilisateur qui se connecte à Internet, se voit proposer un menu d'options incluant le coût monétaire et une durée estimée pour utiliser chacun des services. A chaque option est associée une classe de priorité et des options supplémentaires (garantie de service, sécurité, exercice à un prix donné). L'utilisateur choisit l'option qu'il préfère ou un agent intelligent personnalisé peut automatiser ce choix en se basant sur les préférences antérieures de l'utilisateur.

Tarification de priorité statique
Cocchi R., Shenker, S., Estrin, D., and Zhang, L., (1993) (CSEZ) étudient une discipline de service et un mécanisme de tarification qui maximise le gain en temps moyen de l'utilisateur. Une discipline de service est un mécanisme mis en place par l'opérateur du réseau pour assigner des tâches à chaque classe de service (par exemple faire de son mieux, minimum garanti…) et le mécanisme de tarification associe un prix (par utilisation de bande passante) à une classe de service.

CSEZ étudient plus spécifiquement une discipline de service avec deux niveaux de priorité. En théorie, il y a une allocation optimale de la demande pour chaque niveau de priorité et il y a un prix pour chaque niveau de telle sorte que chaque utilisateur choisit grâce à ces prix le niveau de priorité socialement optimal. Ce système est plus efficace que s'il n'existait qu'un niveau de priorité. Néanmoins pour déterminer les prix, il faut un grand nombre d'information des utilisateurs et ceux ci peuvent avoir intérêt à ne pas en révéler certaines.

Ces prix de priorités sont statiques, c'est à dire qu'ils ne dépendent pas de l'état de congestion du réseau.

Le smart market
Mackie-Mason et Varian (1995) proposent une alternative à la détermination économétrique du coût social de la congestion. Selon eux, la tarification optimale de congestion peut être obtenue à l'aide d'une enchère ou les utilisateurs ont intérêt à révéler leur véritable propension à payer pour un service plus rapide.

Le mécanisme est simple : on suppose que les utilisateurs veulent effectuer un certain nombre de tâches dans un temps limité, chacun annonce un prix pour que sa tâche soit traitée. Les enchères sont triées par ordre décroissant de prix et les travaux sont effectués dans cet ordre. Le prix payé par chaque tâche effectivement traitée est celui de la première tâche qui n'a pas pu être traitée pendant le temps imparti. Si toutes les tâches sont traitées, le prix est nul. Ce mécanisme est bien révélateur, en effet enchérir plus augmentera la chance de voir sa tâche traitée seulement si le prix payé se révèle plus important que la valeur de la tâche à effectuer. En cas de sous enchère, on augmente les chances de ne pas voir sa tache traitée sans affecter le prix payé.

MV proposent que les opérateurs mettent en place des smart markets sur les paquets dans tous les points de congestion potentiels. Ceci entraînera un délai dans l'acheminement des paquets. Il y a trois critiques majeures qui peuvent être faites à ce modèle : Tout d'abord son caractère unidimensionnel, les utilisateurs s'intéressent soit à ce que leur tache soit traitée, soit au moment où elle est traitée, mais jamais au deux en même temps, en pratique ces deux paramètres sont étudiés conjointement. Ensuite tous les utilisateurs potentiels sont présents à l'enchère, donc il faut prévoir des intervalles de temps pour enchérir, les retardataires n'ont pas d'influence sur les prix or ils sont les générateurs de l'engorgement. Enfin la valeur de la tâche ne dépend d'aucun autre marché (futurs notamment), or s'il y un grand nombre de paquets à envoyer, il y a un lien entre les enchères précédentes et les suivantes.

L'économie des réseaux

Définition

Un réseau est un ensemble de noeuds et de liens. Economides et White (1994, 1996b) distinguent deux sortes de réseaux : le réseau à une voie (exemple un réseau de télévision, il y a un émetteur et un récepteur) et le réseau à deux voies comme un réseau téléphonique par exemple. Dans le cas de l'Internet on pourrait penser que l'on a affaire à un réseau à deux voies mais en fait la distinction porte plus sur les services que sur les infrastructures, en effet la communication des fournisseurs de données à l'utilisateur est très asymétrique.

Tous les réseaux utilisent un grand nombre de biens complémentaires comme le montre le schéma en annexe. Du terminal de l'utilisateur au backbone il y a toute une gamme de biens complémentaires qui sont nécessaires au fonctionnement du réseau. Mais chacune de ces suites de biens sont substituables, par exemple la branche Apple Macintosh, Mac OS, processeur Motorola, modem câble, réseau câblé, backbone est un substitut de la branche pc IBM, Microsoft Windows, modem 3com, réseau téléphonique. Or cette substituabilité d'un ensemble de biens complémentaires dépend d'une manière cruciale de leur compatibilité à un moment donné, i.e. de l'existence de normes.

Analyse économique des réseaux

L'analyse traditionnelle des réseaux supposait que le réseau était détenu par une seule firme, ce qui résumait la tâche de l'économiste à la recherche de l'allocation optimale des ressources sur ce réseau et à leur bonne utilisation.

Un survey de cette littérature peut être trouvé dans Sharkey (1993).

Ce type d'étude retrouve une application dans les travaux sur les VPN

Le démantèlement d'ATT dans les années 80 a amené la recherche économique à se concentrer sur les problèmes d'interconnexion et de compatibilité voir par exemple Baumol et Willig (1982).

Dans un réseau constitué d'autres réseaux comme Internet les paramètres cruciaux sont la compatibilité, l'interopérabilité, l'interconnexion et la coordination des qualités de services.

Externalités

Le réseau de par son existence est la source d'externalités, à la fois pour le producteur de biens et pour le consommateur. Pour le consommateur la valeur de la consommation du bien réseau augmente avec le nombre de personnes qui l'ont consommé, par exemple un réseau téléphonique est de plus en plus intéressant si de nombreuses personnes ont le téléphone (ou compte en acquérir un, il y a un effet d'anticipation également).

Les externalités peuvent être directes ou indirectes, dans un réseau à deux voies elles sont directes, l'apport d'un nouvel utilisateur est valorisable par les n utilisateurs existants, le nouvel utilisateur a accès à n personnes soit n nouveaux services potentiels créés et dans le même temps les n utilisateurs ont accès à un utilisateur soit encore n services créés. L'apport d'un nouvel utilisateur est donc la création de 2n services. (ou on peut dire qu'il y avait dans le réseau précèdent n(n- 1) services et que l'on passe à (n+1)n services) Rohlfs (1974).

Dans le cas d'un réseau à une voie les externalités sont indirectes, prenons l'exemple de deux marchés intégrés verticalement A et B (formellement équivalent à un réseau à une voie (Economides et White (1996)). S'il y a m variétés de biens A et n variétés de biens B, on a donc nm biens composites, chaque nouveau consommateur augmentera la consommation de A et B et comme il y a des économies d'échelle, l'augmentation de la demande favorisera l'apparition de nouvelles variétés.

On peut trouver des applications évidentes aux marchés financiers avec l'externalité de la profondeur du marché par exemple dans Economides (1997).

Dans les années 80, une grande attention a été portée à l'approche macro-économique des externalités, on constate l'existence d'externalités et on essaye d'en déterminer les conséquences. Les années 90 ont été plus micro-économiques, au sens ou on a essayé de déterminer l'origine de ces externalités.

Approche macro-économique

Concurrence pure et parfaite et réseau
L'existence d'externalités provient de la complémentarité des biens utilisés dans un réseau. Ainsi la valeur d'un bien A augmente d'autant plus que l'on vend du bien B et réciproquement. Ceci conduit à des solutions exponentielles et il faut dont faire intervenir deux autres paramètres, la taille critique du réseau et le comportement de la demande.

Katz et Shapiro (1985) et Economides et Himmelberg (1995) donnent une formulation de l'externalité de réseau où les anticipations sont parfaites.

Economides et Himmelberg (1995) prouvent qu'un monopole qui est incapable de discriminer en prix ne pourra construire qu'un petit réseau et fera payer plus que des entreprises en concurrence. Et ceci malgré l'influence que peut avoir le monopole sur les anticipations des consommateurs. Ainsi l'existence d'externalité de réseau ne peut pas être une raison suffisante pour justifier l'existence du monopole.

Externalité de réseau et structure de réseau
Comme le facteur déterminant pour commencer à bénéficier des externalités du réseau est d'atteindre une masse critique, un monopoliste peut avoir intérêt à licencier sa technologie afin d'atteindre cette masse critique plus rapidement et à moindre coût. L'invitation à entrer sur son marché a deux effets, il augmente la concurrence mais augmente également les revenus si l'effet de réseau est suffisant (Economides (1996)).

De nombreux réseaux ont des goulots d'étranglement, le monopole sur cette section du réseau peut facturer un droit de passage qui empêche les autres éléments du réseau d'être rentable… Une étude de ces cas a été effectuée par Economides et Woroch (1992). Le problème est que même dans les réseaux les plus simples il existe des relations entre les firmes qui ne sont ni purement horizontales ni purement verticales, pour une étude des modèles de pricing voir Economides et Salop (1992b).

Il arrivent fréquemment que certaines parties d'un réseau soient régulées et d'autres pas pour une discussion sur les conséquences en terme de tarif d'interconnexion voir par exemple Baumol et Sidak (1994a et 1994b), Economides et White (1995), Kahn et Taylor (1994), Armstrong et Doyle (1995).

Dans les marchés avec externalité de réseau, il existe des irréversibilités dues au passé. Cabral (1990) examine l'adoption des innovations en concurrence pure et parfaite en présence d'externalités de réseau. Sa principale conclusion est que si les externalités de réseaux sont fortes, le chemin d'équilibre de l'adoption de l'innovation peut être discontinu. Ceci est équivalent à la conclusion de Economides et Himmelberg ( selon laquelle il y a deux tailles de réseaux soutenables à l'équilibre).

L'économie des adaptateurs quant à elle reste à développer, les principales contributions sont dues à Farell et Saloner (1985 et suivants).

L'économie des normes

Les normes ont été de tous temps la condition de la communication, la première des normes que l'on apprend c'est le langage qui permet de communiquer avec autrui. On constitue alors un réseau de personnes parlant cette langue. L'utilité qu'on tire de la langue provient du nombre d'utilisateurs de cette langue. Internet est un moyen de communication extrêmement puissant, il relie entre elles des machines et des personnes, dès lors il a été la source ou le vecteur de nombreuses normes. La première d'entre elle étant bien sur IP (Internet Protocol) qui fédère tout les ordinateurs reliés au réseau.

Comment naissent les normes ?

Il existe une multitude d'organismes normalisateurs, nationaux, internationaux, professionnels, privés, publics…L'émergence des normes est un processus complexe et peu déterministe. En effet, on a connu des normes qui ont été adoptées par les organismes officiels mais pas par le marché (exemple la télévision couleur aux USA ou D2-Mac en France). Dans le cas de la télévision couleur aux USA, l'organisme officiel la FCC a entériné ex post la norme de fait. La fabrication des normes rentre en concurrence avec les droits des brevets. Certaines normes sont publiques dès leur création car elles résultent d'un comportement coopératif de l'ensemble des acteurs du marché, d'autres sont dites propriétaires et nécessitent l'octroi de licence pour être utilisées.

Compatilibités

Dans l'hypothèse d'une structure de marché oligopolistique deux cas peuvent se présenter, la vente de biens compatibles ou de biens incompatibles. La production de biens compatibles par des oligopoles à la Cournot influence les anticipations des consommateurs alors que dans le second cas cette influence est très marginale. Ces analyses permettent de trouver des arguments rationnels pour expliquer le choix par des entreprises de technologies compatibles ou incompatibles avec les autres. Katz et Shapiro (1985) prouvent que la production totale sera plus grande dans le cas de technologies compatibles.

De cette analyse économique des coalitions on peut déduire qu'une firme a intérêt à avoir une technologie compatible si :
Intérêt de la firme pour la compatibilité Intérêt de la coalition
L'externalité marginale est forte L'externalité marginale est forte
Elle rejoint une grande coalition La société est importante
La concurrence ne s'accroît pas significativement par le ralliement La concurrence ne s'accroît pas significativement par le ralliement
Si les coûts de ralliement à un standard sont différents entre les firmes, une modélisation en terme de théorie des jeux permet de voir quels sont les équilibres coopératifs ou non qui peuvent se mettre en place. Une analyse poussée de ces types de jeux peut être trouvée dans Berg (1988). La conclusion de ces modèles est que l'adoption de ces standards n'est pas une garantie de maximisation du bien être social.

L'approche mix and match

L'approche mix and match (Matutes and Regibeau (1988, 1989, 1992)), Economides et Salop (1992b) :
Considérons deux biens complémentaires (A1,B1,A2,B2), présents chacun sous deux variétés, la technologie est connue et les coûts de coordination sont nuls. Les incitations à la compatibilité d'une firme intégrée verticalement, i.e. produisant A1 et B1, dépendent de l'importance relative de chaque composant complémentaire. La compatibilité réciproque (compatibilité A1B2 et A2B 1) augmente la demande mais également la concurrence sur chacun des biens pris individuellement. En conséquence quand la demande est importante en bien A1B2 relativement à A1B1, la firme a intérêt à la compatibilité. Si la demande en bien A1B2 est faible devant A1B 1 la firme n'a pas intérêt à la compatibilité. Ainsi il devient possible avec deux firmes intégrées verticalement qu'une entreprise veuille la compatibilité et l'autre pas. Cette analyse reste vraie pour des décisions de compatibilité partielle.

Dans le cas ou il y a plus de deux firmes, le problème de la compatibilité et de la coordination devient beaucoup plus complexe, voir Economides (1996) ou Serval (2000).

Le changement endogène du nombre de variété d'un produit comme résultat de décision de compatibilité a été étudié dans Church and Gandal (1990,1992a,b) et Chou and Shy (1990 a,b).

Coordonner la qualité et le mix and match est un enjeu également important, ce problème a été étudié pour le transport aérien par Encaoua et Alii (1992) et sur les réseaux Economides and Lehr (1995), ces derniers montrent qu'un monopole intégré verticalement fournit une meilleure qualité que deux monopoles. Le manque d'intégration verticale conduit à une baisse de la qualité.

Le cas java

L'élaboration de la norme java est un bon exemple de l'éclosion d'une technologie nouvelle protégée mais ouverte. Elle dispose d'un promoteur : Sun qui garantit au nom de tous l'intégrité du langage est s'est réservé certains droits. Elle dispose d'une communauté d'utilisateurs, via des alliances avec les principaux acteurs du net. Elle dispose en outre de la protection des marques. Pourtant le langage java est libre d'utilisation et de droits. Le promoteur de la technologie évite juste que des acteurs importants ne la détourne à leur profit en créant des ajouts non-standards (Microsoft a été condamné pour cela).

L'économie des logiciels

versioning et bundling

Les logiciels sont des produits qui présentent de fortes externalités de réseau. Le coût de développement d'un logiciel est un coût fixe qui est perdu quelles que soient les ventes du logiciel (sunk cost). En revanche, une fois le logiciel créé, le coût de duplication ou de diffusion est quasi nul, de l'ordre de 1F pour un CD Rom et nul sur Internet car supporté par d'autres. La fonction de coût du producteur de logiciel est donc largement non convexe, ceci invalide nombre des conclusions de l'économie classique. Les externalités de réseau apparaissent lorsque la masse critique est atteinte, par exemple tout le monde doit avoir Microsoft Word pour lire les textes produits par Word dans de bonnes conditions.

Le problème de l'économie du logiciel est largement un problème de tarification et donc de marketing. Comme produire un logiciel a un coût fixe et qu'il faut atteindre au plus vite une taille critique, une stratégie de prix différenciés s'impose. Ainsi les grands prescripteurs recevront des copies gratuites ou à très faible prix tandis que les utilisateurs individuels devront acquitter un prix plus élevé.

L'industrie du logiciel utilise toute une série de techniques pour extraire tout le surplus des utilisateurs. L'idée sous-jacente est toujours la même. Si deux utilisateurs différents évaluent différemment un même produit, je vais leur vendre deux produits à un prix différent. Ces produits sont globalement les mêmes puisque le coût de développement est donné, il est rationnel de développer le produit le plus cher et vendre une version plus limitée aux utilisateurs qui ne sont pas prêts à payer le prix fort. Cette stratégie s'appelle le versioning. Pour une analyse des aspects stratégiques du versioning voir Shapiro Varian (1998).

Supposons maintenant qu'une entreprise vend deux produits différents, certains utilisateurs sont intéressés par le premier produit et d'autres par le second. Par contre une très faible minorité est prête à acquérir les deux produits séparément car elle évalue le second produit à un prix moindre que son prix de vente. La solution suggérée par Bakos et Brynjolfsson (1999) est de créer un package constitué de l'ensemble de deux produits et vendu à un prix inférieur à la somme des produits vendus individuellement1. Cette idée de mise en communauté des produits afin de favoriser la vente de produits moins appréciés et de capter une plus grande partie du surplus du consommateur se retrouve dans la vente de suites bureautiques.

Dans un marché automatisé des biens informationnels, de nouvelles questions se posent. Comme le coût marginal de production est nul, les possibilités de grouper ou de séparer chacun de ses biens sont infinies, ce qui donne naissance à des mécanismes de prix très complexes. Toutefois la maximisation du profit des producteurs de biens informationnels passe par une connaissance fine des préférences des utilisateurs. Comme ces préférences sont des informations privées, elles ne peuvent être découvertes que par l'expérience du marché. Brooks et alii (1999) comparent la performance intertemporelle de systèmes de prix de complexité différente. Ils montrent que les systèmes de tarification simples sont plus robustes et font perdre moins de profits durant la période d'apprentissage que les systèmes complexes.

On peut également en utilisant l'approche du bundling tirer une autre conclusion quant à la protection des logiciels. Si une personne seule ne valorise pas assez un logiciel pour l'acheter à titre personnel, une famille, un club, un groupe d'amis pourrait partager ce coût, en ne protégeant que légèrement les logiciels ont peut ainsi agréger la demande de la même façon que le bundling agrégeait l'offre Bakos Brynjolfson (1999b)

L'économie du logiciel de part le caractère incorporel du produit est difficile à assimiler à des modèles existants. Un logiciel peut être définit comme un objet qui prend des informations et sort d'autres informations qui ont une valeur plus grande pour l'utilisateur. Or l'information présente les caractéristiques d'un bien public, faible excludabilité (je peux difficilement empêcher quelqu'un d'utiliser des informations que j'ai produites si elles sont accessibles sur le réseau) et si j'utilise cette information, quelqu'un d'autre pourra l'utiliser sans qu'elle ait été détériorée. Or un bien qu'il n'est pas possible de s'approprier n'a pas de valeur au sens traditionnel puisqu'il n'est pas rare, la seule valeur résiduelle est le coût de transmission et d'accès au réseau qui a été étudié précédemment. La valeur intrinsèque d'un logiciel devrait donc être en théorie ma capacité de réception mesurée en terme de flux multiplié par le coût de transmission de ce flux.

Pour prendre un exemple, si je suis relié à un réseau à haut débit pour un prix dérisoire tous les biens informationnels me sont indifférents a priori et n'ont pas de valeur intrinsèque. Par contre si j'ai une liaison à faible débit ou si le réseau est embouteillé, je peux avoir intérêt à substituer ce bien à un autre par exemple en achetant une encyclopédie sur CD Rom plutôt qu'une encyclopédie en ligne. Si l'on reste dans cette logique il devient difficile à une firme de gagner de l'argent en vendant des logiciels ; certes le coût de reproduction du logiciel est quasi nul mais pas les coûts de développement. Dans une économie où les droits de propriété sont insuffisamment protégés, les firmes ne peuvent pas gagner d'argent et ne doivent pas investir. Or ce phénomène ne s'observe pas, au contraire, à ceci plusieurs raisons : une raison économique, une raison stratégique et une raison financière.

Si je vends un logiciel à un prix non nul, comme les coûts de réplication sont très faibles il suffit que quelqu'un reproduise mon produit et le propose à un prix plus bas, le prix d'équilibre est p=0 car les utilisateurs ne supportent pas le coût de reproduction, ni bien souvent celui de transmission.

Tous ces biens ont une valeur d'usage non nulle et une valeur d'échange qui décroît très vite avec le temps à cause de l'innovation. L'augmentation de la valeur d'usage est l'axe de développement de toutes les stratégies d'entreprises. Les entreprises peuvent donner un produit et vendre le produit complémentaire (le service, la formation à l'utilisation de ce logiciel). Au fur et à mesure que le produit est exploité par le client, il finit par être accoutumé au produit. Le vendeur de logiciel essayera d'augmenter au maximum le coût du changement (switching cost) afin de verrouiller le client dans une relation de long terme (lock-in). Sur ce sujet voir Shapiro Varian (1998).

L'entreprise se trouve prise dans un jeu de contrats « self enforceable », en effet le vendeur de logiciels a intérêt à continuer à fournir un service à l'entreprise car les coûts de développements sont passés et il commence à gagner de l'argent. L'entreprise cliente a intérêt à garder le même logiciel car son apprentissage est long et coûteux et le coût du changement est élevé. Lorsque l'on ne peut pas appliquer de règles juridiques contraignantes en matière de garantie des droits de propriété les contrats «self enforceable » sont la seule solution.

En fait, il existe toute une série de situations où il est possible de faire respecter des droits de propriété, le copyright aux USA, le brevet et les droits d'auteurs en France. Remarquons toutefois que les droits applicables sont très différents d'une juridiction à l'autre et difficilement applicables dans un pays étranger. La juridiction du cyberespace n'existe pas encore. En l'absence de coordination des gouvernements, les entreprises privées ont deux moyens de faire respecter leurs droits : leur position stratégique ou leur taille. Si une entreprise a un monopole ou un quasi-monopole sur un goulot d'étranglement du réseau elle peut obliger les utilisateurs à respecter ses règles et donc à respecter ses droits (exemple ICANN). De même si le producteur de logiciels est suffisamment important en taille (ou s'est allié avec ses concurrents), il peut protéger ses droits en employant un grand nombre d'avocats. Attaquée depuis quelques années par les réseaux électroniques, l'industrie du disque est aujourd'hui en train de justifier son existence par sa capacité à défendre les droits des artistes et à les promouvoir. Pour une étude sur les droits de propriété et Internet voir Bakos et Nault (1997).

Une autre approche de la stratégie des producteurs de biens réseaux comme les logiciels peut être vue dans Serval (2000). Si une entreprise est en monopole sur une des couches des biens complémentaires qui permettent de faire partie du réseau et si elle est en concurrence sur d'autres couches, elle peut induire des changements du deuxième ordre sur ses biens qui obligeront l'utilisateur à changer l'ensemble des biens complémentaires qui constituent l'interface avec le réseau afin de pouvoir rester compatible avec les autres. Le rythme de ces changements peut être déterminer d'une matière optimale pour l'entreprise i.e. de façon à changer de génération uniquement lorsque le marché est saturé.

Le logiciel libre

Une réponse à l'émergence de logiciels propriétaire et au monopole de Microsoft sur les systèmes d'exploitation de micro-ordinateur a été l'émergence de logiciels libres. Derrière ce mot se trouve de nombreuses réalités, il existe des logiciels dont les droits sont plus ou moins libres avec des objectifs stratégiques différents. Par exemple les versions à l'essai, à usage non commercial, shareware et freeware ont pour objet de favoriser l'acquisition d'une base de clientèle ou d'obtenir une certaine crédibilité. D'autres tels les librairies libres ou les logiciels libres purs ont une vocation de service public.

Les différents types de licences
Type de logiciels Gratuit Redistribuable Usage illimité Source disponible Source modifiable Tous les produits dérivés gratuits
Commercial
Version à l'essai X X
A usage non commercial X X
Shareware X X
Freeware X X X
Librairies libres X X XX
Logiciel libre type BSD X X XXX
Logiciel libre
(linux / gnu)
X X XXXX

Un débat important au niveau européen porte sur la brevetabilité des logiciels ou d'une partie de code. La logique étant toujours de privatiser ces biens publics afin de favoriser l'investissement dans les nouvelles technologies. Les opposants au projet expliquent qu'autoriser la brevetabilité de partie de code qui peuvent être élémentaires constituerait au contraire une barrière à l'entrée pour les nouvelles entreprises de logiciels.

Le logiciel libre comme linux offre une approche alternative du développement d'un logiciel sur un réseau. Dans le cas de linux, c'est le développement du logiciel qui a bénéficié des effets de réseaux (un réseau de programmeurs bénévoles, i.e. payés par d'autres institutions) contrairement au modèle centralisé de développement traditionnel. Ainsi le logiciel a pu être donné sans qu'aucun intermédiaire ne soit lésé. Des vendeurs de logiciels ont pu se développer en assumant les coûts de coordination des différentes parties du système et la distribution. Le consommateur a lui un arbitrage à faire entre une version commerciale d'un système d'exploitation prête à l'emploi ou un logiciel gratuit qui nécessite l'emploi d'un consultant. Il s'agit d'un arbitrage capital / travail classique. Sur ce sujet voir Smets (1999).

La nature de l'échange sur Internet

Aspects théoriques

Toutes les opérations sur un réseau normalisé sont faites de 0 et de 1. Dès lors, leur transfert, duplication, traitement, se fait à un coût très faible. Une transaction électronique n'est pas équivalente à une transaction papier car le coût de son agrégation est nul (en théorie ou tout du moins très faible) car les informations sont de natures homogènes. On peut donc écrire un autre chapitre de l'analyse traditionnelle de la transaction.

Le troc
J'offre un bien en échange d'un autre bien / comptabilisation physique l'inventaire, biens hétérogènes
La vente
J'offre un bien ou un service en échange d'un moyen de paiement / comptabilisation monétaire, chaque contrepartie est connue, l'enregistrement est effectué dans un bien homogène la monnaie. Mais il existe des différences selon les pays, ce qui rend l'agrégation plus difficile. Ceci dépend du système d'information de l'entreprise, de celle de l'autre, des normes parfois hétérogènes
L'échange d'information
Je propose une information qui intéresse l'autre en échange d'une autre information (qui peut être de l'argent mais pas seulement, le fait de savoir qui est mon client suffit parfois). Ces informations sont des biens homogènes au niveau de la transaction car enregistrées de manière binaire. Cette information peut être mesurée en contenu en information, plus je réduis l'incertitude sur celui qui contracte avec moi plus l'information est valable pour moi car susceptible d'un échange monétaire.

En effet, la connaissance de ces clients ou de l'identification d'un groupe de personnes permet la discrimination (modèle de monopole discrimination du 1er ordre, du 2nd ordre et du 3e ordre).

Une baisse de prix ou une journée de gratuité n'est pas gratuite en effet elle offre à l'opérateur une manière de connaître l'élasticité prix de ses clients. Et fournit donc à terme un gain à ce dernier.

Chaque information prise individuellement n'a pas de valeur monétaire mais l'agrégation de ces informations a de la valeur sur le réseau ou dans la sphère réelle car elle permet de vendre des biens réels et donc de gagner de l'argent. On peut donc considérer que la transaction sur Internet est plus riche que le modèle traditionnel car elle permet un échange simultané de plusieurs interfaces (prix, quantité, type de clients…) et d'atteindre un équilibre dans toutes ces dimensions.

La sphère marchande : le commerce électronique

Les avantages de la vente par Internet
Dans un magasin réel, chaque vendeur dispose d'un temps réduit pour parler aux clients et s'il passe plus de temps avec un client donné pour mieux comprendre ses besoins ceci se fait au détriment de la connaissance d'un autre client. Or a priori le vendeur ne peut pas déterminer le client le plus rentable pour lui. En ne limitant pas l'information sur les produits, ni le temps d'information du client, Internet rend l'arbitrage connaissance du client / nombre de clients servis caduc. En fait, comme le vendeur est une machine et à supposer qu'il n'y ait pas de problème de capacité du réseau, plus il y a de clients servis mieux ils sont servis. Le temps du vendeur n'est plus une ressource rare.

L'affranchissement de la contrainte de temps, s'associe à l'affranchissement de la contrainte d'espace. Un magasin pour être rentable doit payer très cher en loyer un espace où beaucoup de gens passent, il doit donc arbitrer entre le nombre de produits exposés et le chiffre d'affaire au mètre carré que peut générer le magasin. Ce problème se retrouve dans la gestion des stocks, quelle est la taille optimale des stocks connaissant le coût de stockage et les exigences de disponibilité des clients. Dans le cas du magasin électronique, s'il s'agit de bien immatériel le coût de stockage est marginal et ne constitue plus une contrainte, dans le cas de biens matériels tous les produits peuvent être exposés. Le problème de la gestion de stocks demeure et il s'associe à celui de la distribution.

Le caractère virtuel du magasin lui donne une clientèle potentielle égale au nombre de personnes connectées. A cela deux limitations majeures, le problème de la langue et celui du système juridique de l'acheteur et du vendeur. On retrouve en fait les distinctions géographiques dans les capacités de distribution des biens matériels. Les échanges se faisant au niveau régional principalement.

Le commerce électronique est aujourd'hui relativement bien développé aux USA. On a coutume de distinguer deux types de commerce le B to B et le B to C. Les relations commerciales entre entreprises BTB est la partie la plus active du commerce électronique d'aujourd'hui. Les facilités de comparaison de prix, d'échange de données avec les fournisseurs permettent des gains de productivité significatifs. Mais il faut remarquer que le BTB fait partie d'un ensemble plus large que le commerce électronique, il touche en effet le problème de la redéfinition de la firme. En intégrant informationnellement des structures juridiques distinctes via des intranets ou extranets on crée de la concentration verticale ou horizontale sans capitaux. Au plan économique et dans une certaine mesure juridique (contrat d'entreprise) ces entreprises en réseaux forment un ensemble économique cohérent.

Les relations B to C, sont à leurs balbutiements en Europe et en pleine croissance aux USA. Pourtant une très faible partie de ces entreprises se révèlent rentables. On est encore à la phase d'investissement dans la constitution d'une clientèle ou pour reprendre une notion juridique française la création d'un fond de commerce. En effet l'homogénéité des transactions permet l'agrégation des données et donc la constitution de bases de données très fines sur les comportements de consommation.

Ces bases de données ont une valeur intrinsèque pour les purs vendeurs sur l'Internet mais elles intéressent également les entreprises présentes sur d'autres canaux de distributions. Amazon perd de l'argent mais dispose d'un énorme carnet d'adresses et d'une marque distinctive amazon.com. La valorisation des pures sociétés de commerce électronique est proportionnelle non pas à leur capacité à faire des bénéfices mais au nombre de clients qu'elles ont. La grande inconnue reste le taux de fidélité de cette clientèle à l'avenir.

La publicité
Un magasin électronique pour être rentable doit être fréquenté, or comme le marché électronique est purement virtuel il n'y a pas de grands centres commerciaux, de grandes avenues marchandes qui permettent d'agréger la demande. D'où l'importance des portails, voie d'accès au réseau, ils se veulent être des points de passage obligé. La logique à l'œuvre ici est une logique de mass media, l'audience du site est revendue à des annonceurs pour leur permettre de signaler l'existence de leur site. Plus encore que la vente, la publicité est un secteur très rentable de l'Internet.

Les caractéristiques de la publicité sont aujourd'hui très diverses. Il s'agit d'abord des bandeaux publicitaires, géré aujourd'hui par des serveurs de publicités. Ces bandeaux alternent en permanence sur les sites agrégateurs de demande (portail, site de communauté), ils peuvent être plus ou moins ciblé sur les besoins du consommateur qu'a pu recueillir le site agrégateur de demande. Par exemple si un portail sait que vous Etes un homme qui travaille dans l'informatique il vous proposera des ordinateurs…

Jouant sur les effets de réseaux, des services d'échange de bandeaux non marchands se sont également mis en place afin de relier des sites personnels ou de petits sites marchands.

La pratique de l'échange de liens gratuits entre les sites demeure mais elle est battue en brèche par la «privatisation » du réseau et l'influence des grands acteurs marchands (exemple doubleclic).

Même une page personnelle peut disposer de bandeaux publicitaires, les mécanismes de rémunérations mis en place sont adapte à ce type de pages. Le plus connu d'entre eux est le commissionnement d'amazon, pour chaque livre acheté sur amazon, le site d'origine touche un pourcentage. Certains sites font payer les publicités au nombre de clics sur le bandeau etc…

Les activités illégales de l'Internet, site de jeux, à caractère pornographique se financent entièrement par ces moyens et sont arrivés à une certaine autarcie…. Les sites pornographiques financent les sites de pirates, qui drainent de la demande vers des sites illégaux…

La création monétaire sur le réseau
La profusion des sites marchands, la vente de produits à crédit, l'importance des intermédiaires financiers sur le réseau favorise la création monétaire sur les réseaux et donc une certaine inflation non mesurée et non contrôlée.

L'aspect financier

Les start ups et la bourse
Nous nous sommes interrogés précédemment sur la justification des investissements dans les technologies de l'information ou par exemple dans les logiciels les droits de propriétés sont difficiles à faire respecter et donc les entreprises rarement rentables.

Pour comprendre l'investissement en la matière, il faut regarder sur les marchés financiers. Le mécanisme est le suivant (cf. Serval 1999). Une startup est une technologie incorporée dans une société, une grande partie des coûts de développements de la technologie n'est pas inclue dans les coûts de la société car ils ont lieu en amont (phase du garage, les entrepreneurs développent leur technologie en étant payés par d'autres).

Une fois la société créée, elle trouve facilement des fonds à la condition expresse qu'elle ne s'installe pas sur un marché existant (exemple on ne financera pas une nouvelle libraire en ligne). Les entreprises de capital risque doivent revendre au bout de deux ans et il existe deux moyens de sortir, vendre à un monopole ou sortir en bourse.

Pour le monopole il est rationnel d'acheter l'entreprise si la technologie est mature, cela lui permet d'externaliser sa recherche développement et de ne pas subir en interne le coût de l'échec de la technologie. Pour être introduit en bourse, la pure startup doit perdre de l'argent, en effet si elle en gagnait, il deviendrait possible de calculer des PER et de déterminer sa valeur à l'introduction. Pour introduire en bourse, on se fie à quelques « gourous » qui forment un oligopole du savoir et qui donnent un prix pour la technologie.

L'introduction proprement dite se fait via un market maker qui a intérêt à ce que la valeur monte car sa rémunération est indexée dessus. La rareté relative des titres dits purs Internet ajoutée à une méconnaissance des perspectives réelles de revenus favorise la croissance initiale du titre. Si tout le monde gagne à l'introduction tout le monde souscrit.

La valeur des start ups
D'un point de vue théorique la valeur de ces firmes qui distribuent gratuitement leurs produits dépend de leur capacité à garantir leurs droits de propriété futurs. Pour cela deux paramètres sont à évaluer : la base d'utilisateurs potentiels et la contestabilité du produit.

Dans le cas précédent on s'est intéressé à l'évaluation de valeurs qui ne disposent que de biens immatériels, que dire alors des sociétés de e-commerce comme amazon.

Les sociétés qui vendent des biens physiques par l'intermédiaire d'un nouveau media ont deux variables stratégiques, le contrôle du coût de l'acquisition d'un nouveu client par Internet (le réseau comme réseau d'acquisition de clientèle) et le contrôle du coût de distribution qui lui reste un problème de logistique. Les sociétés de vente de logiciels, ou de services immatériels peuvent quant à elle se servir du réseau à la fois comme un réseau d'acquisition de clientèle et comme un réseau de distribution.

Il s'en suit que l'avantage stratégique du premier entrant sur le marche du e commerce peut jouer à son désavantage s'il ne contrôle pas ses coûts de distribution car en matière de logistique il dispose de moins d'expérience que ses concurrents multicanaux. Une étude des erreurs stratégiques des pures sociétés Internet peut être trouvée dans BCG (1999).

Utilité sociale de ce mécanisme
La bulle spéculative que connaissent les marchés des valeurs liées à Internet favorise l'innovation technologique car elle offre une valeur de sortie importante aux entrepreneurs, elle s'auto-entretient via des fusions par échange d'actions et offre au premier entrant sur le marché un avantage compétitif important en terme de capacité d'achat et donc de concentration. Elle permet de motiver les employés des entreprises en indexant leur rémunérations sur l'évolution des actions en bourse. Tout le monde à donc intérêt à la hausse des actions, la véritable inflation aux USA est dans ce nouveau type de monnaie qu'on appelle valeur Internet, elle est acceptée en paiement partout mais elle ne génère pas de flux de revenus en raison de l'absence de profit de ces sociétés.

Conclusion

L'ensemble des questions soulevées dans cet article restent largement ouvertes, si l'économie des infrastructure semble avoir atteint un certain niveau de maturité au niveau théorique, tous les modes d'implémentation restent à déterminer. L'économie du grand marché électronique qu'est Internet reste quant à elle à découvrir. En effet il s'agit d'un marché de marchés et il est difficile de savoir quels seront les biens échangés sur le réseau, quelles seront leurs caractéristiques à l'équilibre et comment ils seront échangés.

D'autre part les effets macro-économiques des réseaux sont mal connus et outre des données difficiles à agréger il faudra comprendre le paradoxe de Solow (« je vois des ordinateurs partout sauf dans les statistiques »).


Annexe

L'utilisateur : le terminal et ses biens complémentaires

Ordinateur : concurrence

Pour se connecter à Internet, il faut un terminal, ce terminal est de nos jours très fréquemment un micro ordinateur. L'évocation des noms de Dell, Compaq, Toshiba, IBM, HP et la profusion de clones génériques montrent que ce marché connaît de nombreux acteurs et présente toutes les caractéristiques d'un marché concurrentiel. Un PC d'une marque donné est tout a fait substituable avec un autre PC, concernant la seule fonction de l'accès à Internet on voit que se marché est encore plus large puisqu'il inclut les Macintosh, les stations de travail.

CPU : monopole

Mais chaque ordinateur dépend étroitement de plusieurs biens complémentaires, au premier titre duquel figure le microprocesseur. Ce marché est quand à lui de nature oligopolistique, en effet les coûts d'investissement en R&D et les coûts de construction des usines est tels aujourd'hui qu'il constitue une barrière à l'entrée et qu'il favorise la concentration (économies d'échelle dues aux coûts fixes). Le marché des microprocesseurs PC est devenu un duopole avec Intel comme leader et AMD comme follower. Intel fixe les normes (Pentium) et AMD essaye de produire le plus vite possible un processeur compatible. De plus afin d'optimiser les performances de ses produits et également d'élargir le marché, Intel fournit les normes et les produits complémentaires au processeur (Chipset, Slot 1).

Mémoire : oligopole

Un raisonnement analogue pourrait être mené sur les mémoires : investissement élevé, rendement d'échelle croissant. Néanmoins la structure du marché est différente, tout d'abord parce que les mémoires sont des produits génériques, elles sont utilisées par tout une gamme de produit et la marque n'est pas un élément discriminant. Les seules caractéristiques utiles sont la capacité et la fréquence. La structure de marché est oligopolistique avec une domination écrasante des pays asiatiques notamment de la Corée. L'effet du change après la crise asiatique a fait sortir du marché des mémoires génériques tous les producteurs européens (siemens, IBM) qui se sont concentrés sur des marchés à plus grande valeur ajoutée type microprocesseur.

Le progrès technique est en train de bouleverser la distinctions entre mémoire et processeur car les nouvelles mémoires deviennent des microprocesseurs. En d'autre terme, en prenant une mémoire programmable d'une capacité suffisante on peut programmer un microprocesseur et dès lors ce type de mémoire permettra de passer à la génération suivante de processeur en chargeant un programme. A terme on verra donc une fusion de ses deux marchés. La valeur ajoutée résultera de l'architecture du processeur (totalement immatérielle).

Périphérique : concurrence

Toute un série de périphériques constituent des compléments jugés indispensables aux ordinateurs contemporains, carte son, carte vidéo, écran. L'émergence de systèmes d'exploitation multimédia a rangé tous ses produits au rang de bien génériques, une prime allant toutefois à l'inventeur de la norme son (soundblaster). En matière d'affichage, le dernier standard uniforme date de la fin de la domination d'IBM dans le domaine des PC avec la norme VGA. L'érosion continue de ces parts de marchés a rendu le géant d'Armonk incapable d'imposer ses normes dorénavant. Les normes graphiques suivantes ont donc été l'apanage des fabriquants spécialisés et concurrents, une norme émergeant ou non à l'issue de batailles commerciales.

Système d'exploitation : monopole

Ce sont finalement les systèmes d'exploitation qui ont le plus contribué avec les microprocesseurs à la standardisation des produits. En gérant l'interface entre les biens physiques complémentaires et les utilisateurs, ils ont caché les marques des périphériques aux utilisateurs et ont harmonisé leurs caractéristiques techniques. En matière de système d'exploitation personnel, la domination écrasante de Microsoft est un fait avéré, néanmoins en matière de réseau et donc d'Internet, le système Unix dans toutes ses versions reste incontournable.

Communiquer

Pour que l'ordinateur puisse communiquer avec le monde extérieur, il faut qu'il puisse s'y relier. Alors qu'hier le téléphone était la seule manière de se connecter donnant un monopole de fait aux opérateurs de télécommunications, le progrès technique rendent se monopole contestable. On dénombre aujourd'hui plus de six manières différentes de se connecter. Les liaisons par ligne téléphonique standard, les liaisons xDSL (cuivre haut débit) ou ISDN, les liaisons hertziennes (mobiles), les liaisons câblées, les liaisons par satellite, les liaisons via le réseau électrique. Toutes ces technologies nécessitant autant d'interface différentes avec l'ordinateur (modem câble, téléphone portable, carte ethernet).

Analysons les moyens de communications les plus utilisées aujourd'hui : le modem et la carte ethernet.
Les modems sont aujourd'hui dominants sur le marché de la connexion personnelle à Internet, les normes techniques sur les modems ont donné lieu à des batailles féroces entre les principaux producteurs, c'est le premier fabriquant de modem américain US Robotics qui a eu le dernier mots sur la norme des modems 56K en instaurant la norme V90 (cf Varian Shapiro). Néanmoins les modems sont des biens extrêmement standardisés et le marché est pleinement concurrentiel.

En matière de connexion par réseau local, c'est une norme totalement ouverte et libre qui domine depuis plus de dix ans maintenant : Ethernet.
Sur ce marché les produits sont génériques mais un bien complémentaire des réseaux est le routeur, le marche des routeurs est de nature oligopolistique (3 Com, Cisco)

La boucle locale

Une fois l'appel sorti, il doit transiter par la boucle locale de l'opérateur (cable, telephone, hertzien, électricité), traditionnellement cette boucle locale était le lieu d'un monopole naturel. (le dernier kilomètre), en effet pourquoi permettre à deux opérateurs de télécommunications concurrents de mettre des poteaux différents pour arriver jusqu'au consommateur final. En France, l'Etat a financé par l'intermédiaire de France Télécom le déploiement du câble qui assure de hauts débits de données. Or on s'est rendu compte que l'on pouvait au travers des installations existantes faire passer les données et augmenter les débits. Dès lors tous les monopoles naturels par un élargissement du marché deviennent concurrents sur le marché du trafic de données.

Les fabriquants d'équipements de télécommunications sont relativement peu nombreux et anciens (Alcatel, Siemens) néanmoins des start-ups sont nées sur la base de nouvelles technologies, elles sont maintenant rachetées par les multinationales qui ont ainsi indirectement externalisée leurs dépenses de R&D.

L'appel Internet, une fois acheminé par la boucle locale arrive chez l'ISP (fournisseur d'accès à Internet) via un point de présence. A ce moment l'ISP reconnaît l'utilisateur en utilisant une technologie (Ascend et 3com sont dominants sur ce marché) puis lui offre toute une série de services. La lecture quotidienne de la presse française montre la diversité des contrats signés entre les utilisateurs et les providers.

On peut en distinguer quatre sortes : Les gratuits ; les payants au forfait, les payants au forfait et à la durée, les paiements à la durée ou à la quantité de données transférées.

L'ISP fournit une adresse IP et un service DNS c'est à dire qu'il permet de faire le lien entre les adresses IP et les noms de domaines de type ens.fr. L'attribution de noms de domaines était jusqu'en avril le monopole de l'Internic pour les .net .com .org et aujourd'hui pas moins de six organismes de par le monde se partagent ce marché. Les attributions de noms de domaines nationaux sont par contre du ressort de chacun des pays avec des règles spécifiques (très contraignantes en France par exemple pour des raisons de protection des droits des marques).

L'organisation des serveurs de noms sur Internet est de nature hiérarchique, tout en haut de la pyramide se trouvent 12 serveurs dits DNS Root, qui détiennent toutes les adresses du monde. Dix de ces serveurs sont hébergés aux USA, un en finlande et un en Angleterre. Une question politique et juridique intéressante aujourd'hui est de savoir qui détient ces serveurs root. Il y a plusieurs réponses en réalité, la détention physique des équipements qui gèrent ces adresses est le plus souvent le fait d'universités et de centres de recherche. L'uniformisation des services, le contrôle de la qualité, l'attribution de nouveau serveurs root, est du ressort de l'ICANN, assocation de droit américain sans but lucratif qui entretient des liens consanguins avec les agences de renseignements américains. Cependant, depuis 1997, de grands efforts ont été fait pour garantir l'indépendance de cette institution. Les serveurs root sont aujourd'hui exploités sur une base bénévole et coopérative.

Le provider fournit également un service de messagerie électronique (principaux fournisseurs msmail, mais surtout sendmail), des serveurs de news, des services tels ftp, telnet…Ces services étaient la base de l'abonnement à Internet historiquement. Aujourd'hui tous ses services sont incorporés dans le web et avec un accès www on peut tous les obtenir via des prestataires de services différents de l'ISP. La plupart des utilisateurs ne disposant pas d'une connexion permanente, ils font héberger leurs pages par l'ISP.

Le nombre d'ISP est très fluctuant en effet à technologie donnée les économies d'échelle sont importantes et on assiste à des concentrations. Néanmoins, la valorisation des internautes en bourse est telle aujourd'hui qu'il n'y a pas de barrière à l'entrée. D'où par exemple le développement de l'accès Internet gratuit en Europe.

Le backbone

L'ISP n'est qu'un intermédiaire dans la transmission de l'information, il doit ensuite l'acheminer vers son destinataire à travers les « autoroutes de l'information » plus connu sous le nom de backbone.

La gestion du backbone et son développement est au coeur de l'Internet et est souvent la partie la plus méconnue des utilisateurs. Il s'agit de la gestion d'un réseau de réseaux de communication. Par principe l'Internet n'a pas de responsable au niveau mondial, il s'agit donc d'un fonctionnement coopératif des propriétaires d'infrastructures haut débit. La structure des coûts de ces entreprises est telle que seules quelques compagnies peuvent opérer (Sprint, MCI, ATT…) de même les biens complémentaire de ces réseaux à savoir les câbles, les routeurs sont l'apanage de quelques uns. Il s'agit de marchés totalement oligopolistiques et parfois intégrés verticalement.

La gestion de la coopération, l'architecture originelle du réseau Internet a été crée et financée par le gouvernement américain via ARPANET et NSFNET qui s'est arrêté en 1995. A cette date des accords coopératifs sont nés entre les compagnies qui détenaient des réseaux régionaux avec des procédures de compensation des trafics (peering). L'architecture générale du réseau est basée sur les networks access points qui sont des points d'entrée sur le réseau à grande vitesse. Le financement de ces réseaux est désormais privé et les contraintes de rentabilité financière des opérateurs liée à la demande des marchés boursiers ont rendu les accords de peering de plus en plus difficile à mettre en œuvre. Les entreprises préfèrent une compensation monétaire Par contre sur le marché secondaire, i.e. celui des ISP, on échange avec succès les minutes de télécommunication et de la bande passante avec des systèmes équivalents aux marchés de commodities.

Le contenu

Ces grands réseaux ont pour fonction de faire circuler des informations au standard IP (i.e. par paquets d'une adresse IP à une autre). Si on regarde les contenus des informations qui circulent sur le web on peut déjà remarquer l'asymétrie des transferts (mais non l'univocité des transferts) en effet beaucoup de gens demandent la page de yahoo.com par exemple.

Le marché des serveurs web est dominé par un serveur issu du monde unix et libre de droit appelé Apache qui est en concurrence avec Microsoft. Ce marché est largement concurrentiel du fait du prix nul du produit leader et de l'universalité des normes de transmission sur le web (HTML). Les navigateurs quels qu'ils soient interprètent les données d'une manière analogue.

Pour ce qui est des sites web on distingue traditionnellement quatre type de sites : Les sites de communauté : Ils sont organisé autour d'un intérêt commun des internautes exemple un fan club. Les serveurs de communautés réunissent les utilisateurs par goût ; ils sont donc des segmenteurs de demande (news et équivalent web).

Les sites portails ce sont les sites par lesquels on accède à l'Internet, il peut s'agir du site de l'ISP, du site du browser par défaut, ou d'un site d'annuaire ou moteur de recherche.
Les portails sont des agrégateurs de demande et des redistributeurs et fonctionnent selon une logique de mass média avec un moteur de recherche financé par la publicité

Les sites marchands : comme leur nom l'indique il s'agit des sites qui ont pour vocation de vendre des biens aux internautes, on peut distinguer plusieurs type de sites : ceux qui vendent des biens matériels, ceux qui vendent des biens immatériels, et ceux qui fournissent des services…

Enfin, les administrations, les universités et toute une sphère non marchande offrent des informations en consultation libre sur Internet et forment ainsi l'essentiel des ressources disponibles sur le réseau.


Bibliographie

Armstrong, Mark, Chris Doyle, and John Vickers (1995), "The Access Pricing Problem," Journal of Industrial Economics, vol. XLIV, no. 2, pp. 132-150.

Bakos, Y., Brynjolfsson, E. and Lichtman, D. (1999) "Shared Information Goods," Journal of Law and Economics (April 1999).

Bakos, Y. and Brynjolfsson, E. (1999b) "Aggregation and Disaggregation of Information Goods: Implications for Bundling, Site Licensing and Micropayment Systems," in Proceedings of Internet Publishing and Beyond: The Economics of Digital Information and Intellectual Property. D. Hurley, B. Kahin, and H. Varian, eds. In press

Bakos, Y. and Nault, B. (1997) "Ownership and Investment in Electronic Networks," Information Systems Research, Volume 8, Number 4, December 1997.

Baumol, W.J., J. Panzar, and R. Willig, 1982, Contestable Markets and the Theory of Industry Structure (Harcourt Brace Jovanovich, New York).

Baumol, W.J., and J.G. Sidak, 1994a, The Pricing of Inputs Sold to Competitors, Yale Journal of Regulation 11 (1), 171-202.

Baumol, W.J., and J.G. Sidak, 1994b, Toward Competition in Local Telephony, (The MIT Press & The American Enterprise Institute, Washington DC).

Berg, S.V., 1988, Duopoly Compatibility Standards with Partial Cooperation and Standards Leadership, Information Economics and Policy 3, 35-53.

Boston Consulting Group and Shop.org (1999) The state of online retailing number two

Brooks C., Fay S., Das R.,Durfee E., Kephart J., MacKie Mason J. (1999) Automated Stategy Seaches in an Electronic Goods Market: Learning and Complex Price Schedules, Forthcoming in Proceedings of Electronic Commerce '99 (EC-99), ACM Press.

Cabral, Luis, (1990), "On the Adoption of Innovations with 'Network' Externalities," Mathematical Social Sciences , vol. 19, pp. 229-308.

Choi S., Stahl D, Whinston A. (1997) The economics of electronic commerce

Chou, Chien-fu, and Shy, Oz, (1990a), "Do Consumers Always Gain When More People Buy the Same Brand?" European Journal of Political Economy, vol. 12, 1996, pp. 309-330.

Chou, Chien-fu, and Shy, Oz, (1990b), "Network Effects Without Network Externalities," International Journal of Industrial Organization, vol. 8, pp. 259-270.

Church, J., and N. Gandal, 1990, Complementary Network Externalities and Technological Adoption, International Journal of Industrial Organization 11, 239-260.

Church, J., and N. Gandal, 1992a, Integration, Complementary Products, and Variety, Journal of Economics & Management Strategy 1 (4), 653-675.

Church, J., and N. Gandal, 1992b, Network Effects, Software Provision and Standardization, Journal of Industrial Economics 40 (1), 85-104.

Cocchi R., Shenker, S., Estrin, D., and Zhang, L., (1993) "Pricing in computer networks: motivation, formulation, and example," IEEE/ACM Transactions on Networking, 1(6) : 614-627

Economides, Nicholas, and Glenn Woroch (1992), "Benefits and Pitfalls of Network Interconnection," Discussion Paper no. EC-92-31, Stern School of Business, N.Y.U.

Economides, N., and S.C. Salop, 1992b, Competition and Integration among Complements, and Network Market Structure, Journal of Industrial Economics 40 (1), 105-123.

Economides, N. and L.J. White, 1994, Networks and Compatibility: Implications for Antitrust, European Economic Review 38, 651-662.

Economides, N. and C. Himmelberg, 1995, Critical Mass and Network Size with Application to the US Fax Market, Discuss Paper no. EC-95-11, Stern School of Business, N.Y.U.

Economides, N. (1996). The Economics of networks. International Journal of Industrial Organization, 16(4), 673-699. Available: http://raven.stern.nyu.edu/networks/top.html

Economides, Nicholas and Lawrence J. White, (1996b), "One-way Networks, Two-Way Networks, Compatibility, and Antitrust," in Opening Networks to Competition: The Regulation and Pricing of Access. David Gabel and David Weiman (eds.). Kluwer Academic Press. 1996.

Economides, N. (1997). Bibliography on network economics [On-line]. Leonard N. Stern School of Business, New York University [On-line]. Available: http://raven.stern.nyu.edu/networks/biblio_hframe.html

Encaoua, David, Anne Perrot, and Michel Moreaux, (1996), "Compatibility and Competition in Airlines: Demand Side Network Effects," International Journal of Industrial Organization, vol. 14, no. 2.

Farrell, J. and G. Saloner, 1985, Standardization, Compatibility, and Innovation, Rand Journal of Economics 16, 70-83.

Farrell, J.and G. Saloner, 1986, Installed Base and Compatibility: Innovation, Product Preannouncement, and Predation, American Economic Review 76, 940-955.

Farrell, J. and G. Saloner, 1992, Converters, Compatibility, and the Control of Interfaces, Journal of Industrial Economics 40 (1), 9-36.

Gupta, A., Stahl, D. O., & Whinston, A. B. (1995). Pricing of services on the Internet [On-line]. Available: http://cism.bus.utexas.edu/alok/pricing.html

Gupta, A., Stahl, D. O. and Whinston, A. B., (1996); An economic approach to network computing with priority classes ; Journal of Organizational Computing and Electronic Commerce ; 6(1) : 71-95

Gupta, A., Stahl, D. O. and Whinston, A. B., (1997); "A stochastic equilibrium model of Internet pricing," Working Paper University of Texas

Kahn, A., and W. Taylor, 1994, The Pricing of Inputs Sold to Competitors: Comment, Yale Journal of Regulation 11 (1), 225-240.

Katz, M. and C. Shapiro, 1985, Network Externalities, Competition and Compatibility, American Economic Review 75 (3), 424-440.

MacKie-Mason and H. R. Varian, (1995) "Pricing the Internet," in Public Access to the Internet, B. Kahin and J. Keller, eds., MIT Press, 1995, pp. 269-314.

MacKie-Mason, Jeffrey K., Juan F. Riveros and Robert S. Gazzale, (1999) "Pricing and Bundling Electronic Information Goods: Experimental Evidence." Proceedings of the 27th Annual Telecommunications Policy Research Conference, Alexandria, VA, August 1999.

Matutes, C., and P. Regibeau, 1988, Mix and Match: Product Compatibility Without Network Externalities, Rand Journal of Economics 19 (2), 219-234.

Matutes, C., and P. Regibeau, 1989, Standardization Across Markets and Entry, Journal of Industrial Economics 37, 359-371.

Matutes, C., and P. Regibeau, 1992, Compatibility and Bundling of Complementary Goods in a Duopoly, Journal of Industrial Economics 40 (1), 37-54.

Mendelson, H., (1985) ; Pricing Computer Services : Queuing effects. Communication of the ACM, 28 : 312-321

Naor, P. (1969). On the regulation of queue size by levying tolls ; Econometrica, 37 : 15-24

Pigou, A, (1928), A study in Public Finance, London : Mac Millan.

Pick R and A.B. Whinston (1989) A computer charging mecanism for revealing user preferences within a large organization ; Journal of Management Information System ; 6( 1) : 87-100

Rohlfs, Jeffrey, (1974), "A Theory of Interdependent Demand for a Communications Service," Bell Journal of Economics , vol. 5, no. 1, pp. 16-37.

Sharkey, William W., 1993, Network Models in Economics, mimeo.

Serval T. (1999) On the valuation of Internet startups Forthcoming

Serval T. (2000), Hold up strategies and network externalities Forthcoming

Shapiro, Varian (1998) Information Rules : A strategic guide to the network economy Harvard Business School Press

Smets J.P. (1999) L'économie du logiciel libre online http://www.smets.com

Varian H. (1998) Effect of the Internet on Financial Markets

Varian H. (1997) Versioning Information Goods

Vickrey W. (1969), Congestion theory and Transport Investment, American Economic Review Proceedings, 59 : 251-260.


Actualités et nouveautés Le colloque de 1999 Articles
Bilans, débats, comptes rendus Dernier ouvrage Pointeurs et Bibliographie
Page de garde Vos commentaires et propositions