Introduction
L'internet
est à la fois un réseau qui rend possible un échange
immédiat et instantané de données ou d'information
d'un point quelconque à un autre du réseau, échange
qui ne survit pas à son effectuation, et une réserve considérable
de mémoire virteulle, d' "informations en souffrance" attendant
sur les pages des sites d'être éveillées de leur sommeil
magnétique par les connexions des internautes. Mémoire virtuelle
et mémoire de masse, mémoire vive et morte, on peut aussi
le comparer à une gigantesque base de données, capable de
stocker des données et de traiter ce stockage, constituant une nouvelle
mémoire qui pourra à son tour intégrer la banque de
cette même base de donnée ou être transférée
à d'autres ou elle pourra à nouveau être traitée
etc ad infinitum. De la même manière que ces bases de données,
le réseau fonctionne comme un surgénérateur d'informations,
produisant des informations à partir d'informations, constituant
de la mémoire à partir de son, ou de votre, traitement de
sa mémoire. Le moteur de recherche vous permet d'accéder
aisément aux replis de la "mémoire de l'internet", mais vos
opérations de recherche sont elles-mêmes archivables et traitables
par les sites que vous fréquentez, vos opérations sur le
web sont traçables de telle sorte que les sites auxquels vous vous
connectez pourront configurer leurs pages d'accueil, leurs propositions,
leurs données en fonction de vos recherches précédentes
archivées en tant que profil (qu'on pense aussi à l'utilisation
des cookies etc...).
N'oublions
pas en outre que l'Internet est un media, qu' à ce titre il présente
un intérêt sociologique, historique etc. De la même
manière qu'il est indispensable aux historiens du Moyen Age aujourd'hui
de pouvoir accéder aux capitulaires de Charlemagne qui nous ont
été conservés, de même il semble capital de
préserver de l'oubli des siècles les pages Web d'aujourd'hui,
en tant qu'éléments qui pourront servir à faire l'histoire
de notre temps.
Outil
de mémorisation, l'Internet est donc aussi bien objet d'une mémoire
à constituer et opérateur d'une mémorisation permanente
et anarchique des flux qui le traversent. L'internet comme outil, objet,
opérateur de mémoire, c'est selon ces trois axes que nous
nous proposerons d'explorer notre sujet.
Ces
trois axes reposent sur des conditions théoriques et techniques
aisément identifiables, mais ils posent aussi des problèmes
qui sont intimement liés les uns aux autres, qui s'entrecroisent
et jusqu'à un certain point se contredisent. Comment concilier par
exemple l'exigence d'archivage intégral et permanent du Web avec
la nécessaire anonymisation des usagers et la protection des droits
à la vie privée ?
Jusqu'à
quel point, en outre peut-on étendre la suppléance à
notre mémoire propre de cette mémoire virtuelle et déterritorialisée
qu'est celle du Net sans transformer en profondeur les structures et les
fonctions mêmes de notre appareil mental ? Certaines utopies actuelles,
comme le projet Oxygen du MIT, semblent permettre de croire que cette dernière
question n'est ni oiseuse ni paranoïaque...
Nous
nous efforcerons d'explorer systématiquement les différents
éléments de ce problème en analysant, tout d'abord
l'internet en tant qu'objet de mémoire, sous l'axe des conditions
techniques de stockage des informations, puis quant aux problèmes
spécifiques posé par l'archivage d'une matière aussi
fluente et colossale que celle du réseau ; et dans un second temps
nous nous efforcerons d'articuler ces questions à celle qui résultent
du statut de l'internet comme sujet de mémoire, au niveau
des problèmes juridiques, éthiques et théoriques posés
par ce statut.
1-Mettre
l'internet en archives...
1-1. Vers une extension
des capacités de stockage...
Il
faut d'abord envisager en quelques mots le problème des capacités
de stockage actuelles des supports informatiques. Il s'agit en effet d'un
enjeu technologique et économique particulièrement aigu à
l'heure actuelle : jusqu'à quel point peut-on élargir les
possibilités de stockage, de manière à ce que celles-ci
restent en adéquation avec la prévisible augmentation exponentielle
des quantités d'information à conserver. S'il est vrai, comme
l'estiment certains spécialistes, que la mémoire du monde
tiendra d'ici trois ou quatre ans dans 10 à 20 exaoctets (soit dix
à vingt milliards de Gigaoctets), ce chiffre signifie-t-il inévitablement
l'obsolescence des technologies de stockage magnétique? Ces dernières
permettent présentement d'obtenir des densités de 20 Go par
pouce carré, et leur capacité peut augmenter dans les prochaines
années jusqu'à 50 Go, peut-être 100 (en régulant
le problème du superparamagnétisme -brouillage des bits dû
à leur trop grande proximité - par la technique des intervalles
de sillons, sorte de synapses électro-magnétiques), mais
il est pratiquement certain que cette technologie arrivera à une
stagnation d'ici quatre à cinq ans (selon Jacques Péping,
cité par Stéphane Foucart dans un article du Monde interactif
en date du 15 novembre 2000), cependant que la production d'information,
et donc les besoins en stockage auront nécessairement connues une
croissance vertigineuse.
L'une
des solutions qui se présente consiste dans l'exploitation de la
"technique
holographique", sur laquelle travaille un laboratoire
d'IBM implanté à Almaden, Californie. Il s'agirait de
parvenir à franchir un formidable bond théorique et symbolique
dans le stockage des données: la troisième dimension. L'invention
de l'écrit avait permis le premier dépassement des conditions
matérielles de la mémorisation par la transcription des informations
non plus sur le seul flux linéaire de la parole mais dans l'espace
plan du texte ; il s'agirait maintenant d'utiliser les capacités
de stockage d'un cristal photosensible, dont la tridimensionalité
devrait à terme rendre possible une mémorisation équivalente
à un To par pouce carré (soit cinquante fois plus que les
possibilités actuelles du support magnétique). Les sommes
mises en jeu dans cette recherche (une subvention de 32 millions de dollars
fournies par l'Advanced Research Projects Agency à un consortium
d'universités et de laboratoires privés) donnent une idée
de l'importance de l'enjeu représenté par cet extension des
capacités de stockage.
Pourquoi
ce problème technique est-il essentiel pour notre propos ? Parce
que la mise en archive de l' Internet requiert des potentialités
de stockage tout à fait considérables.
1-2. ...susceptibles
de répondre à de nouvelles exigences de conservation des
données.
Nous
l'avions indiqué en introduction, l'Internet est à l'heure
actuelle le seul média à ne pas bénéficier
d'un système cohérent et administrativement centralisé
d'archivage. C'est que son archivage pose des problèmes tout à
fait spécifiques : de centralisation, puisqu'il est un résau
décentralisé ; de cohérence puisqu'il est un système
en perpétuelle transformation ; d'exhaustivité puisqu'il
est un "surgénérateur d'informations".
Pour
situer les données du problème, disons que le Web compte
aujourd'hui entre deux et quatre milliards de pages, qu'il en naît
entre quatre et huit millions chaque jour, que chaque seconde plusieurs
millions d'entre elles disparaissent ou se modifient. Ajoutons qu'il coute
évidemment beaucoup plus cher d'archiver des sites Web que de ranger
quelques vieux journaux dans un carton pour les historiens du futur.
Cet
archivage apparaît pourtant comme une nécessité. L'Etat
français (selon un article d'E. Richard, in Libération,
vendredi 13 octobre 2000) a rappelé que sa "mission consiste à
mettre en place le dispositif de conservation de la mémoire". La
BNF à ce titre est en train de réfléchir à
un archivage complet du réseau ; le gouvernement suédois
a déjà lancé un projet semblable (...). Mais ici l'initiative
n'appartient pas uniquement aux institutions publiques : un certain nombre
d'entreprises privées se sont de leur côté lancées
dans cette entreprise. La plus importante dans ce cas est celle de Scott
Kirkpatrick, chercheur retraité d'IBM et directeur exécutif
d'Internet Archive. La solution technique
adoptée par ce dernier est d'ailleurs la même que celle des
deux puissances publiques précitées : l'utilisation de robots
parcourant en permanence la Toile en prenant des "photos instantanées"
de chacune des pages des sites détectés (c'est-à-dire
ceux qui sont accessibles aux moteurs de recherche et n'utilisent pas de
filtres spéciaux pour empêcher toute sauvegarde). Kirkpatrick
estime que jusqu'à présent approximativement 1.2 milliards
de pages ont été archivées (globalement l'équivalent
de la Bibliothèque du Congrès) et que quelques 120 millions
supplémentaires le sont chaque jour.
Il
est également intéressant de constater que ce profond désir
de garder la mémoire du Net se manifeste à des niveaux moins
considérables, peut-être plus anecdotiques mais d'autant plus
savoureux. Ainsi le (devenu) fameux Steve Baldwin dont le site ghostsites
s'est
fixé pour mission d'archiver systématiquement le plus grand
nombre de sites abandonnés par leur concepteurs et dérivant
sur la mer virutelle (la cybermorbidité semble connaître un
important trend de hausse depuis les fluctuations du Nasdaq au printemps
2000). On pourrait aussi mentionner le journal tenu par Irv
Thomas sur ses voyages en terre internautique (découvrez son
absurde et poétique petit gnôme Chomsky), ou encore l'entreprise
à but non lucratif du graphiste David Blatner, qui a fondé
AfterLife
pour prendre en charge et archiver les pages web de personnes décédées
(on ne s'inquiète plus pour l'avenir de son caniche mais de son
site web).
Ce
qui est donc intéressant c'est que, si l'on ne cesse de dire que
l'Internet est un espace (relativement) décentré, libre,
ou même (très relativement) anarchique, l'autoarchivage de
l'internet (préservation sur l'internet "actuel" des divers internets
"passés") ne l'est pas moins, résultat entrecroisé
d'une multiplicité d'entreprises de conservations partiels et spécifiques,
d'origine publique, privée, à but lucratif ou non... Et si
l'accés à ces archives est pour l'instant extrèmement
difficile, pour des raisons techniques, Scott Kirkpatrick estime que d'ici
deux à quatre ans les "générations futures" (on peut
le trouver excessif dans le choix de ses expressions) seront en mesure
de surfer sur l'Internet "de papa" (même remarque). On aurait donc
en quelque sorte une conservation à l'intérieur de soi de
la mémoire de l'Internet, une manière de superposition indéfinie
de strates mémorielles, comme autant de couches géologiques,
accessibles directement à partir de l'actuel. L'autoarchivage anarchique
du Web rendrait possible une mise en réseau du temps, et non plus
seulement de l'espace, une mise en réseau de l'internet actuel avec
la multiplicité de ses états passés.
1-3. Mais cet espoir
soulève un grand nombre de réticences et de difficultés...
la précarité des supports
Cela
peut sembler comique, mais, alors que les manuscrits de Qumrân seront
toujours lisibles dans trois millénaires, le premier DVD-Rom d'aujourd'hui
ne le sera peut-être plus dans quatre ans. La CIA, toujours à
la point de la technologie et du ridicule, a perdu au debut des années
90 plusieurs centaines de documents ultra-secret en les égarant...
Le perfectionnement des techniques de stockage induit en effet une inévitable
précarisation des supports : il fallait un incendie pour détruire
la Bibliothèque d'Alexandrie, il suffit d'une allumette pour détruire
une cartouche de stockage. Plus même, selon le chercheur Jeff Rothenberg
"les champs magnétiques, l'oxydation et le vieillissement naturel
des matériaux magnétiques effacent les disques magnétiques
plus vite que l'encre ne s'efface des papiers de bonne qualité".
Mais
cela n'est rien comparé au problème de la compatibilité
des supports. L'obsolescence des technologies est tellement rapide que
le stockage des données se heurte inévitablement au problème
de la compatibilité des supports actuels avec ceux de demain. Ainsi
certains disques optiques sur lesquels les bibliothèques avaient
entrepris d'archiver notre patrimoine sont déjà devenus illisibles.
Deux solutions sont envisagées pour obvier à ce danger. Le
principe dit de la "migration", qui consiste à archiver les données
sur le support le plus "plat" possible, de manière à pouvoir
faire glisser les informations d'un support à l'autre au fur et
à mesure des innovations. L'autre, celui de l'émulation,
serait plus simple : il s'agirait d'élaborer des machines capables
de simuler les comportements de leurs ancêtres. Ce qui implique l'établissement
d'une norme de compatibilité internationale (c'est le projet d'un
"modèle de référence d'un système d'archivage",
ou OAIS, qui doit permettre l'interconnexion des bases de données
et des documents numérisés de l'ensemble des bibliothèques
mondiales). Mais il semble, ne serait-ce qu'en vertu du jeu de la concurrence,
que la concevabilité d'un émulateur universel soit proche
de l'utopie.
La
numérisation systématique du patrimoine de l'humanité,
corrollaire indispensable de sa mise en ligne, présente donc des
limites intrinsèques assez inquiétantes. Mais elle est aussi
tellement attractive qu'on ne saurait s'en dispenser, notamment dans le
cas de manuscrits extremement fragilisés par le temps (qu'on songe
par exemple à la numérisation de la Bible de Gutemberg par
la Bibliothèque de Göttingen). Et surtout la mise en ligne
du patrimoine historique et culturel ouvre ce champ de mémoire à
des non-chercheurs, à des non-universitaires, ce qui semble répondre
à une véritable demande (ainsi 42 % des internautes canadiens
qui ont consulté Notre mémoire
en ligne - 3000 ouvrages sur l'histoire de leur pays - étaient
des usagers sans aucun rapport avec l'université ou la recherche).
Evidemment,
tout cela implique des coût considérablement accrus relativement
aux exigences en financement des anciens moyens de stockage (de 1992 à
1998 la BNF a dépensé 72 millions de francs pour la numérisation
de ses collections). Jusqu'à quel point l'archivage des information
et du patrimoine pourra-t-il être public, et conséquemment
librement accessible en ligne, si les coûts d'installation et de
maintenance des bases de données en vient à surpasser celui
de la production originelle des données emmagasinées?...
L'exemple du rachat par Bill Gates du Codex de De Vinci, accessible
sur le Net moyennant finances, donne une désagréable idée
des conséquences possibles de cet état de fait : la privatisation
accentuée du patrimoine et de la mémoire collective, l'accès
payant à ce qui nous fait être ce que nous sommes (qu'on songe
au développement actuel des université
privées en ligne aux USA).
2-
...en prenant garde qu'il ne nous archive.
2-1. Anonymat et
mémoire: l'impossible conciliation.
Cet
ensemble de problèmes techniques converge vers l'articulation d'une
nouvelle donnée de nore interrogation. L'existence d'une mémoire
de l'Internet ne va pas sans poser de difficiles problèmes politiques,
juridiques et éthiques. Certes, la plupart des argumentaires insiste
sur le fait que l'archivage de l'internet ne pose pas de problèmes
spécifiques et nouveaux par rapport à n'importe quel autre
type de conservation des informations ; ainsi Catherine Lupovici, responsable
de la Bibliothèque numérique de la BNF affirme-t-elle que
"l'Internet ne pose pas de questions nouvelles mais il en modifie l'échelle".
Peut-être, mais ne pourrait-on pas avancer que certaines de ces questions
anciennes ne peuvent pas changer de dimension sans changer de nature ?
Ainsi de la préservation de la vie privée: que des historiens
puissent avoir connaissance du délit commis par Untel en fouillant
par hasard les vieux numéros d'un journal d'il y a cinq ans, cela
peut être envisagé comme un problème, mais il est évident
que cela ne constitue pas un état de fait susceptible de dépasser
le seuil de tolérance d'Untel ; que par contre n'importe qui, en
composant le nom d'Untel sur un moteur de recherche puisse tomber sur la
page de ce journal où son délit est mentionné (et
cela peut-être son employeur, ses employés, ses amis, sa femme,
ses enfants), cela risque d'occasionner de graves
problèmes à Untel qui, ex hypothesi, a payé sa
dette à l'égard de la société . Plus précisément,
l'autoarchivage susmentionné de l'internet induit nécessairement
la constitution d'un fichier sur chaque individu, qui peut éventuellement
aboutir à un véritable casier judiciaire bis, librement et
publiquement accessible.
Ne
négligeons pas en outre les enjeux financiers : si les archives
de l'Internet sont aujourd'hui d'accès gratuit, elles pourraient
fort bien devenir payantes pour les entreprises. Et jusqu'au profilage
systématiquement réalisé par les sites commerciaux
(notamment par le moyen des cookies) peut devenir un objet d'échange
sur un marché de l'estimation des individus, où la cession
du casier judiciaire sous forme contractuelle ne serait-ce que la manifestation
la plus contestable.
Quant
aux problèmes juridiques soulevés par l'existence de ces
archives, les cabinets d'avocats spécialisés dans la cybercriminalité
semblent déjà se lêcher les babines : des questions
de copyright aux litiges concernant la propriété d'un site
dont l'auteur est décédé (cela risque très
vite de jeter un gros pavé dans la mare de sympathiques projets
du type Afterlife) les enjeux financiers sont là encore considérables.
On
peut donc légitimement se demander si ces deux nécessités
sont compatibles : d'un côté archiver l'Internet, et à
à travers lui numériser notre patrimoine ; de l'autre préserver
les liberté et l'anonymat, en assurant la compatibilité des
mécanismes de l'Internet avec les normes juridiques applicable en
général aux questions de la propriété intellectuelle
et du droit à disposer de son image..
2-2. L'internet
nous garde en mémoire: attention vous êtes tracés!
Mais
ces enjeux font eux aussi signe vers des problématiques moins immédiatement
discernables mais peut-être plus cruciales. Si l'Internet est à
la fois objet d'un archivage et instrument (difficlement contrôlable)
d'archivage -avec toutes les contradictions qui peuvent en résulter
- objet et substrat de la mémorisation, il est aussi un opérateur
permanent de mémorisation. Il garde la trace des connexions et les
voyages qui le traversent, et peut immédiatement traiter les données
qui en résultent.
On
peut à cet égard signaler quelques unes des conséquences
de ces opérations.
Sur
le site Privacy.org, par exemple, est organisée chaque année
une grande remise des prix, les "Big
Brother Awards" qui "récompensent" les meilleurs inovations
dans les technologies de surveillance universelle via le Net. On citera
par exemple le gagnant de l'année 1999 : le numéro d'identification
conçu par Microsoft qui permet le traçage des opérations
sur la Toile des usagers des différents logiciels Microsoft. On
trouve à cet égard sur le site du Cnil
une
illustration des principales procédures de traçage utilisées
par les entreprises de commerce pour le profilage de leurs visiteurs. On
sait par exemple qu'il est facile d'obtenir des renseignements sur la configuration
d'un utilisateur et sur l'URL qu'il vient de visiter en utilisant les variables
d'environnement définies dans son navigateur. De ces applications
les plus importantes sont sans doute les fameux "cookies", positionnant
sur l'ordinateur d'un usager des informations qui permettront par la suite
de déterminer son parcours lors d'une session et de conformer dynamiquement
les pages du site lors de ses prochaines visites compte tenu de son "profil"
ainsi dégagé. C'est le cas lorsqu'un de vos moteurs de recherche
positionne des cookies en fonction des rubriques que vous avez consultées,
lesquelels contiennent une indication de vos goûts et intérêts,
pour afficher la fois suivante des annonces publicitaires correspondant
à ces goûts. Le Cnil insiste à juste titre sur le fait
que l'archivage de ces données de profilage permettront au site,
le jour où vous lui donnerez une information plus importante (votre
nom ou votre adresse informatique ou postale) de mettre en série
cette donnée avec l'ensemble de celles qu'il aura glanées
par le biais des cookies, constituant ainsi un "fichier client" pour lequel
vous n'aurez pas donné votre caution, mais dont on imagine aisément
la valeur financière. On pourrait faire des remarques semblables
à propo de la constitution des fichiers d'audit. Ce qui semble intéressant
dans cet ensemble de procédures, c'est qu'elles opèrent une
mise en mémoire de vos opérations, stockées alors
en mémoire dans une base de données, et, selon la logique
précédemment exposée, retraitées par la suite
de manière à constituer une nouvelle mémoire morte,
diffusable et échangeable à volonté, permettant de
profiler les dits usagers et donc de mettre en place des structures d'accueil
adéquates à vos demandes escomptées. A travers le
traitement de ce que "vous avez fait" sur le Net, on constitue une mémoire
de "ce que vous êtes", et on configure en conséquence les
éléments de vos opérations futures. On aurait ici
envie de dire que c'est la subjectivité elle-même qui devient
un élément constitutif, et dynamique, de la mémoire
de l'internet. Il existe certes des méthodes pour se défendre
contre cette surveillance inavouée. Pour éliminer les cookies,
esquiver le traçage, contourner les fichiers d'audits. Mais se défausser
sur chaque usager de cetravail de protection c'est consacrer l'existence
d'un monde de l'information "à deux vitesses" : seuls ceux qui ont
les compétences (et le temps) pour le faire pourront se prémunir
contre ce qui pourrait à bon droit être considéré
(au moins dans certains cas) comme une atteinte générale
à la vie privée. Quant au plus puissant logiciel existant
sur le marché, Freedom commercialisé par la société
canadienne Zeroknowledge ,
il inverse le problème sans le résoudre : il garantit un
anonymat assez sûr à des personnes dont les activités
et les motifs peuvent être plus répréhensibles et illégaux
que ceux des "traceurs".
Ainsi,
l'on avait vu comment l'internet était conduit à s'autoarchiver
et à se mettre en réseau avec son propre passé, on
le voit maintenant intégrer la mémoire de ses usagers à
ses propres donnés et évoluer dynamiquement, se transformer
selon la prise en compte permanente et immédiate de ces mémoires
multiples.
Si
l'on admet alors qu'au fond la mémoire de l'usager est mise en réseau
avec l'ensemble de la mémoire de l'Internet, on est conduit à
envisager un dernier ensemble de projets, le plus fascinant sans doute.
2-3. Le projet Oxygen,
une
utopie des plus sérieuses...
Nous
n'avons en effet pas assez insisté sur une autre caractéristique
fondamentale de la mémoire des réseaux : l'interconnectivité.
Tout information numérisée produite quelque part sur la "surface"
d'un réseau est susceptible d'être véhiculée
à n'importe quel autre point, et sur n'importe quel autre réseau
pour peu que ce dernier mette en relation des supports dôtés
d'une mémoire morte et d'une mémoire de masse. Il n'y a pas
de localisation du stockage. En bon théoricien épris de vocables
deleuziens, Jean-Pierre Balpe parle ainsi d'une "mémoire virtuelle
de flux déterritorialisée" (dans Libération
du 22 juillet 2000). Il apparaît en outre que cette mémoire
(nous avons en partie montré comment dans notre première
partie) peut être considérablement miniaturisée, intégrée
à un micro-onde ou un radiateur, enfouie dans un talon de chaussure
etc... Le directeur adjoint du MIT avait même consacré un
site web à sa brosse à dent, site dont il affirmait qu'il
était alimenté et généré par "le petit
ordinateur sui se situe dans la brosse à dents". Car telle est l'utopie
actuellement promue par le MIT sous le nom de "Projet
Oxygen": un réseau qui ne relierait pas seulement ces grosses
machines provisoirement installées sur nos bureaux et que nous appelons
des ordinateurs, mais nos portables et nos radiateurs, nos palm pilots
et des senseurs incorporés à nos murs de salle de bain, des
capteurs sis dans nos talons de chaussure capables d'analyser notre façon
de marcher et, le cas échéant, de contacter de leur propre
chef un kinésithérapeute, en vérifiant dans notre
agenda que la date et l'heure conviennent, avant de nous téléphoner
sur notre montre de poignet pour nous en avertir. Le monde de ce projet
est un monde de capteurs, senseurs, microphones et microcaméras
absolument omniprésents et mettant en permanence en mémoire
pour traiter et retraiter cette mémoire, vos moindre faits et gestes
Ce projet Oxygen n'est pas une aimable rêverie : financé sur
des crédits militaires américains (40 millions de dollars
sur cinq ans), il a étéretenu comme prioritaire par le Defense
Advanced Research Projects Agency (qui oriente les financements de recherche
du Pentagone et...est responsable de l'invention de l'Internet). Il repose
sur l'idée que les 8 milliards de processurs intégrés
aux objets les plus banals (réveil, thermostat, radio, montre) sont
des ordinateurs en puissance, et pourraient à ce titre être
mis en réseau et "défonctionalisés". Ces objets ne
seront plus rivés leur fonction unique, mais seront des x,
des quelque choses àà partir desquels ont pourra télécharger
selon nos besoins, depuis la gigantesque mémoire du réseau,
tel ou tel programme, telle ou telle applications. Tout sera sur le Web.
Ce dont nous avons besoin, ce dont nous devons nous souvenir. Soit l'un
des scénarii inventoriés sur le site web du LCS : Jane, qui
est veuve, ne rate plus aucun appel, car les microphones et les hauts-parleurs
incorporés aux murs lui permettent de répondre depuis n'importe
quel point de son appartement. Les senseurs de la baignoire vérifie
que l'eau ne déborde pas et qu'elle est à la bonne température.
Les caméras incorporées aux murs permettent à une
douce voix de lui rappeler gentiment de prendre ses médicament ou
d'aller rechercher ses lunettes sur la table de nuit (qui, je suppose,
clignote avec anxiété), etc... Toutes ces données,
qui devaient être jadis entreposées dans la fragile et précaire
mémoire d eJAne, sont désormais sur le web, mise en réseau
avec une multiplicité d'autres données, avec lesquelles elle
sont immédiatement comparées, mise en série, retraitées.
La
mémoire de l'internet doit, dans cette perspective devenir quelque
chose de comparable à l'air que nous respirons, nous nourrir constamment,
se transformer avec ce que nous rejetons, nous envelopper entièrement.
L'accès au réseau ne sera plus déterminé par
une action ponctuelle et spécifique (se mettre à son bureau,
brancher l'ordinateur le modem, se connecter, etc.), il sera coextensif
à la majeure partie de nos actions quotidiennes, à la forme
la plus spontanée de notre être-au-monde (parler, écouter,
bouger, lire, prendre un bain) ; la mise en mémoire sur le réseau
de nos actions ne sera plus soumise à un ensemble de procédures
spécifiques à l'intérieur de ces connexions partielles,
elle sera le résultat et la condition de nos gestes de tous les
jours. Il ne nous appartient évidemment pas de juger de la faisabilité
de ce projet ni de sa légitimité ou de sa pertinence. Mais
ce qui nous semble intéressant pour notre propos, c'est qu'il implique
littéralement la mise en réseau de l'Internet et de ce que
nous avons pris l'habitude de nommer notre mémoire, notre appareil
mental. Ce qui trouvait antérieurement son lieu et son chemin dans
nos connexions neuronales, à travers les sillons de nos synapses,
pourra très naturellement, non seulement être "reterritorialisé"
sur le Net, mais en outre y sera fonctionnellement traité comme
il le serait par un appareil mémoriel humain (et même mieux).
C'est peut-être simplement notre pensée qui va changer de
support, pour être rendue compatible avec l'ensemble des données
numérisables et intégrables à une base de donnée.