Previous month:
septembre 2005
Next month:
novembre 2005

Qualité de service, centre d'appel et utilisateur mécontent

L’invasion de notre vie quotidienne par de multiples objets et services hi-tech, dans le monde professionnel comme à domicile, soulève le considérable problème de l’utilisation pertinente et sereine de ces objets. Micro-ordinateur, logiciels, périphériques numériques, réseaux, services d’accès à internet, téléphonie mobile et fixe sur IP coexistent et interférent dans un désordre complexe et mouvant, dysharmonique, qui résiste à l’utilisateur impatient. Or il est admis par les professionnels que 80% des "dysfonctionnements techniques" des produits proviennent des utilisateurs eux-mêmes. Or un utilisateur frustré est un client mécontent, ou un salarié furieux contre sa direction informatique...

La solution avancée par tous les acteurs est le centre d’appel. Or cette réponse se révèle souvent médiocre et coûteuse.

Le gouvernement et les députés français, bien après les associations de consommateurs, se sont récemment émus que les acteurs de la téléphonie mobile fassent payer, cher, les appels aux centres de service, appels généralement motivés par des dysfonctionnements dans la qualité du service. Soucieux de mettre un terme aux excès d’une facturation aussi indue qu’opaque, le gouvernement s’en est saisi au point de fermement convaincre la profession que ces appels seraient gratuits à partir de la mi-2006, décision prise lors d’une table ronde entre opérateurs de téléphonie et association de consommateurs le 27 septembre 2005.

Le coût du recours aux centres d’appels concerne désormais tous les utilisateurs de produits et services électroniques. Ainsi, l’accélération du rythme des offres, comme la baisse des tarifs apparents induite par la concurrence, sur le marché des fournisseurs d’accès internet (FAI) les a conduit à simplifier leur infrastructure technique et commerciale au profit de centres d’appels téléphoniques payants. L’UFC-Que Choisir a révélé en mai que les consommateurs d'internet avaient payé en un an, au tarif de 0,34 € la minute, 112 millions € en assistance téléphonique dont 54 millions pour les seuls temps d’attente.

Il en est de même pour les fabricants de matériel informatique qui privilégient le modèle de vente direct aux circuits de distribution classiques et qui n’ont pas d’infrastructure physique pour accueillir les clients confrontés à un problème.

Le contact privilégié du consommateur avec son fournisseur à travers un centre d’appel est censé simplifier la relation et renforcer la qualité de service, tout en coûtant moins cher au fournisseur qu’un réseau de support physique local. Cette solution théoriquement rationnelle représente un piège de plus en plus douloureux dont personne risque de sortir gagnant. Non seulement les appels sont facturés au client, mais la qualité de la réponse est très souvent médiocre. On ne compte plus les heures à patienter en écoutant une musique sirupeuse en attendant que la personne providentielle comprenne et résolve votre problème. D’après le magazine « 60 millions de consommateurs », 60 % des internautes sont mécontents de la qualité de l’assistance téléphonique. Beaucoup d’interlocuteurs renoncent et se débrouillent, mal, avec leurs propres moyens locaux. Le problème s’étend aux grandes entreprises qui gèrent des parcs de postes de travail et d’imprimantes comprenant des dizaines de milliers de machines et qui ne peuvent plus offrir un service de proximité physique tant pour réduire les coûts que pour standardiser la qualité du service en proscrivant des interventions locales erratiques.

La qualité du support devient de plus en plus un facteur de choix. Aux Etats-Unis, une étude effectuée par l’Université du Michigan (University of Michigan's American Customer satisfaction Index) classe les différents vendeurs chaque année en fonction de la qualité du service. Si Apple occupe régulièrement le premier plan, avec un score de 81, la moyenne de l’industrie stagne à 74 et un leader du circuit direct comme Dell chute de 6% entre 2004 et 2005 pour se retrouver à la moyenne de l’industrie alors même qu’il a fait de la qualité de service son cheval de bataille. L'industrie du PC génère un niveau de satisfaction trés inférieur aux autres industries de biens de consommation comme l'automobile ou l'électroménager. En France la société Techcity (http://www.techcity.fr/), elle même spécialiste de l’assistance technique, publie chaque année un rapport d’évaluation de la performance des services de support technique en environnement hi-tech, le TechCity Mystery Contact Challenge considéré comme un baromètre de référence. Pour le rapport 2005, les fournisseurs d’accès internet voient leur performance baisser de 4,6 % avec un taux d’efficacité de 58,5 %. Les constructeurs d’ordinateur progressent de 3,6% et dépassent légèrement 60 % de taux d’efficacité. Ces résultats sont assez médiocres et justifient les relations tendues avec les utilisateurs.

Aux Etats-Unis le développement anarchique d’un marché du téléphone cellulaire perpétuellement saturé crée d’autres problèmes. Le nombre des plaintes portant sur la qualité du service et les pratiques de facturation des opérateurs explose. Des suppléments illégitimes se trouvent facturés par les plus grandes compagnies de téléphone; 11 % des abonnés ont déjà constaté de graves irrégularités sur leur facture. En 2002, un cinquième des usagers ont vu plus d’une communication sur dix s’interrompre inopinément. Et 60 % des abonnés s’étaient d’ailleurs plaints au moins une fois auprès des services clientèle !

De fait l’organisation du service à distance est devenu un véritable cauchemar pour les acteurs du marché qui se trouvent confrontés à une insatisfaction chronique conduisant parfois à la rébellion de leurs clients et à une augmentation non maîtrisée de leurs coûts d’opération. Le problème est complexe, touche toute la profession, et appelle des solutions nouvelles.

Il faut d’abord admettre que l’industrie dans son ensemble succombe aux charmes vénéneux de sa complexité croissante. Les offres tarifaires sont complexes, les produits se suivent à un rythme élevé et le personnel des centres d’appel a des difficultés à conserver un niveau commercial et technique approprié. Le métier d’opérateur de centre d’appel est difficile, la rotation de la main-d’œuvre importante car personne ne souhaite faire une longue carrière dans ce métier de front-office stressant. La localisation de plus en plus fréquentes de ces centres d’appel à distance dans les pays émergents pose souvent des problèmes de compréhension linguistique.

Plusieurs réponses sont à l’étude ou à l’essai. La première est de fractionner les files d’attente en spécialisant les canaux par type d’offre, ou type de problème, technique ou commercial, avec la mise en place d’équipes dédiées, à la compétence pointue. Ceci suppose que le consommateur soit à même de faire un pré-diagnostic et implique donc une coopération plus grande ! Le même résultat peut être obtenu avec une première ligne de personnes très compétentes qui peuvent assister l’utilisateur dans le diagnostic et le diriger vers une des équipes dédiées. Là encore se pose le problème de la formation des « hot-liners » et de leur fidélisation.

La seconde voie consiste à renforcer le service on-line en dopant les sites web d’information plus précises et plus faciles à exploiter pour l’utilisateur désemparé et en exploitant l’e-mail qui permet de faire des réponses plus ciblées.

La troisième passe par une meilleure formation du client lui-même. Il s’agit là d’un véritable sujet qui passe par les fournisseurs mais aussi par une vraie adaptation collective à l’exploitation maîtrisée des outils de la société de l’information, comme le public s’est adapté en son temps à l’automobile. L’analogie a été pousée dans la mise au point d’un outil de mesure de ses compétences en informatique destinée aux utilisateurs, le PCIE, permis de conduire informatique européen ou passeport de compétences informatique européen (http://www.pcie.tm.fr/). Le PCIE est un dispositif modulaire et progressif permettant à chacun de valider ses compétences de base en technologies de l'Information. Il est composé d'un ensemble de modules de test aboutissant à une certification dans des domaines considérés comme fondamentaux dans l'utilisation quotidienne du poste de travail informatique. Le référentiel du PCIE (Syllabus) définit les connaissances requises. C’est une initiative européenne largement développée dans les pays du nord de l’Europe

Enfin, l’industrie réfléchit à une réelle simplification des outils capables eux-mêmes d’autodiagnostic et de déclencher les corrections nécessaires ( « self-healing computing »)

Tout ceci implique un coût supplémentaire, que même le recours de plus en plus massif à l’offshore dans ces fonctions ne peut durablement absorber. Le consommateur n’est pas prêt à payer. Si la profession ne semble pas pressée de mettre un terme à une ressource facile, plusieurs opérateurs français ont préféré renoncer à faire payer leurs services pour attirer les clients excédés. Ainsi Alice propose une hot-line totalement gratuite, Wanadoo et Orange s’engagent à ne pas faire payer les temps d’attente début 2006, Club-Internet offre 30 minutes d’assistance gratuite…

De toute évidence la maîtrise de bout en bout de la qualité de service dans des conditions économiques est un défi redoutable pour tous les acteurs mais constitue la condition d’une meilleure acceptation des technologies de l’information et de leurs innovations, et par là d’un renforcement de leur usage efficace et consensuel.


Apple confirme ses excellents résultats

Les chiffres du quatrième trimestre fiscal d'Apple sont parus le 11 octobre : meilleur trimestre dans l'histoire de la compagnie avec 3,68 milliards $ de chiffre d'affaires et un profit net de 430 millions $. Apple a vendu 1236000 Macintosh, soit 48% de croissance par rapport au trimestre équivalent de 2004, et 6451000 iPod, soit 220% de croissance. Avec un chiffre d'affaires annuel qui tangente 14 Milliards $ et un profit de 1,335 milliards, soit 384% de croissance par rapport à l'année fiscale 2004 Apple confirme avec brio - la meilleure année de son histoire- la justesse de sa stratégie d'innovation et se donne les moyens de surprendre en 2006, comme l'annonce avec "excitation" Steve Jobs, avec de nouveaux produits innovants face à une concurrence qui concentre son tir sur la vidéo portable, ayant perdu la bataille de la musique en dépit de plusieurs contre-offensives, la dernière en date étant celle de Sony avec son nouveau Walkman MP3.


Le mot « ordinateur » a 50 ans

Cet anniversaire symbolique est passé (presque) inaperçu, mais, alors que les ordinateurs sont désormais omniprésents dans la vie quotidienne, il est intéressant de se rappeler que le mot "ordinateur" a trouvé sa place dans la langue française dès 1955, époque où ces machines étaient totalement ignorées du grand public.

Les premières recherches pour développer des machines à automatiser les calculs sont apparues dans les domaines d’activité qui utilisaient des tables de calcul spécialisées, comme la navigation maritime ou l’astronomie. Ces tables produites à la main par des réseaux de personnes et, malgré le recours systématique au double calcul, n’étaient pas sans erreur. Il était vital d'en accélérer la production et de les fiabiliser, ce qui a justifié de multiples recherches d'automates pouvant produire des calculs. A l’origine, dès le XVIIe siècle, le mot anglais « computer » signifiait la « personne qui calcule ». En 1897, on a adopté logiquement le terme « computer » pour désigner une « machine à calculer mécanique », puis en 1946 une « machine à calculer électronique ».

Le terme français a une origine très précise. IBM France se préparait à lancer en 1955 sa première machine de traitement de données électronique ( « Electronic Data Processing System » ou EDPS) et cherchait à lui donner une dénomination commerciale en langue française. Le président d’IBM France interrogea le professeur de philologie latine à la Sorbonne, Jacques Perret, qui répondit le 16 avril 1955. Conservé pendant quelques mois comme appellation commerciale pour désigner l’« ordinateur IBM 650 » le terme ordinateur est rapidement devenu public et a immédiatement était retenu par le petit groupe de professionnels qui à cette époque était en contact avec ces outils.
Le texte de ce document historique a été publié par IBM.

« Cher Monsieur,
Que diriez-vous d'"ordinateur" ? C'est un mot correctement formé, qui se trouve même dans le Littré comme adjectif désignant Dieu qui met de l'ordre dans le monde. Un mot de ce genre a l'avantage de donner aisément un verbe "ordiner", un nom d'action "ordination". L'inconvénient est que "ordination" désigne une cérémonie religieuse; mais les deux champs de signification (religion et comptabilité) sont si éloignés et la cérémonie d'ordination connue, je crois, de si peu de personnes que l'inconvénient est peut-être mineur. D'ailleurs votre machine serait "ordinateur" (et non ordination) et ce mot est tout a fait sorti de l'usage théologique.
"Systémateur" serait un néologisme, mais qui ne me paraît pas offensant; il permet "systémation" ; - mais systémer ne me semble guère utilisable -.
"Combinateur" a l'inconvénient du sens péjoratif de "combine" ; "combiner"est usuel donc peu capable de devenir technique ; "combination" ne me paraît guère viable a cause de la proximité de "combinaison". Mais les Allemands ont bien leurs "combinats" (sorte de trusts, je crois), si bien que le mot aurait peut-être des possibilités autres que celles qu'évoque "combine".
"Congesteur", "digesteur" évoquent trop "congestion" et "digestion".
"Synthétiseur" ne me parait pas un mot assez neuf pour désigner un objet spécifique, déterminé comme votre machine. En relisant les brochures que vous m'avez données, je vois que plusieurs de vos appareils sont désignés par des noms d'agent féminins (trieuse, tabulatrice). "Ordinatrice" serait parfaitement possible et aurait même l'avantage de séparer plus encore votre machine du vocabulaire de la théologie. Il y a possibilité aussi d'ajouter à un nom d'agent un complément: "ordinatrice d'éléments complexes" ou un élément de composition, par ex.: "sélecto-systémateur". "Sélecto-ordinateur" a l'inconvénient de 2 « o « en hiatus, comme "électro-ordinatrice".
Il me semble que je pencherais pour "ordinatrice électronique". Je souhaite que ces suggestions stimulent, orientent vos propres facultés d'invention. N'hésitez pas à me donner un coup de téléphone si vous avez une idée qui vous paraisse requérir l'avis d'un philologue. »


Rencontre avec le président de Dell

Les dirigeants des sociétés informatiques américaines affectionnent rencontrer leurs clients français lors de leur brefs passages à Paris entre deux escales européennes. Cette pratique vaut à quelques DSI le plaisir d'être invités dans un grand hôtel pour écouter la parole de ces patrons pressés, poussés par leur attaché(e) de presse à ne pas perdre de temps dans des détails frivoles... Tout ceci se traduit généralement par des propos convenus sur le rôle central du client, le souci de la qualité du service et une invitation à envoyer un courriel à son adresse personnelle si quelque chose n'allait pas...
Parfois ces rencontres au cérémonial bien rodé laissent filtrer de vraies convictions et un intérêt réel pour l'auditoire.

Ce fut le cas lors du passage au Georges V de Kevin Rollins, président et CEO de Dell depuis juillet 2004. C'est un personnage méconnu en Europe de l'industrie IT mais il tient des propos décapants pour le leader mondial de l'industrie du PC.

- La philosophie de Dell reste constante : rendre plus accessible l'infrastructure des technologies de l'information par l'utilisation de produits standards, diffusés à grande échelle. La force de Dell tient dans son organisation industrielle hyper-compétitive, basée non pas sur le seul coût de la main-d'oeuvre, mais sur l'efficience globale de la supply chain intégrant le canal de distribution grâce à la vente directe et à la connaissance précise des consommateurs. Dell reste attaché à un modèle régional de production. L'usine de Chine ne produit que pour la Chine, et Kevin Rollins croit au développement d'emplois qualifiés dans les pays émergents d'abord pour leur propre bénéfice. Dell va d'ailleurs créer une seconde usine en Europe, après Limerick en Irlande, pour raccourcir encore les délais de livraison en se rapprochant de ses marchés européens et baisser le coût de la supply-chain aval.

- Toujours actif sur le marché Grand Public (15% du CA mondial), notamment grâce aux imprimantes et aux télévisions à écran plat, Dell cherche à développer ses activités dans le service aux grands comptes non pas dans une logique d'outsourcing mais "d'out-tasking". En effet, Kevin Rollins considére que l'outsourcing de fonctions qu'on ne maîtrise pas est une grave erreur, qui ne peut conduire qu'à un accroissement des coûts, un alignement de performance sur les plus moyens et à une dépendance totale. Il conseille aux clients tentés par l'aventure de commencer à simplifier et rationaliser eux-mêmes leurs applications et leur infrastructure. Le seul salut réside dans la standardisation, génératrice de baisse des coûts, pour mettre le talent exclusivement sur l'innovation. Ils ne pratiquent pas eux- mêmes l'outsourcing car les technologies de l'information sont pour eux un élément vital de leur savoir-faire. "I don't want to be the same, I want to be different " dit-il. Il craint l' "averaging effect" de l'outsourcing.

- Sur la sécurité, il pense qu'on tend à en faire un épouvantail alors que les risques réels de "capture d'information" sont trés faibles. Il considère que l'avantage compétitif ne réside que dans l'exécution, pas dans l'accès à de prétendus secrets, que finalement tout le monde partage... La seule chose qu'il faille vraiment protéger c'est le client, pour que ses données ne circulent pas. Il faut se déplacer sans cesse par l'innovation et non pas chercher à se protéger par des barrières.

L'approche de Dell reste modeste en dépit de l'immense succès de cette entreprise qui domine le marché mondial avec une recette simple : la vente directe servie par une organisation sans faille de la supply chain, soutenue par un système d'information...maison. Son chiffre d'affaires a doublé en 5 ans, passant de 25,3 milliards $ en 2000 à 49,2 milliards $ en 2005... Sa part du marché des PC est passée 3,2 % en 1995, à 10,5 % en 2000 et 18,9% au dernier trimestre de l'année fiscale 2005. Le métier affirmé de Dell est finalement d'accélerer la démocratisation des technologies et des services en les rendant plus accessibles aux plus grand nombre d'entreprises. C'est une bonne nouvelle pour les budgets des DSI. Et pour les actionnaires de Dell !


Les enjeux politiques de la gouvernance d'Internet

Outre les aspects techniques, le contrôle de l’Internet porte bien entendu sur les contenus. Un vaste débat mondial s’est engagé sur ce point dès l’origine autour de la cohabitation d’une logique libertaire issue de la culture des fondateurs de l’Internet, favorable à une nouvelle citoyenneté mondiale, et du réalisme juridico-politique représenté par les états. Il n’est en effet pas question ni pour les états, ni pour la communauté internationale de laisser s’ériger une zone de non droit international. L’après-11 septembre a donné lieu à une prise conscience planétaire de la capacité d’Internet à faire circuler dans l’anonymat tous les messages, et surtout ceux des réseaux terroristes et mafieux toujours prompts à exploiter les innovations technologiques. Pour certains, comme la Chine ou l’Iran, pays dans lesquels Internet connaît un succès remarquable, l’esprit de liberté doit être également canalisé pour ne pas remettre en cause les dogmes sur lesquels sont édifiés ces régimes.

La tension monte à quelques semaines de la deuxième session du Sommet mondial de la société de l’information (SMSI) qui se tient, après Genève en décembre 2003, à Tunis en novembre 2005.
Un groupe de travail sur la gouvernance de l’Internet (GTGI) a été crée par le secrétaire général de l’ONU à l’issue des travaux de Genève.
Son mandat est le suivant :
- Élaborer une définition pratique de la gouvernance de l’Internet
- Identifier les questions d’intérêt général qui se rapportent à la gouvernance
de l’Internet
- Trouver un terrain d’entente concernant les rôles et sphères de responsabilité
respectifs des États, des organisations internationales et autres forums en
existence ainsi que du secteur privé et de la société civile, tant dans les pays
en développement que dans les pays développés.

Le premier élément sur lequel s’est mis d’accord le groupe est la définition de la gouvernance d’Internet :
" Il faut entendre par « gouvernance de l’Internet » l’élaboration et l’application par les États, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes, règles, procédures de prise de décisions et programmes communs propres à modeler l’évolution et l’utilisation de l’Internet."

Clairement, il ne s’agit plus de laisser une communauté scientifique et professionnelle, largement influencée historiquement et politiquement par les Etats-Unis, gérer à son gré des règles techniques ayant un tel impact politique. Les états veulent s’impliquer dans des sujets plus vastes que les noms de domaine et estiment qu’ils doivent prendre en mains le destin de l’Internet compte tenu de son rôle majeur dans l’économie, le développement, la sécurité, la cyberdélinquance, le pollupostage (les spam), la circulation des biens et des personnes... Dans un modèle où 91% des utilisateurs d’Internet proviennent des pays riches mais ne représentent que 19% de la population mondiale, les questions relatives au développement prennent évidemment une dimension essentielle.
Le rapport du groupe est d’ailleurs très sévère sur les modes de régulation actuels et leurs limites en matière de transparence, de responsabilisation, de respect du multilatéralisme. Il prône une approche coordonnée de toutes les questions de politique publique qui concernent la gouvernance de l’Internet.

La groupe de travail a examiné quatre modèles possibles d’organisation assurant un dosage plus ou moins équilibré du rôle des Etats, du secteur privé et de la société civile :
- un Conseil mondial de l’Internet composé de membrés désignés par les Etats,
- la création d’un forum mondial de l’Internet lié à l’ONU regroupant toutes les parties prenantes, sans organe de contrôle spécifique,
- la création d’un Conseil international de l’Internet, piloté par les Etats, reprenant les compétences de l’ICANN
- un quatrième modèle dissociant l’élaboration des politiques publiques, confiée à un Conseil des politiques Internet mondiales, placé sous la direction des Etats, le contrôle technique et opérationnel, confié à la Société mondiale pour l’attribution des noms de domaine et numéros sur l’Internet, pilotée par le secteur privé, et la coordination mondiale assuré par le Forum mondial de la gouvernance de l’Internet, tripartite Etats, secteur privé et société civile.

Le groupe de travail complète son approche par une série de considérations générales sur la liberté d’expression, la protection des données et le respect de la vie privée, les droits du consommateur, le respect du multilinguisme, toutes questions majeures sur lesquelles les états ont de bonne raison de ne pas s’entendre.

Ces idées cheminent actuellement entre les différents protagonistes sans faire émerger de consensus. Le gouvernement des Etats-Unis, qui avait déjà ouvert une brèche considérable dans les principes fondateurs avec le Patriot Act, a réaffirmé bien fort qu’il n’était pas question pour lui de renoncer à son rôle historique sur l’Internet. L’Union européenne, quant à elle, semble favorable à une forte évolution du statu quo à travers la création d’un forum mondial de l’Internet. Le débat porte également sur la nature de la structure publique qui pourrait piloter le nouveau système, et l’UIT (Union internationale des télécommunications) , basée à Genève, semble être un candidat crédible.

Si rien n’est encore joué, il y a donc un parfum de reprise en mains de l’Internet par les Etats et la communauté mondiale tout à fait compréhensible dans un monde ouvert et vulnérable mais qui risque de marquer un tournant majeur dans la jeune histoire de l’Internet.

Références :
http://www.w3.org/
http://www.w3.org/2001/11/StdLiaison
http://www.itu.int/wsis/docs2/pc3/html/off5/index-fr6.html



Qui contrôle Internet ? Les bases techniques...

La question peut surprendre, car l’évidente réponse pourrait être « personne » tant Internet apparaît comme un monde facile, ouvert et libre de contraintes ! Internet s’est en effet construit pour échapper au modèle centralisé de l’informatique et des télécommunications des années soixante en édifiant un système souple, décentralisé, robuste qui n’impose pas une administration centrale ou un standard propriétaire.
Oui, mais…. il n’y a pas de miracle Internet. Pour implémenter ce système, il a fallu standardiser un certain nombre de briques techniques de même que définir des règles de fonctionnement garantissant l’interopérabilité de l’accès aux différents composants du système. La responsabilité de la définition de ces standards incombe, depuis le milieu des années quatre-vingt dix, à plusieurs structures mondiales au fonctionnement original, au carrefour de la recherche, de l’initiative privée et du rôle régalien des états. Toutefois, le succès mondial d’Internet remet en cause ses principes fondateurs, un peu trop idéalistes pour les états et surtout beaucoup trop américains pour tous ceux qui estiment que l’emprise historique de Washington sur Internet est désormais abusive.
Le système historique de gouvernance d’Internet, désormais considéré comme une « ressource publique mondiale », est donc aujourd’hui remis en question.

1. Internet est avant tout un système technique

- Internet a construit son succès sur la base de normes élaborées par la communauté scientifique dès la fin des années soixante. La première est TCP-IP, c’est à dire « transmission control protocol/internet protocol ». Ces protocoles permettent l’acheminement de fichiers informatiques par paquets à travers le réseau mondial jusqu’à leur destination finale. Au-dessus de ces normes de transport se sont édifiées d’autres briques organisant le contenu. Les plus fondamentales sont HTTP, protocole de transfert de fichiers, et HTML, langage universel de publication qui permet de décrire une page de document multimédia, et dont l’adoption a véritablement déclenché le succès populaire d’Internet à partir de 1995 en rendant facilement accessible des contenus multimédia riches à partir d’un simple clic de souris. Outre l’entretien de ces bases, le développement du web génère de nouveaux besoins et son enrichissement technique est continu. L’ensemble de ces outils techniques est géré par le W3C World Wide Web Consortium fondé en 1994 par Tim Berneers-Lee, inventeur du web. Le W3C est un consortium rassemblant 398 membres (au 2 octobre 2005), universités, entreprises du monde informatique, groupes industriels, appartenant à 28 pays. Il est opéré par trois structures universitaires : le MIT Computer Science and Articial Intelligence Laboratory aux Etats-Unis, le European Research Consortium for Informatics and Mathematics (ERCIM , qui fédère 18 laboratoires européens) et Keio University au Japon. Il faut souligner le rôle pionnier de l’INRIA (Institut National de Recherche en Informatique et Automatique) qui dès 1995 a été la première structure européenne à rejoindre le W3C. Le W3C développe les technologies cœur du web, à travers un processus d’élaboration consensuelle de règles (« recommandations ») qui sont étudiées au sein de groupes et d’ateliers et coordonnées par un groupe d’architecture technique (W3C TAG). Le W3C entretient des relations avec toutes les autres organisations qui travaillent dans le monde du web afin de faire émerger ces standards. C’est une nébuleuse complexe de liens entre plus de quarante structures.

- Un de piliers d’Internet est son annuaire universel qui permet l’accès instantané à toutes les ressources contenues par les ordinateurs connectés. Ce code d’accès est une adresse numérique, attribuée à chaque ordinateur et appelée « adresse IP », mais l’astuce a consisté à lui donner un contenu signifiant (le « nom de domaine ») facile à mémoriser et accessible par les moteurs de recherche. Les principes du système des noms de domaine ont été élaborés en 1983. Mais pour éviter la redondance, et les usurpations d’identité, ces noms doivent être déposés auprès d’une instance chargée d’assurer la « résolution universelle » garantissant la validité et la cohérence des adresses et noms de domaine. Le choix de la communauté Internet a été de faire gérer ces noms, qualifiés de noms de domaine, par une société privée américaine sous tutelle du Département du Commerce, l’ICANN. « Internet Corporation for Assigned Names and Numbers.» créée en 1998. Cette structure originale regroupe des entreprises, des personnes physiques, des ONG, et fédère les institutions chargées d’attribuer les noms de domaine dans les pays. En France c’est l’AFNIC, (Association française pour le Nommage Internet en Coopération) créée par INRIA en 1997 qui est en charge de cette mission pour le domaine .fr. Mais le conseil d’administration de l’ICANN prend, au tournant de processus complexes, des décisions structurantes pour la communauté mondiale. En particulier, le choix des intitulés de noms de domaine donne lieu à des batailles épiques. Coexistent en effet deux types de noms de domaine : les pays comme .fr, .de, et des structures ou pôles d’intérêt (codes génériques) comme .gouv pour les administrations, . org, . edu, etc.. La dénomination des domaines représente des enjeux économiques, politiques et culturels qui conduisent les nouveaux pays également désormais acteurs majeurs de l’internet, l’Europe ou la Chine à contester cette suprématie américaine.