Previous month:
mai 2008
Next month:
août 2008

L'ICANN à Paris, quelles attentes ?

L'ICANN, cette structure qui est au centre du fonctionnement d'internet se réunit cette semaine à Paris, mettant un éclairage particulier sur un des aspects les plus complexes d'internet, la gestion des noms de domaine.

 

Un de piliers d’Internet est  en effet son annuaire universel qui permet l’accès instantané à toutes les ressources  contenues par les ordinateurs connectés. Ce code d’accès est une adresse numérique, attribuée à chaque ordinateur et appelée « adresse IP », mais l’astuce a consisté à lui donner un contenu signifiant (le « nom de domaine ») facile à mémoriser et accessible par les moteurs de recherche. Les principes du système des noms de domaine ont été élaborés en 1983. Mais pour éviter la redondance, et les usurpations d’identité, ces noms doivent être déposés auprès d’une instance chargée d’assurer la « résolution universelle » garantissant la validité et la cohérence des adresses et noms de domaine. Ce système de gouvernance original a contribué jusqu'alors au succès mondial d'internet. Mais au moment où internet devient un système critique pour les entreprises comme pour les états, il suscite d'autant plus de questions que le stock accessible de 4,1 milliard d'adresses sous le protocole IP V.4 va être épuisé en 2011 et il est urgent de migrer vers un nouveau protocole, IP V.6 qui permet de gérer des milliards de milliards d'adresses.

 

Une gestion privée sous contrôle

Le choix de la communauté Internet a été de faire gérer ces noms, qualifiés de noms de domaine, par une société privée américaine, sans but lucratif, de droit californien, , l’ICANN « Internet Corporation for Assigned Names and Numbers.» créée le 6 novembre 1998. L’ICANN s’est vu reconnaître cette autorité par un mémorandum du Département du Commerce des Etats-Unis le 25 novembre 1998. C’est bien entendu une solution originale à mi-chemin entre l’initiative privée et l’influence fédérale. Cette structure atypique regroupe des entreprises, des personnes physiques, des représentants des états, des organisations non gouvernementales, et fédère les institutions chargées d’attribuer les noms de domaine dans les pays. C’est une structure assez complexe dont la forme souple et évolutive peut dérouter. Il essentiel de comprendre comment fonctionne l’ICANN dans le droit fil de la culture historique de l’Internet pour mesurer à quel degré ce modèle échappe aux références habituelles en matière de standardisation.

L’ICANN a la responsabilité de gérer les extensions de noms de domaines existants et le système des serveurs DNS racine (« root server ») sur Internet qui eux contiennent les noms de domaine de premier niveau (Top Level Domain -TLD- et ccTLD -country code Top level domain-) au nombre de trois cents. L’ICANN attribue par contrats la gestion des serveurs racine DNS à des sociétés privées, des universités ou des organisations gouvernementales. Ces "Root Servers" DNS constituent l’infrastructure de l’ensemble des serveurs de noms de domaines chargés de répondre aux problèmes d’adressage par grand domaine. Ils sont actuellement au nombre de treize, répartis dans le monde, même si les Etats-Unis continuent à jouer un rôle prépondérant. Il existe des centaines de milliers de serveurs de noms de domaine dans le monde, dont ceux des fournisseurs d’accès, comme Orange, mais ils ont besoin des serveurs racines pour connaître l’adresse du serveur qui va permettre de servir la requête. On estime, mi-2008, à plus de 130 millions le nombre de domaines internet dans le monde. Ce système puissant est néanmoins théoriquement vulnérable. Si une attaque simultanée de ces treize serveurs était lancée avec succès, le système mondial de l’internet cesserait de fonctionner car les requêtes émises par les internaute ne pourrait pas être satisfaites faute d’acheminement vers l’adresse désirée.

Le conseil d’administration de l’ICANN  prend, au tournant de processus complexes, des décisions structurantes pour la communauté mondiale. En particulier, le choix des intitulés de noms de domaine donne lieu à des batailles épiques. Existent en effet deux type de noms de domaine : les noms de domaines géographiques (ccTLD) à deux lettres comme .fr, .de, .eu, et les noms de domaine par pôles d’intérêt ou type de structures, qualifiés de génériques (gTLD comme « generic top level domaine »)   comme .gouv pour les administrations, . org, . edu, .net, etc..

Sont également apparus plus récemment des noms de domaines commandités (sTLD) qui répondent ou à de nouveaux impératifs techniques (.mobi pour l’internet mobile, ou .tel pour la téléphonie sur IP) ou professionnels (.aero, .museum, .jobs, .travel). Apparemment, ces suffixes ne connaissant pas le succès escompté...

 

La politisation des noms de domaine

La dénomination des domaines représente des enjeux économiques, politiques et culturels qui conduisent les nouveaux pays également désormais acteurs majeurs de l’internet, l’Europe ou la Chine à contester cette suprématie américaine. Les noms de domaine comme .eu apparu en, .cat pour la langue et la culture catalane, ou .asia pour les adresses originaires de l’Asie traduisent la montée en puissance de revendications politiques nationales, voire nationalistes, à travers la dénomination des sites web.  Certains pays souhaitent notamment pouvoir libeller l’adresse des leurs sites dans leur langue naturelle et non pas en anglais, utilisant des caractères non latins ou latins accentués. A cette revendication naturelle l’ICANN a répondu par le lancement de l'IDN (International Domain Name). Il s’agit  d’adopter les caractères latins accentués de même que les caractères cyrilliques, arabes, chinois, japonais…

Par ailleurs l’attribution des noms de domaines a engendré une activité économique lucrative. La droit à un nom de domaine coûte une dizaine d’euros par an. Il est possible d’acheter son nom de domaine auprès d’un "domainer" chargé de commercialiser les noms de domaine. Ces "domainers" sont la plupart du temps "registrar" et quelques fois aussi membres de l'ICANN. Ce mélange des genres entre un organisme, qui logiquement doit réguler les noms de domaines, et les membres de cette organisation qui justement vivent de façon lucrative de cette activité, est de moins en moins discret et soulève des questions et d'efficacité et de déontologie.

 

En France c’est l’AFNIC, (Association française pour le Nommage Internet en Coopération) créée par l'INRIA en 1997 qui est en charge de cette mission pour le domaine .fr. L’attribution des noms en .fr a été longtemps plus restrictive pour éviter les pratiques de dépôt systématique de noms connus par des individus habiles et peu scrupuleux, ceux-ci les revendant ensuite aux légitimes propriétaires de la marque. Cette pratique de « cybersquatting » a été ainsi découragée en France, mais beaucoup d’entreprises ont délaissé le .fr pour le .com sensé être plus attractif.

De fait, la France a beaucoup moins de sites portant le .fr que ses principaux pays européens. Le nombre d’un million de sites en .fr a été atteint fin 2007, et s’élève à 1116000 fin juin 2008, alors que l’on recensait 11 millions de sites allemands en .de, et plus de 6 millions de sites  en .uk. Lancé tardivement en décembre 2005, le .eu européen enregistre déjà plus de 2,5 millions de sites.


La puissance du co-design


Pendant des siècles, l'organisation de la société, et donc des entreprises, a été inspirée par une organisation  hiérarchique rendue indispensable par le manque de compétences et de discipline. Dans un modèle de talents organisés de façon hiérarchique et pyramidale, la régulation est la préoccupation majeure de l’entreprise qui est construite sur un modèle centripète, rassemblant les informations produites à la périphérie pour les concentrer au centre où se situe le cœur comptable et financier du système.

Internet rend possible un autre modèle organisationnel : l’entreprise en réseaux. Ce qui fait la force de l’entreprise en réseaux est de fédérer des talents internes et externes autour d’un ou plusieurs projets communs. Et parmi ces talents se situent ceux des clients, des consommateurs, qui ont une vision aigüe de leurs désirs, de leurs attentes et de leurs pratiques. Les fournisseurs jouent également un rôle clef dans ce modèle fédérateur. Ils sont responsables non pas d’une sous-traitance, c'est-à-dire de l’exécution passive de décisions prises par le « donneur d’ordre », mais d’une co-traitance où ils partagent la responsabilité de la conception.

Les conséquences de l'emrgence des clients et des fournisseurs dans le modèle de conception et d'innovation des entreprises  sont considérables. On passe du design imposé par les équipes internes de recherche et développement et orienté par le marketing a un système coopératif de co-design où chacun contribue de façon holistique à la création du produit final.

Deux exemples illustrent cette évolution.

Pour la conception de la nouvelle Fiat 500, Fiat a lancé un programme de communication sous le nom « la 500  a besoin de vous » . Une plateforme interactive multimedia a été conçue pour associer le public au design du véhicule. Cette campagne a été voulue par Fiat comme un vaste laboratoire en ligne, où les utilisateurs pouvaient découvrir le concept stylistique du nouveau véhicule, exprimer leurs préférences, proposer des idées et contribuer ainsi à la création du projet. Fiat déclare que plus de 130000 idées de configurations, d’accessoires ou de customisation ont été collectées à travers ce laboratoire.  a été conçue en demandant leur avis aux internautes. Les idées retenues étaient même primées d’un montant de 3000 €.

Dans le monde des coopérations industrielles classiques, le nouvel avion d’affaires de Dassault, le Falcon 7X est le premier exemple à grande échelle d’une conception totalement partagée entre Dassault, l’architecte du système, et chacun des grands partenaires qui on financé, développé et réalisé les sous-ensembles. Ce travail collaboratif multi-disciplinaire a été inventé par Dassault Aviation et Dassault Systèmes pour le programme 7X. Sous conception générale de Dassault Aviation, chaque partenaire s'est vu confier la conception détaillée d'une partie de l'avion. Quelque quatre cents ingénieurs issus du bureau d'études de la Société et des vingt-sept sociétés partenaires se sont retrouvés, chez Dassault Aviation, à Saint-Cloud, pour réaliser la conception préliminaire de travail en " plateau physique ". Les partenaires sont ensuite rentrés dans leurs entreprises à travers le monde afin de réaliser, en réseau, la définition détaillée de l'appareil. Le travail en " plateau virtuel " a alors débuté.

L’originalité du système est que les partenaires ont ensuite continué à travailler ensemble comme s’ils étaient en " plateau physique " en alimentant une base de données unique consolidée et mise à jour quotidiennement par Dassault Aviation dans son siège de Saint-Cloud. Chacun avait connaissance à tout moment de ce qui était fait par les autres dans le domaine le concernant. Dassault Aviation, l'architecte industriel, disposait quant à lui d'une vision globale et continue de l'avancement de l'avion. Ce type de modèle coopératif est un moyen de créer une véritable communautés d’intérêt qui transcende les relations classiques maître d’ouvrage / sous-traitants en tirant la quintessence de l’expertise de chacun des partenaires.

Un système coopératif partage avec l’entreprise monolithe les mêmes exigences de performance et de rentabilité. Chaque acteur doit être équitablement rémunéré pour sa contribution. Réduire les coûts d’interaction internes et externes, les délais et les stocks demeure une figure imposée de la performance. Les technologies de l’information sont le vecteur de cette cohérence dynamique.

Plusieurs grandes compagnies ont engagé des programmes de coopération avec leurs clients, comme Muji, au Japon, Boeing, BMW. ..

Dans une société ouverte et pro-active, les mécanismes classiques de l’économie n’ont pas disparu. Il ya simplement accélération des cycles désormais pilotés par les clients. Améliorer l’efficacité dans l’utilisation des capitaux  reste un critère incontournable de performance. Mais désormais il est impératif de renforcer l’intelligence collective, la flexibilité et l’agilité de l’organisation. Ainsi, la création de valeur se diffuse au sein de l’entreprise  étendue ans opposer de façon archaïque les intérêts de chaque acteur de la chaîne de valeur, en renforçant les intérêts croisés et exploitant de façon visible les contributions de chacun. Cette valorisation  des relations avec les fournisseurs (expérience, image), va également de pair avec la valorisation des relations avec les clients qui sont prêts à mettre leur expérience au service d’un projet dont ils sont in fine également bénéficiaires.

Ce nouveau modèle est encore embryonnaire. Mais avec bientôt deux milliards d'internautes, on peut être tout à fait confiant quant à l'impact sur la résolution des problèmes de notre petite planète de la mobilisation de tous ces talents dispersés.

 

 


Internet et l'idèe de République

Internet a contribué à faire sauter de nombreux verrous dans l’organisation traditionnelle et officielle de l’information, de la connaissance et de la culture. En permettant à des personnes ou à des groupes qui ne sont pas intégrés dans ces circuits officiels par leur formation, leur titre, leur position sociale, Internet rééquilibre les flux d’information. Mais l’émergence d’un outil, aussi performant soit-il, ne suffit pas à lancer les bases pérennes d’une nouvelle forme d’organisation des rapports entre l’état, la société et les citoyens.

 Néanmoins, l’ampleur de l’impact de l’internet sur la société, qui semble sans équivalent historique à une telle échelle, impose de revisiter les concepts classiques de l’organisation politique. Les définitions de la république sont multiples. Dans un petit ouvrage brillant et tonique « Dialogue autour de la République », Mauricio Viroli, professeur à Princeton, dans ses joutes conceptuelles avec Norberto Bobbio, affirme que la définition la plus importante de la république, est celle, classique, de Cicéron, qui écrit que « res publica « veut dire « ce qui appartient au peuple ». Le peuple n’est pas une multitude quelconque d’hommes réunis, mais plutôt une « société organisée qui a pour fondement l’observance de la justice et la communauté d’intérêts. » Le point clef du débat est bien la source de la légitimité de la démocratie : réside-t-elle dans un état fort, détenteur du monopole de la force « légitime », ou bien dans la vertu des citoyens.

Citant Machiavel, pour qui les citoyens doivent savoir et vouloir « garder la main sur la liberté », Mauricio Viroli affirme que « s’il n’y a pas de citoyens disposés à être vigilants, à s’engager, capables de résister contre les arrogants, à servir le bien public, la république meurt, devient un lieu où certains dominent et les autres servent ». Internet, dès lors qu’il n’est pas soumis à la censure des états, est bien cet espace d’engagement où chacun peut exercer sans limite technique ou financière son droit « à garder la main sur la liberté ».

Cette société informée, où les citoyens ont la capacité d’affirmer leurs points de vue et leurs jugements à travers les blogs, les forums, la traque vigilante des écarts des dirigeants – immédiatement reproduits sur YouTube ou DailyMotion - permet de raffermir l’idéal démocratique et l’exercice de la vertu citoyenne, là où les professionnels que sont les journalistes et les hommes politiques eux-mêmes manifestent une certaine lassitude.

Mais cette forme d’expression n’est pas sans limite. Quand les utopistes de l’internet affirment qu’internet échappe aux lois, qui par nature, délimitant un espace d’exercice de la liberté, en restreignent l’exercice, ils ouvrent, sans en être nécessairement conscients, la voie à tous les usages de l’internet qui visent à corroder les bases de la république. C’est le libéralisme le plus extrême qui peut créer le terreau favorable aux extrémismes les plus débridés, du terrorisme à la pédophilie, de l’apologie des crimes de guerre et du racisme aux narco-trafiquants. Ces pratiques se traduisent par des pressions plus ou moins directes et violentes pour soumettre les individus à des groupes ou des idéologies qui conditionnent l’exercice de l’autonomie individuelle.

Or la pensée républicaine exclut toute forme de dépendance autre que cella à la loi librement consentie. Reprenant Cicéron, Viroli conclut que « la loi est entendue comme une volonté non arbitraire qui s’applique à tous, et la loi rend libre en tant qu’elle protège de la volonté arbitraire des autres individus ». La République de l’internet ne peut être un espace de non-droit, mais un espace où la liberté individuelle s’exprime pleinement dans le cadre des lois qui en organise et protège l’exercice. Aussi penser qu’internet ouvre la voie à une révolution de même nature que celle des Lumières, mais encore plus ample et plus rapide compte tenu des moyens techniques considérables dont nous disposons grâce l’informatique et aux télécommunications, ne dispense pas de s’appuyer sur les principes fondamentaux de l’organisation de la société démocratique.

Par exemple, relire de la constitution de la république française est un exercice utile qui ramène au socle même de la république pour constater qu’Internet ne le déforme nullement mais offre au contraire les moyens de le mettre en œuvre. L’article 1er de la constitution du 4 octobre 1958 stipule : "Art.1. - La France est une République indivisible, laïque, démocratique et sociale. Elle assure l'égalité devant la loi de tous les citoyens sans distinction d'origine, de race ou de religion. Elle respecte toutes les croyances. Son organisation est décentralisée. » En peu de mots, le cadre est tracé sans ambiguité. Les buts des Nations unies, énoncés dans la Charte, ne sont pas très éloignés, mais si la forme est moins aiguisée: - maintenir la paix et la sécurité internationales, - développer entre les nations des relations amicales fondées sur le respect du principe de l'égalité des droits des peuples et de leur droit à disposer d'eux-mêmes, - réaliser la coopération internationale en résolvant pacifiquement les problèmes internationaux d'ordres économique, social, culturel et humanitaire, - développer le respect des droits de l'homme et des libertés fondamentales, - constituer un centre où s'harmonisent les efforts des nations vers ces fins communes.

L’histoire démontre que quand l’homme décide de confier une de ses fonctions à une structure spécialisée, il libère de l’énergie pour s’attaquer à la résolution de problèmes plus complexes et plus fondamentaux. Ce qui est d’abord vécu comme une perte se révèle en fait une libération. La multiplicité des sources d’information et l’absence de contrôle sur le Net peuvent susciter du scepticisme quant à l’impact de cette profusion désordonnée d’idées et d’échanges. Mais on ne peut nier que si l’information a façonné notre histoire, c’ets le première fois que près d’un terrien sur cinq est capable d’accéder simultanément aux mêmes sources que chacun de ses semblables. Il est également évident qu’après avoir appris à contrôler la presse, les pouvoirs totalitaires se méfient d’internet et chaque fois qu’ils se sentent menacés en contrôlent l’accès et le contenu, même si la tâche est considérable. Il est clair que l’accélération à laquelle nous sommes confrontés n’en est qu’à ses débuts, et que les outils techniques à notre disposition ne peuvent que nous entrainer dans des nouveaux chemins encore inimaginables tant la combinatoires des sciences et des innovations, elles-mêmes en croissance exponentielle, ouvre des espaces infinis. Les principes républicains qui nous ont imprégnés et permis d’orienter la marche vers le progrès dans grand nombre de pays sont une source d’inspiration parfaitement actuelle pour construire le cadre exigeant de cette évolution.


Le futur de l’informatique : agir maintenant !

 

 

A l’heure d’Opio 2008, où la profession va se pencher sur « Les nouvelles frontières de la DSI », je tenais à apporter ma pierre à la réflexion pour conjurer la tentation du corporatisme et du repli sur le passé. Ce texte, sans être conjoncturel car il reflète fidèlement d'anciennes préoccupations, est une forme de contribution au débat…

 

Le monde de l’informatique ne cesse de se réinventer depuis ses origines. Depuis les déclarations de Thomas Watson, président d’IBM,  dans les années cinquante sur le fait que la planète n’aurait besoin que de moins d’une dizaine d’ordinateurs, informaticiens et analystes se sont toujours révélés incapables de prévoir l’évolution de cette industrie dont la marche en avant ne s’est jamais arrêtée sans toutefois suivre les cheminements imaginés. Prévoir le futur de l’informatique est donc un exercice particulièrement audacieux, d’autant plus que ce que l’on peut imaginer aujourd’hui est assez troublant pour une industrie qui s’est développée et enrichie dans le cloisonnement et la complexité. L'analyse des tendances de toutes les industries démontre que la croissance durable n'est acquise qu'au prix de la standardisation et de la concentration.

 

L’industrie informatique est inexorablement poussée par la technique. Dans toutes ses composantes, les progrès sont exponentiels : loi de Moore, loi de Gilder… Les microprocesseurs, qui sont les moteurs de l’informatique, ne cessent d’augmenter en puissance et de réduire en taille, alors que la fibre optique et les algorithmes de compression permettent sans cesse de faire passer plus d’informations sur les réseaux, qui sont les routes de la société de l’information. Rêve d’ingénieur des ponts et chaussées, l’informatique permet d’emporter sans cesse plus d’informations, plus loin, plus vite et moins cher.  

 

Mais cette envolée de puissance disponible en tous points – ATAWAD : anytime, anywhere, any device – remet en cause une des racines fondamentales du développement de l’informatique. Là où l’informatique et les informaticiens excellaient, c’est à dire l’optimisation des ressources techniques rares et dans un espace limité, on se retrouve dans une logique d’abondance. Là où il était légitime de contingenter l’utilisation des ressources, pour des raisons de prix de revient, de temps de réponse, d’ergonomie, on peut livrer sans difficulté des services illimités.

 

L’exemple de la messagerie électronique est éloquent. La plupart des entreprises ont pris l’habitude, pour des raisons historiques d’économie, de limiter la taille du stockage des messages généralement autour de 100 Mo. Quand on sait qu’une présentation PowerPoint un peu riche fait aisément 10 Mo, on se retrouve très rapidement limité et sa boîte aux lettres est saturée en quelques heures. Pire, la plupart des entreprises limitent la taille des messages à la réception : on ne peut tout simplement pas envoyer à un client ou un fournisseur un document contenant des images, des graphiques… qu’on est obligé de tronçonner et de compresser en y consacrant un temps inutile, d’autant plus que cet exercice à forte valeur ajoutée est effectué par des cadres coûteux à qui la rationalisation pertinente des métiers du support a retiré toute forme d’assistance individuelle. Il est en effet apparu plus logique de faire faire des tâches bureautiques à un cadre qui coûte, disons, 80 € de l’heure qu’à une assistante qui en coûte 20 €… La réponse naturelle pour contourner ces obstacles est d’utiliser… sa messagerie personnelle !

 

En effet, les Google, Yahoo ! Wanadoo et autres offrent en standard des capacités de stockage de messagerie pharaoniques aux yeux de tout exploitant informatique d’entreprise…Google  offre ainsi un stockage de 25 Go en mode professionnel et illimité en mode domestique. Par ailleurs, un disque raid de 1 Tera octet, ce qui était il y a quelques années la capacité de stockage d’une grande entreprise, coûte aujourd’hui 300 €…

 

Pourquoi cette survivance d’un monde malthusien ? Pourquoi cet abîme entre le confort que l’on a chez soi pour le plaisir et l’austérité qu’on nous inflige dans le monde du travail ? Vérité d’un côté, erreur de l’autre ??

 

La réponse ne tient pas dans l’altruisme militant des fournisseurs d’accès internet, mais dans quelques mots clefs : automatisation, mutualisation, virtualisation.

 

Alors que l’informatique d’entreprise demeure encore largement fragmentée, compartimentée, en sous-ensembles étanches, les fournisseurs du monde de l’internet ont construit des infrastructures globales qui permettent de réduire la complexité de la gestion des équipements, donc d’en abaisser le coût et d’en réduire la fragilité. L’infrastructure est devenue une utilité. Anonyme, invisible, performante, automatisée. C’est une excellente nouvelle, car l’industrie informatique suit la voie empruntée avant elle par toutes les industries performantes et va donc faire partager à ses clients ses gains de productivité pour offrir un service fiable, sans couture et peu onéreux. C’est une mauvaise nouvelle, en revanche, pour tous les artisans qui vivent encore d’une complexité, qui va se révéler rapidement inutile, et de la survivance d’une émergence technique chaotique tirée par l’improvisation. Nos prédécesseurs qui ont ouvert la voie ne sont certes pas à blâmer. Ils  n’avaient pas d’autres choix. Faire perdurer cette situation serait toutefois un bien mauvais calcul.

 

Il n’y a pas si longtemps, les responsables informatiques étaient fiers de faire visiter leur centre informatique… Belles salles machines, climatisées, sécurisées, vides… Il n’y a même plus aujourd’hui de dérouleurs de bande magnétique ni de ballets de clignotants pour animer le spectacle. Et surtout les salles machines « privées » disparaissent pour être remplacées par des « centrales informationnelles » puissantes et totalement industrialisées. Les constructeurs informatique eux-mêmes se sont totalement engagés dans cette voie, depuis plusieurs années. HP a réduit le nombre de ses data centers de 85 à 6, et le personnel qui y est employé est passé de 19000 à 8000. IBM a engagé le mouvement dès les années quatre vingt-dix pour comprimer le nombre de ses centres informatiques de 155 à 7. Google comme Microsoft s'équipent de fermes de serveurs ultra-puissantes. Cette optimisation rejoint une autre préoccupation majeure de l’industrie, la diminution de la consommation électrique  des centres informatiques, le « green computing », qui va orienter les choix vers les solutions les plus économiques en énergie.


Ce progrès technique dans les couches opérationnelles de l’informatique permet de déplacer totalement les préoccupations des gestionnaires de la machine vers l’usage, du matériel vers le logiciel. 


Les conséquences de ce mouvement sont nombreuses tant sur le marché des équipements, qui va se concentrer et être destiné à quelques très grands opérateurs à vocation régionale ou mondiale, que sur le marché des services. C’est d’ailleurs dans ce domaine que les changements risquent d’être les plus radicaux. Puisqu’il est possible de partager à moindre coût une infrastructure et de se dégager totalement de sa gestion pour n’acheter que du service, pourquoi ne pas pousser la logique aux applications elles-mêmes. Pourquoi les grands opérateurs capables de gérer des millions de boîtes aux lettres de façon fiable et quasi-gratuite ne pourraient pas le faire pour les entreprises ?  Sécurité, confidentialité, dit-on ? Pourquoi alors confier à un opérateur les secrets de sa vie privée et ne pas croire que les tarifs, barèmes, marges, plan produit et bonus pourraient être gérés en toute sécurité et confidentialité par des acteurs professionnels, soumis à des contraintes légales et à une éthique ? Alors n’hésitons pas à franchir un cran de plus : les fonctions répétitives de l’entreprise, comme la comptabilité, la paye, peuvent aisément être prises en charge par des usines spécialisées qui mettront en œuvre compétences partagées et économies d’échelle, mais aussi sauront être capables d’innovation.

 

Mais que restera-t-il alors à l’informatique d’entreprise, dépouillée de ses bases historiques ? L’essentiel, c’est à dire l’imagination appliquée aux métiers de l’entreprise, à ce qui fait sa véritable différenciation économique. Beaucoup d’emplois vont disparaître, comme cela se produit depuis le début de l’informatique. D’autres vont naître pour porter l’innovation au cœur des processus métiers et inventer de nouveaux produits et services tout en construisant la cohérence nécessaire au fonctionenment de l'entreprise.

 

Le marché des fournisseurs évoluera également pour accompagner cette mutation technique inéluctable. Les couches basses se rationalisant, sous la responsabilité de grands opérateurs issus aussi bien du monde des télécommunications que de l’informatique classique, la création de valeur se déportera vers les couches hautes, logiciels spécialisés, applications pointues, informatique embarquée, échanges entre machines, accompagnement des multiples transformations en cours et à venir. Par ailleurs l’internet des objets est à créer… L’innovation rendue possible par une grande puissance disponible et l’effondrement des coûts fera naître de nouveaux secteurs où les talents pourront s’épanouir librement grâce notamment au travail coopératif sur le réseau étendu qui permettra de décloisonner les disciplines et les entreprises.

 

Cessons d’aborder cette mutation avec inquiétude et de regarder avec nostalgie le passé…

Personne ne regrette le fardier de Cugnot à l’heure de la pile à combustible !

L’avenir ne se prévoit pas, il se prépare. Les signaux sont désormais suffisamment clairs pour considérer que, cette fois,  « network is computer » et organiser, dans l’ordre, la transformation de nos métiers qui prendra du temps ce qui nous donne donc la possibilité de gérer les adaptations et transitions inéluctables.