Previous month:
novembre 2015
Next month:
janvier 2016

Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor


A la recherche d’un nouvel équilibre

 

Le monde numérique n’est pas une abstraction théorique : c’est le monde physique d’avant auquel a été ajouté une couche nouvelle, pratique, esthétique, conviviale, permettant de faire rapidement et de façon simple des tâches souvent très basiques. Même si se prendre en photos sur Instagram ou s’envoyer des messages sur WhatsApp sont des activités qui absorbent beaucoup de temps, cela ne suffit pas à construire le monde de demain, qui sera aussi matériel. Les acteurs du numérique ne s’y trompent pas. C’est bien dans le monde physique que l’économie continue de se développer. Concevoir, produire, distribuer, consommer, se déplacer sont autant de tâches que le numérique contribue à faire évoluer mais qui demeurent, pour l’essentiel, physiques. Ce n’est pas un hasard si le président Obama a clairement annoncé à l’ouverture de la COP 21 que l’avenir de l’énergie résidait dans les géants du web, et que Bill Gates lance une fondation pour financer les travaux dans ce domaine. Cette initiative « Mission Innovation / Clean Tech » vise à financer les travaux destinées à trouver des solutions bas carbone dans l’énergie. La révolution numérique ne se joue pas seulement dans le monde étroit des « producteurs  de plateformes », elle se joue quotidiennement dans tous les secteurs d’activité en instillant dans les pratiques anciennes les idées neuves permettant de faire mieux pour les personnes et pour la planète. Or le web, décentralisé, fondé sur le fait que chacun est à la fois émetteur et récepteur des réseaux interactifs s'installe dans le paysage institutionnel comme étant le modèle de ce qu'il faut faire dans toutes les activités. Reconnaitre que l'intelligence est dans le réseau et non plus seulement dans le centre est une remise en cause de la pensée fondatrice du système hiérarchique pyramidal. Par vagues, l'utopie fondatrice du web se développe dans des secteurs bien lointains de ceux qui l'ont vu naître, l'énergie par exemple. Si le coeur de la forteresse du web est bien tenu par les tycoons milliardaires de la Silicon Valley, tout le reste est à conquérir. Il reste toutefois à démontrer que les entreprises du XXe siècle sauront s'adapter suffisamment vite avant que les leaders du web ne s'emparent de leurs domaines. Or ils ont prêts à le faire. La course est engagée.

 

6965447

Centrale solaire dans le désert de Mojaves aux Etats-Unis

Disrupter les disrupteurs

Le monde du web n’est pas figé. Les positions, même dominantes, ne sont pas définitivement acquises et les changements de pratiques des utilisateurs sont rapides. Aussi les contre-attaques sont possibles en trouvant de meilleures idées de produits et de services, de chaînes de valeur, d’alliances ou d’interfaces techniques. C’est souvent dans le détail que se fera la différence. La contre-offensive des secteurs conventionnels est engagée. Il est intéressant de voir comment G7 a réagi contre Uber en améliorant son service de façon rapide sur les mêmes plans que son compétiteur : paiement par carte, voiture impeccable, chauffeur attentionné. Mais G7 est allé plus loin avec le service de desserte des aéroports Wecab qui permet, avec un prix fixe, de partager le véhicule avec une autre personne pour réduire le coût par passager, mais aussi l’encombrement et les émissions. Le groupe Accor a engagé une riposte autant contre Booking que contre Airb’nb. La SNCF ne cesse d’améliorer son service numérique en dématérialisant totalement titres de transport et cartes d’abonnements. Les banques installées sont les premières à développer les services numériques en ligne. Il ne faut pas se réjouir des coups portés contre les entreprises du CAC 40, car c'est un système global qui assure notre prospérité qui est menacé. Il faut au contraire pousser les entreprises du XXe siècle à se transformer, parfois radicalement comme le fait avec talent la Poste depuis dix ans.

Ainsi, le journal montréalais de langue française, La Presse, fondé en 1884, vénérable institution de plus de 130 ans, a inventé un nouveau support numérique qui allie un format mobile original, la qualité rédactionnelle et la richesse de l’iconographie. Séduisant les annonceurs avec ce nouveau support, la Presse +, le journal numérique est rentable ce qui va permettre dès janvier 2016 de supprimer le coûteux format papier en semaine. Comme le déclare Jean-Marc de Jonghe, vice-président numérique de la Presse, l’objectif est de fournir « quelque chose de pertinent dans la vie des gens. » La technique doit s’effacer au service du sens.

Si l’économie européenne a perdu la bataille des plate-formes, elle n’a pas perdu celle du sens et c’est là où se situe véritablement la compétition de demain. Les techniques sont fragiles, volatiles, les fortunes obtenues par les tycoons ne sont pas pérennes, d’autres viendront changer cet ordre. Mais ce qui est pertinent c’est l’usage de la technique dans la vie des gens. Et sur ce point il n’y a pas de barrière ! Les brillantes jeunes pousses françaises comme Withings et Netatmmo, Criteo et Sigfox, Blablacar et Drivy doivent continuer leur essor et trouver les relais de financement leur permettant d'atteindre la taille mondiale sans céder aux milliards de dollars que la Valley peut avancer sans problème pour les ingérer.

Libérer les initiatives

La révolution numérique n’est pas venu du sommet de la pyramide. Elle s’est développée de façon anarchique, en rupture et à partir de la base. L’histoire de l’internet et du web est une histoire continue de prise de risque par des jeunes gens irrévérencieux dont beaucoup sont aujourd’hui devenus milliardaires, mais beaucoup également ont échoué. Ce n’est pas une longue marche tranquille. L’échec est même devenu culte dans la Silicon Valley ! Et  on innove d’autant plus que l’on a rien à perdre, sans  base installée, sans usine, sans distributeur, sans procédures figées. Il faut donc encourager systématiquement la prise de risque technique et économique en oubliant le vieux principe de précaution qui impose un business plan sur trois ans. Comme la mise initiale est très souvent faible, le risque est également faible, mais il faut multiplier les pistes. Le financement collaboratif est bien adapté à l’amorçage, mais le déploiement et l’industrialisation exigent des fonds plus importants, et plus solides.  

Plus que l’argent, c’est l’esprit d’innovation qui doit guider. Essayer sans cesse, échouer, corriger, repartir, c’est la méthode de travail qui doit s’appliquer à toutes les idées, et pas seulement au monde des start-up. Le respect de la prise de risque doit être encouragé dans toutes les entreprises, et surtout à l’école et dans le secteur public. Notre vieux principe républicain d’égalité devant le service public a conduit de fait à multiplier les inégalités par l’ignorance des différences de fond. A situation inégale, traitement égal ! Seule l’expérimentation décentralisée permet de valider des hypothèses de départ et de corriger l’action, au fil du temps, par touches continues et non pas par grandes réformes centralisées au déploiement improbable. Pratiquer à grande échelle « le crédit d’intention » fondé sur la confiance, gagé sur la formation, nourri par la transparence, coûte beaucoup moins cher à la communauté que la méfiance et le contrôle a priori.

Reconnaître les innovateurs

L’innovateur est forcément déviant : c’est celui qui ose autre chose qu’appliquer la « doxa », c’est celui qui se moque, de fait, des situations installées et du pouvoir en place. « On a toujours fait comme ça » est une pensée couramment admise dans tous les cadres professionnels. Mais quand tout bouge, cette posture confortable devient une imposture maléfique. « On a jamais fait comme ça et on va essayer » doit devenir le mode normal de fonctionnement des structures.

Il est clair que cette logique se heurte non pas à la résistance individuelle des personnes, mais à celle des organisations figées dans leur fonctionnement conventionnel. Mais une organisation n’existe pas en tant que telle, elle existe à travers un ordre structuré de relations de pouvoir. Changer cet ordre, c’est donc forcément prendre le risque sinon de changer les personnes au pouvoir, au moins l’exercice du pouvoir, et c’est là où se situe l’allergie au changement. C’est la raison pour laquelle les grandes entreprises qui ont réussi ont beaucoup de peine à innover en profondeur, comme le décrivait dès 1997 Clayton Christensen dans son ouvrage « The Innovator’s Dilemma ». Les entreprises bien gérées et qui réussissent ont beaucoup de difficultés à changer ce qui a fait leur succès et qui peut provoquer leur perte.

L’innovateur « paradoxal » reconnaît les faiblesses et les risques et n’hésite pas à bousculer les tabous de la pensée unique que les entreprises pratiquent aisément. Ce n’est certainement pas à lui qu’il faut couper la tête !