CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..


Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau http://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie http://www.iconomie.org


Vous avez dit "digital" ? Qu'entendez-vous par là ?

Après beaucoup de désintérêt et d’ignorance, le numérique, et surtout sa version hype anglo-saxonne, le « digital », est désormais sur toutes les lèvres. Il faut « en » faire, et vite ! Mais dans cette agitation, beaucoup de gens ont oublié de s’interroger sur la nature et la réalité de cette nouvelle idole. A force de considérer comme acquise une compréhension homogène des concepts, plus personne, par peur de paraitre ringard, ne fait l’effort de définir précisément ce dont on parle. Il en ressort une cacophonie généralisée qui permet de multiplier les procès en sorcellerie de ceux qui osent poser la question simple et sans réponse évidente « de quoi parle-t-on au juste quand on parle de « digital » ?

L’aveu en mai 2016 par Nicolas Sarkozy de son ignorance de ce qu’est « le bon coin », 8e site français quand même fréquenté par plus de 22 millions d’utilisateurs chaque mois, dont 50% à partir de mobiles, illustre la coupure entre la déclamation de principe de la priorité du numérique et sa compréhension réelle par beaucoup de décideurs. Le même, alors candidat, n’hésitait pas en effet à déclarer en 2007 : « Il n’est pas un secteur de notre société qui ne soit pas touché par l’apparition d’internet et les bouleversements qui en résultent. C’est une révolution qui se déroule sous nos yeux, la révolution numérique ». Il est surprenant que Le bon coin ait échappé neuf ans plus tard à cette vigilance tant c’est un site populaire dans la vie des gens qui a effectivement transformé le fonctionnement de l’économie de proximité. De même l’absence d’ordinateur sur le bureau présidentiel de François Hollande a surpris. Jacques Attali avait malicieusement fait observer lors de l’Université numérique du MEDEF en 2015 que s’interroger sur l’usage du numérique en 2015 était surréaliste et ressemblait à un colloque du CNPF de 1950 sur l’utilisation du téléphone par les entreprises.

Faute de connaitre la « vraie » réponse sur la nature de cette révolution numérique, on cherche avant tout les coupables sans comprendre les causes. Sommes-nous « en retard » ? Pourquoi ? Où se situe la France dans sa maturité numérique ? Qui doit conduire la transition numérique en entreprise ? Ce débat alimente désormais avec régularité les colloques et articles sur la transformation numérique. Le DSI sera-t-il ou non supplanté par le CDO, Chief Digital Officer ? Le suspense est total.

Cette dramatisation du débat, transformé en conflit de structure et de personnes, ne sert pas la cause car elle occulte la véritable question : comment (continuer à) transformer l’organisation, comme la société, confrontée à un nouveau paradigme socio-technique que ce terme « numérique » tente de définir ? Comme c’est un sujet complexe, incertain, qui engage toutes les fonctions mais en premier lieu le cercle historique des décideurs, il est indispensable, pour réussir à s’engager résolument dans le chemin de la transformation, de commencer par le débroussailler. Il serait grand temps de s'y mettre sérieusement...

Qu’est ce que le "numérique" ?

Une convergence de définition sur ce point central doit étayer toute démarche. Faute de compréhension, le débat sur la stratégie, et donc sur les personnes et les structures les mieux aptes à la mener, est faussé. Les approches peuvent être multiples, académiques ou empiriques. Depuis plus de vingt ans, les ouvrages sur l’émergence de la société numérique tentent cette approche. Don Tapscott, qui avait déjà prévenu dès 1993 avec "Paradigm Shift",  écrivait en 1996 dans son ouvrage « Digital Economy » : «  The computer is expanding from a tool for information management to a tool for communications… In this digital economy, individuals and entreprises create wealth by applying knowledge, networked humain intelligence and effort to manufacturing , agriculture and services. In the digital frontier of this economy, the players, dynamics, rules , and requirements for survival and success are changing ». Dix ans plus tard, en 2006, Yochai Benkler écrit « The Wealth of Networks ». Le professeur de Yale y développe sa vision : « The removal of the physical contraints on effective information production has made human creativity and the economics of information itself the core structuring facts in the new networkeded information economy ».

Tout est dit. Nous étions prévenus depuis longtemps et, d'ailleurs, nous n'avons pas été inactifs en France. Les structures, comme le Conseil national du numérique, existent. De multiples rapports passionnants ont été écrits. mais cette qualité d'analyse n'a pas nécessairement conduit les entreprises à l'exception de quelques pionniers à se mettre sérieusement en route. Or il est impossible d'ignorer que nous sommes face à un tsunami et il faut se préparer et agir.

Si les nuances existent, le consensus est fort sur ce constat : il ne s’agit pas seulement de technique informatique, mais d’un système global où la technique, les produits, les processus et les compétences sont engagés dans une nouvelle combinaison des facteurs. En ce sens la nature de la révolution numérique ne diffère en rien de celles qui l’ont précédé : l’écriture, l’imprimerie, la vapeur, l’électricité… La numérisation de l’entreprise, comme de la société, est une transformation radicale qui exploite le potentiel de toutes les techniques de traitement de l’information - logiciels, réseaux, interfaces, serveurs - objets pour réinventer le mode de fonctionnement global, tant économique que politique. Mais s’il y a bien une différence à chercher avec les étapes antérieures, c’est la vitesse et l’ampleur de la diffusion des outils qui font, en deux décennies, de la révolution numérique une révolution spécifique. C'est aussi le fait que la révolution industrielle a permis l'humanité de se doter d'un prothèse musculaire, alors que la révolution numérique nous permet de privilégier le cerveau-d'oeuvre à la main-d'oeuvre en nous offrant une prothèse cérébrale efficiente. 

Ces techniques ne sont pas récentes comme on en a l’illusion. Elles ont graduellement été mises au point depuis les années cinquante, internet et le web étant la dernière vague de cette construction. Chaque étape technique - avec un pas de dix ans environ: ordinateurs centraux , puis départementaux, ordinateur individuel, internet, web - a permis d’étendre le spectre des usages et de baisser les coûts de mise en œuvre.

Architecture-ordinateur2architecturedebase-8-638
Les techniques informatiques peuvent être imagées sous la forme d'un cône inversé qui repose sur la base historique que constitue aucun doute le modèle de von Neumann, qui date de 1945. Sur ce modèle, et grâce à la loi de Moore,  la production d'outils informatiques (réseaux, processeurs, programmes)  s’élargit rapidement pour couvrir un  champ de plus en plus vaste Ces outils engendrant eux-mêmes de nouveaux usages, le cône informatique englobe désormais un volume de plus en plus important que l’on nomme par convention « numérique ». Si la construction de la pointe du cône a pris beaucoup de temps, coûté cher et laissé souvent d’amers souvenirs de projets avortés, de performances médiocres, l’accélération technique, et les choix structurants de l’architecture de l’internet, permettent aujourd’hui d’atteindre des performances de fiabilité et de coût qui autorisent une totale démocratisation des usages et de nouvelles ambitions. Le monde des données massives (Big data), l'internet des objets, l'exploitation de l'intelligence artificielle, les robots constituent le nouveau front de cette expansion.

En effet, la combinaison des outils disponibles, désormais abondants, économiques et interopérables, permet de réaliser de nouvelles constructions qui dépassent la capacité des outils antérieurs. Cette extension de la performance intrinsèque coût/valeur permet également d’appliquer ces outils à de nouvelles catégories et, par là, d’étendre le champ de la réflexion et de l’action. Si la population des terriens a maintenant accès, partout, à l’information numérique grâce aux réseaux hertziens et à la fibre optique, c’est grâce à 70 ans de recherches, d’innovations et d’investissements considérables. La démocratisation du « téléphone intelligent », le smartphone, qui n’est plus téléphone que pour 15% de ses usages, mais ordinateur le reste du temps, ouvre à chacun le potentiel d’accès aux ressources du web. La révolution informatique continue sa marche en avant. Elle s’appelle désormais numérique, alliant la complexité technique de ses couches invisibles à la facilité d’usage de ses outils pratiques.

Un monde nouveau émerge

En décloisonnant les disciplines, effaçant les frontières des entreprises, bouleversant les statuts, transformant les rôles la révolution numérique fait émerger progressivement un monde nouveau qui remet en cause les situations et les convictions. Mais la puissance de ce mouvement est telle que la déstructuration du monde ancien se fait très rapidement, sans laisser le temps aux structures antérieures de s’adapter. Cohabitent ainsi deux mondes, l’ancien qui refuse de mourir, le nouveau qui malgré ses percées remarquables peine encore à se généraliser ce qui alourdit les coûts, différant la transformation dans toute son amplitude est donc la récupération effective des bénéfices. Ce déploiement différencié entre les entreprises et les nations conduit à l’émergence d’hyperpuissances numériques, l’Amérique et ses « champions du web », qui raflent la mise de la transformation, laissant aux moins rapides le soin de gérer les externalités négatives. Cette définition démontre d’ailleurs que la numérisation de l’entreprise n’est pas un big bang, mais un processus de transformation permanente qui emprunte au flux d’innovations celles qui sont les plus pertinentes pour atteindre l’objectif générique de compétitivité.

Il n’y a donc pas un modèle unique de transformation numérique -ou digitale- mais une adaptation des processus, des structures et des comportements pour renforcer l’entreprise sur ses marchés, sa profitabilité et ses perspectives. C'est un projet qui dépasse de très loin les seules responsabilités du CIO, mais engage toute l'entreprise, même si obtenir des résultats ne peut être envisagé sans maîtrise de la technique. De nouvelles entreprises qui comprennent mieux que d’autres l’alliage entre la technique et les usages se déploient mondialement avec talent sans s'interroger trop longtemps sur les nuances  d'une stratégie digitale. C'est ce qu'il convient de faire, sans délai : agir, aller de l'avant, projet par projet, usage par usage, faire confiance aux innovateurs, aux jeunes.

D ‘autres souffrent pour s’adapter. Beaucoup n’y parviendront pas. C’est la logique de l’évolution économique qui n’est en rien choquante si les processus d’adaptation des hommes aux nouvelles compétences requises et aux nouveaux comportements se déploient dans la lucidité et l’équité.

C’est bien le (seul ?) sujet de la démocratie aujourd’hui : qui doit payer le coût de l’adaptation ? Qui va en récolter les bénéfices ? Comment assurer une transition douce ? Les questions de l'emploi, des revenus, de sécurité et de respect de la personne doivent être réévaluées dans la perspective de la révolution numérique. La réponse n’est pas dans les idéologies anciennes, ni dans les hommes providentiels, mais dans une réinvention de la prise de décision collective, en entreprise et dans la société.

C’est possible... en exploitant les mêmes outils.

La vision du Chief Digital Evangelist de Salesforce, Vala Afshar, sur les six axes de la transformation numérique 

 http://www.huffingtonpost.com/vala-afshar/6-stages-of-digital-trans_b_9822640.html

Quelques lectures "historiques" pour se rafraichir la mémoire :

"The Digital Economy", Don Tapscott, 1996, McGraw-Hill

"What will be." How the new world of information will change our lives, Michael Dertouzos, 1997, HarperEdge

"The Wealth of networks" How social production transforms markets and freedom, Yochai Benkler, Yale University Press, 2006

Pour les passionnés, "A history of modern computing" de Paul E. Ceruzzi, The MIT Press, 1998, est un régal !

NB : ce blog qui a été lancé en 2005 est en fait une chronique de la révolution numérique qui permet de mesurer l'évolution de la perception


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor


Trop de web ? Trop de numérique ? Quel avenir ?

 

Le débat sur l’impact du numérique sur l’économie s’accélère et se densifie dans notre pays. Deux lois sur le numérique sont en préparation, après la parution d’une multitude de rapports, documentés et stimulants, mais restés pour l’essentiel lettre morte. Cantonnée, Il y a peu de temps encore, aux secteurs de la presse, de la musique, du voyage, la prise de conscience de la transformation profonde engendrée par le web réveille aujourd’hui l’éternel débat sur la vitesse de la transformation induite par la technique. Comme à chaque étape de l’histoire humaine, la mise en tension des structures qu’implique l’émergence d’un nouveau système socio-technique bouscule l’ordre établi, déstabilise les pouvoirs, ravive les fractures sociales, remet en cause les hiérarchies et l’équilibre des territoires. Et inquiète tous ceux qui ne comprennent pas le mouvement et craignent, souvent à raison, d’en être les victimes ! La destruction créatrice de Schumpeter est en marche. Elle est violente et rapide d’autant plus qu’elle n’obéit pas à un plan prévisible et pré-établi comme nous les aimons dans notre pays marqué par la centralisme de notre culture politique et économique.

Néanmoins, la révolution numérique, en dépit de son caractère spectaculaire, n’est, comme les révolutions techniques qui l’ont précédé, qu’une œuvre humaine. Elle n’est pas magique mais résulte de l’action conjuguée de forces maîtrisables. Il est donc possible, et même absolument indispensable, de l’analyser avec lucidité. Il faut d’abord comprendre pourquoi cette révolution, venue d’ailleurs, nous heurte particulièrement en France, avant d’esquisser les pistes d’une prise en compte active de cette dynamique sur notre territoire.

  1. La révolution numérique est rapide et violente

Le tempo de cette transformation est imposé par les leaders nord-américains.

La santé insolente que manifeste les leaders du GAFA (Google, Apple, Facebook, Amazon) est une provocation pour l’économie européenne et l’aveu d’un cruel échec pour ce respectable terroir qui a dominé pendant plus de deux siècles l’économie mondiale par son talent et sa capacité d’innovation. En 2000, l’Europe s’était donné comme objectif pour 2010 de devenir leader dans la science et la technique ! En effet, il n’y a plus, après l’échec de Nokia, aucun point lourd dans les techniques numériques en Europe ! Parmi les entreprises du CAC 40, aucune n’appartient à ce courant des champions du web. Et on peut admettre que seuls Orange et Cap Gemini, Alcatel Lucent étant absorbé par Nokia, portent les couleurs de cette nouvelle vague d’informatisation, avec de pâles valeurs de capitalisation : 43 et 14 milliards €. Et cette domination n’est pas prête de se ralentir car les licornes, entreprises ayant dépassé une capitalisation boursière d’un milliard de dollars, se développent à toute vitesse aux Etats-Unis. Plus d’une centaine de ces entreprises sont ainsi apparues depuis 2014. Si toutes ne réussiront pas, il est clair que certaines viendront grossir le rang de leurs aînées ou seront absorbées.

Capture d’écran 2015-11-30 à 12.46.54

Les jeux sont faits : la Silicon Valley est devenue le centre du monde économique du XXIe siècle. La capitalisation boursière atteint, en novembre 2015, des niveaux jamais atteints : 651 milliard $ pour Apple, 500 milliards $ pour Google, plus de 300 milliards $ pour Facebook et Amazon. Seul, Apple vaut autant que les dix premières entreprises du CAC 40. Avec les profits de son année fiscale 2014-2015, soit 53,4 milliards $, Apple a battu le record du plus haut niveau de profits jamais atteint en une année dans l’histoire économique. Ceci représente 79% des bénéfices des entreprises du CAC 40 pour l’année 2014!

Dans le chaudron neuronal californien, où abondent les talents et les capitaux, s’invente, dans le style décontracté inimitable des tycoons californiens, l’économie de demain. Et rien n’est trop beau ni laissé au hasard : ni le nouveau siège d’Apple, ni la nouvelle ville de Facebook, ni l’appétit omnivore de Google pour le futur. L’ambition et la certitude d’avoir raison animent cette nouvelle génération d’entrepreneurs qui bousculent tous les establishments en imposant leurs codes. Leur vocation est de développer leur influence dans tous les secteurs, sans frein à leur appétit, sans précaution pour laisser vivre en dehors de leur écosystème les audacieux qui refusent d’y entrer. Le gagnant emporte toute la mise sans rien laisser aux concurrents. Cette logique d’universalité doit servir le bien de l’humanité car les tycoons ne sont pas avares de déclarations généreuses. Le « moon shot » est là et prend le pouvoir politique comme l’a démontré le rejet d’une proposition anti-Airbnb à San Francisco. Le moonshot, par similitude avec le programme Apollo, consiste à adopter des solutions radicales tant sur le plan technique qu'organisationnel, sans précaution majeure ni pour la prise de risque ni pour la rentabilité à court terme. Les pratiques fiscales des barons de la nouvelle économie sont opaques et ni dans les pays où ils opèrent ni même aux Etats-Unis, ces géants du web ne figurent pas parmi les entreprises citoyennes exemplaires. Mais est-ce vraiment différent des Carnegie et Rockfeller en leur temps, sinon que leur terrain d’action est mondial et qu’ils pénètrent beaucoup plus profondément les consciences que pouvaient le faire les rois de l’acier, du chemin de fer et du pétrole ? La logique d’un entrepreneur est d’exploiter, sans état d’âme, tout le terrain que lui laissent ses concurrents… et le législateur.

Les conséquences sociales sont considérables

La disruption – mot clef de ce et début de XXIe siècle – est un tsunami qui s’attaque à tous les secteurs économiques. Bien sûr la construction des fondations de l’internet a nécessites près de trois décennies pour créer, progressivement, ce réseau mondial universel. Mais l’accélération a été déclenchée par l‘irruption d’un nouvel objet. Le premier smartphone. L’iPhone, doté de fonctionnalités qui faisaient sourire en 2007 comme la géolocalisation, ou un appareil photo, a mis entre toutes les mains un puissant ordinateur, mobile et connecté au réseau internet. Passer de quarante années d’informatique « assise », coûteuse, lourde, complexe à une informatique « debout », ergonomique, mobile, accessible et géolocalisée, a créé une brèche spatio-temporelle dans laquelle se sont engouffrés développeurs et entrepreneurs pour inventer un monde poussé par la recherche de solutions utiles et simples à la plupart des problèmes de la vie quotidienne. Sans intermédiaires, grâce à l’idée géniale des magasins d’applications gratuites ou peu onéreuses, ils distillent l’élixir de la transformation numérique de la société directement vers les utilisateurs qui s’en emparent avec délectation, parce que c’est simple, utile et… pas cher ! Ce phénomène défie les lois de l'économie car la plupart des enteprises porteuses de ces nouveaux services ne gagnent pas d'argent en dépit d'une capitalisation boursière pharaonique. Néanmoins elles bousculent les secteurs établis, les forcent à s'adapter ou à disparaître. 

Citons quelques exemples. AirBnB, né en 2008, s’est développé ainsi de façon virale, sans autorisation, sans prévenir. Et sans que personne n’ait vraiment vu le phénomène se développer, sauf les pourvoyeurs d’espaces – promus « hôtes »- et leurs clients, ravis d’une telle aubaine, AirBnB capte des millions d’utilisateurs et, en pertes, génère un revenu de moins d'un milliard $ pour une capitalisation boursière de 24 milliards $. En 2020, l'entreprise devrait enfin être rentable ! Or tout peut changer dans ce secteur très ouvert...

Pour étendre son spectre d’activités, Google investit des milliards de dollars. Google, qui est désormais fractionné en plusieurs entités légales, sous une nouvelle holding, Alphabet, a nommé le pape de l’intelligence artificielle à la tête de son département de recherche, Ray Kurtweil, et fait de nombreuses acquisitions dans le domaine des robots, comme Boston Dynamics, spécialisé dans les robots militaires. la boulimie de Google est incommensurable mais son alimentation en cash est permise par une activité tout ce qu'il y a de plus classique, la publicité. 

Les structures politiques sont ébranlées

Pour la première fois dans l’histoire, l’innovation ne connait pas de frontière et se déplace instantanément, sans délai, entre les pays, supprimant l’avantage comparatif que donnait aux pays développés leur avance technique. Le développement des télécommunications bouleverse la séquence historique de développement. La totalité des habitants de la planète accède maintenant au téléphone mobile, et bientôt, grâce aux smartphones à bas prix qui se vendent par centaines de millions, bénéficiera de tous les services du web. Les gouvernements ne peuvent que constater que la révolution numérique se fait sans eux, sans leur autorisation et hors de leur contrôle.. Si le Parlement européen s’émeut, et vote en novembre 2014 une résolution pour démanteler Google, l'entreprise ne se plie pas pour autant aux exigences européennes.

Peu de dirigeants ont encore intégré le fait numérique dans leurs pratiques

Si les Français adorent les technologies numériques pour leur usage personnel, les pratiques en entreprise et dans la vie publique sont en retrait par rapport à cet engouement individuel, même si, au fil du temps, on observe des changements significatifs de comportement. Les images du bureau de François Hollande sans ordinateur et noyé sous les parapheurs ont choqué. Il n’est pas le seul à parler du numérique, pour les autres. Les dirigeants français ont dans l’ensemble raté la seconde vague de la révolution informatique, celle des années quatre vingt-dix avec les ERP. Ils trouvent aujourd’hui qu’avoir une stratégie « digitale » est beaucoup plus chic que de faire de l’informatique, activité reléguée au rang définitif et peu enviable de « centre de coûts ». Si utiliser un mot anglais permet d’avancer la prise de conscience, tant mieux. Mais il ne faudrait pas que ce soit un leurre de même nature que l’e-commerce au début des années 2000. Car si techniquement le numérique ne se dissocie pas de l’informatique, culturellement il n’en est rien. Là où l’informatique permettait d’accroître la productivité de l’existant, le numérique consiste à remettre en cause, ou simplement ignorer, cet existant pour inventer tout autre chose.

Bien peu de dirigeants acceptent l’idée que la révolution numérique est avant tout une révolution managériale qui s’appuie sur la compétence de la totalité des collaborateurs avec un minimum de technostructure et d’encadrement. La révolution numérique, c’est une large décentralisation avec des équipes petites, autonomes connectées en réseau. C’est la réactivité privilégiée par rapport au plan et au budget venus d’en haut. La reconnaissance ne se fait pas par la hiérarchie mais par les pairs. C’est une incitation permanente à l’initiative et au non-conformisme. On ne tue pas une idée, on l’améliore ! C’est une remise en cause radicale du système hiérarchique pyramidal, ses rituels et ses ordres.

La révolution numérique bouscule emplois et compétences

La désintermédiation, qui a désormais un nom, « ubérisation » est un processus simple et efficace. C’est pour cela qu’elle s’impose dans tous els secteurs. Elle consiste à supprimer tous les intermédiaires inutiles d’un processus pour délivrer un résultat, rapidement, efficacement et pour le moins cher possible. Le réengineering des processus, activité phare des années quatre vingt-dix se fait désormais de façon beaucoup plus radicale en mettant en place un outil informatique, une plateforme d'intermédiation, qui met en relation directe émetteur et récepteur La désintermédiation est aussi connexe à la dématérialisation. Comme le support physique n’est plus utile à l’accomplissement de la fonction, la production de l’information suffit. Et elle est immatérielle, peu coûteuse et se prête à tous les traitements qui assurent la traçabilité et le contrôle du dénouement physique et économique de la transaction.

Avec la suppression de fonction physique de production, de diffusion et de contrôle, ce sont des centaines de milliers d’emplois industriels et tertiaires qui sont d’ores et déjà supprimés ou encore seulement menacés. Les exemples sont multiples dans l'édition musicale, la presse, la photographie.. .Prenons l'exemple d’un produit récent qui fut innovant, le Compact Disc, diffusé à partir de 1982. Editer un CD à partir d’un fichier numérique, le presser, l’emballer, le transporter, le distribuer dans des points de vente représentait un grand nombre de tâches matérielles et l’utilisation de ressources physiques - papier, carton, plastique, stockage, véhicules, manutention - que la diffusion en un clic du même fichier sur un serveur supprime définitivement. Aujourd'hui les magasins de disques ont quasiment disparu, à l'instar du célèbre HMV à Londres, plus grand magasin de disque du monde, ouvert en 196 et fermé en 2014. Il en est ainsi dans les guichets, les points de vente, les caisses de supermarché, les bureaux… Il est bien naturel que les emplois directement associés à ces tâches physiques disparaissent également. Mais la logistique impose encore beaucoup de main-d’œuvre et Amazon propose un nouveau type de contrat de travail, Flex, pour ses livreurs occasionnels aux Etats-Unis. Il s’agit d’utiliser sa propre voiture, sans couverture sociale, pour livrer quand on le veut dans un périmètre restreint pour 18 à 25 $ de l’heure. Les initiatives de ce type se multiplient dans tous les métiers, sapant sans bruit les bases historiques du salariat.

Bruissante, tumultueuse, sans égards pour le passé, la révolution numérique apporte à tous et bouscule tout le monde. Elle n'est nullement morale ou vertueuse par elle-même, s'inscrivant dans une longue histoire de l'innovation, mais elle peut le devenir si elle sert l'intérêt général.

A suivre ...

  1. A la recherche d’un nouvel équilibre

Energie et information, une complémentarité vitale

Sans énergie, accessible et économique, rien n’aurait été possible pour l’homme. Toute l’histoire du développement est conditionnée par la capacité des terriens à domestiquer l’énergie. C’est le fruit d’un long et patient travail qui a commencé par la découverte du feu, il y a 400000 ans. La domestication du feu en permettant la cuisson des aliments, a changé fondamentalement la capacité physique des hommes et allongé leur espérance de vie  en limitant les maladies. Elle a aussi permis le développement de la vie sociale. A chaque étape, la maîtrise du vent et de l’eau, la conquête de la vapeur, l'exploitation    maîtrisée du charbon et du pétrole, puis avec le nucléaire, le système technique mis en place a conditionné le système social, et induit un mode d’exercice du pouvoir. Au moins autant que la lutte pour l’information et la connaissance, la maîtrise de l’énergie est le grand vecteur de structuration de la société. Nous en mesurant pleinement les conséquences avec l’avènement récent - les années cinquante - d’une géopolitique du pétrole qui a totalement transformé les rapports de force entre Etats depuis soixante-dix ans.

Mais en ce début du XXIe siècle, nous touchons à de nouvelles limites. Elles sont politiques, économiques, techniques, sanitaires. Nous avons pris conscience que les ressources énergétiques de la planète lorsqu’elles sont présentes sous forme de stocks ne sont pas renouvelables. Aller forer plus loin, plus profond, continuer par la fracturation hydraulique le travail inachevé des millions d’années pour libérer le gaz ou le pétrole des roches qui l’enferment, ne sont pas des actes anodins. Les conséquences sur l’environnement des océans, sur les nappes phréatiques qui nous alimentent en eau potable sont tangibles même si elles alimentent une controverse sans fin. Produire plus d’énergie fossile, c’est aussi  envoyer plus de carbone dans l’atmosphère… Mais l’engouement pour les énergies renouvelables ne règle pas par magie tous les problèmes. Car quelles que soient leurs vertus, les énergies renouvelables ne sont pas non plus sans impact sur l’environnement, tant pour les produire, comme les  panneaux photovoltaïques, que pour les faire fonctionner – énergie des fleuves ou des océans, éoliennes -. Elles ont aussi la faiblesse de dépendre de facteurs exogènes et instables, le soleil comme le vent,  et imposent leur rythme aux réseaux de distribution en l’absence, pour le moment, de moyens de stockage souples et économiques.

Nous avons le sentiment d’une profonde menace sur la sécurité de la planète quand Iran et Arabie Saoudite, surarmés et belliqueux, pour le moment par vassaux interposés, se font face et peuvent instantanément condamner le détroit d’Ormuz qui reste le cordon ombilical énergétique de la planète. Nous avons tous tremblé devant les conséquences de Tchernobyl ou Fukushima en nous appuyant sur la certitude que rien de ceci ne serait possible chez nous. Nous savons bien qu’il existe un lien fort, démontré,  entre les allergies, les affectations respiratoires, les cancers qui affectent les populations urbaines et les rejets atmosphériques de la combustion imparfaite des carburants fossiles.

Mais entre les peurs, la lucidité et le déclenchement de l’action pour changer, il y a un pas immense. Aujourd’hui, à quelques mois de la grande conférence sur le climat de décembre 2015, on peut reconnaître sans peine qu’il n’y a pas de consensus pour changer notre manière de vivre, ni encore moins pour y accéder pour les pays qui s’en sentent exclus, en remettant profondément en question notre relation ambigüe avec l’utilisation à bon marché des sources d’énergie. Cet arbitrage inconscient se déchire parfois  lors des drames et des crises pour bien vite revenir à la situation antérieure. Jusqu’à la prochaine crise.

Or si nous avons besoin d’énergie pour bien vivre, on peut aussi imaginer utiliser les possibilités de la science et de la technique pour vivre tout aussi bien, et certainement de façon moins angoissée, en repensant notre relation à l’énergie. L’équation est simple : consommer moins, tout produire différemment, dont l’énergie.

La lecture du rapport annuel de l’Agence internationale de l’énergie est un exercice de salubrité intellectuelle auquel devraient rituellement sacrifier dirigeants, hommes politiques et journalistes. Il n’y a rien de plus excitant que de comprendre les données collectées par des centaines d’experts. Tous nous disent sans ambigüité que d’ici 2040 l’approvisionnement énergétique de la planète sera composé en parts égales de pétrole, de charbon, de gaz et de sources à bas carbone incluant le nucléaire et les énergies renouvelables. Tous disent que d’ici 2040 nous n’avons aucune chance d’atteindre les objectifs d’émission nous permettant d’éviter une augmentation de la température de la planète supérieure au 2° C communément admis pour éviter des conséquences dramatiques non contrôlables

.Tesla home battery, which is currently produced for SolarCity's home energy storage system (House Photo: Shutterstock)

 

Si l’énergie est le vecteur principal de notre bien-être et de notre style de vie et de consommation, il est difficile d’extraire la composante énergétique de ce que nous produisons et consommons pour en faire un objet spécifique d’attention et donc d’action… Chaque produit, chaque service a en effet une composante énergétique importante. Quand on jette des produits alimentaires, on gaspille aussi l’énergie qui a été nécessaire pour les produire, les transporter, les distribuer, les stocker. Consommer moins d’énergie de façon consciente suppose en effet que l’énergie soit isolée et identifiée pour devenir un facteur spécifique de décision. Or il n’y a rien de plus complexe même si des efforts d’information sont faits, à l’achat de certains produits, grâce notamment aux étiquettes énergétiques. Néanmoins, il est difficile de pouvoir prendre des décisions rationnelles sur la consommation d’énergie car on ignore les conséquences de nos actes aussi bien sur le volume que sur le coût.

Si adopter un comportement vertueux dans la consommation est difficile, il est encore plus complexe de modéliser l’impact d’une décision d’investissement sur le moyen terme compte tenu des évolutions de la technologie, du prix et de la fiscalité. Les acheteurs de véhicules diesel  ou de véhicules GPL, les investisseurs en panneaux photovoltaïques, peuvent être déçus de leurs prévisions. Les industriels ont eu meilleure capacité que les consommateurs mais ne sont pas non plus à l’abri des variations des cours et de la fiscalité.

Que ce soit pour l’habitat ou pour l’automobile, les innovations énergétiques suscitent beaucoup d’interrogations et de scepticisme auprès des acheteurs, qui sont rarement guidés dans leur choix par un avis impartial et documenté des vendeurs eux-mêmes.

Nous sommes donc confrontés à des choix cruels. La prise de conscience de la nécessité d’une économie moins gourmande en énergie se heurte à la difficulté des consommateurs à comprendre cette composante énergétique et à prendre des décisions pertinentes.

Les Etats disposent de moyens puissants pour faire évoluer les comportements par la réglementation et la fiscalité, tant pour encourager les comportements réputés vertueux que pour sanctionner les choix critiquables peur leurs effets nocifs. Mais leur action n’est pas exempte de biais. Le manque d’études scientifiques  justifiant des positions tranchées, l’influence des lobbies, les choix idéologiques viennent nourrir des décisions nécessairement partiales. Si le subventionnement public peut créer l’incitation nécessaire pour convaincre les clients à opter pour une technique nouvelle, ce n’est pas toujours sans risque d’erreur ni d’effet secondaire non maitrisé. Par ailleurs cet usage des fonds publics pose le problème de l’utilité marginale des fonds limités ainsi affectés.

Les gouvernements, partout dans le monde, tendent à influencer les automobilistes dans leur choix de motorisation. Ils subventionnent largement les véhicules électriques ou hybrides pour faire naître un marché de masse, sensibiliser le public et baisser les coûts industriels. La réglementation vient encadrer cette politique pour forcer les constructeurs à réorienter leur offre. C’est une logique que l’on retrouve partout avec une sévérité diverse entre les Etats-Unis, la Chine, le Japon et l’Europe.

Mais in fine c’est le consommateur lui-même qui doit être en mesure d’opérer des choix les plus rationnels et c’est donc, par rapport à la valeur perçue,  le signal prix et le coût total de possession qui orientent réellement les choix.

La révolution numérique donne à la politique de l’énergie une autre voie d’action. Par l’information contextuelle captée par multiples objets de l’internet des objets, par les aides à la décision apportées aux utilisateurs d’énergie pour prendre à tout moment la décision la plus efficiente, par la multiplication des actionneurs automatiques, nous allons disposer d’un puissant  arsenal d’outils. Le but reste le même : prendre des décisions informées pour économiser la ressource rare. Mais là où les informations étaient incomplètes et diffuses, l’internet des objets et le traitement des données massives (« big data ») apportent les éléments qui faisaient défaut pour créer un réseau interopérable et efficient.

La révolution scientifique sur l’ensemble des moyens de production et sur les produits eux-mêmes va offrir des potentiels nouveaux pour consommer moins de ressource et gérer en temps réel de façon efficiente l’énergie.

Mais comme le souligne l’Agence internationale de l’énergie, ces changements nécessiteront des investissements considérables, consommateurs de capitaux, et prendront du temps.

L’énergie est au cœur de la civilisation. Nous n’avons pas toujours conscience des implications considérables d’une raréfaction de l’énergie à bon marché. Aussi l’action n’est pas seulement du ressort des entreprises et des Etats mais relève aussi de la prise de conscience collective. Le fait énergétique doit devenir un objet public, connu, compris et documenté aussi bien dans le débat public que dans la vie quotidienne.

 

http://www.developpement-durable.gouv.fr/L-Agence-internationale-de-l,41647.html

http://www.developpement-durable.gouv.fr/L-Agence-internationale-de-l,43313.html


Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


French Tech et CES 2015

Voici la vidéo que j'ai enregistré pour Xerfi sur le thème de la présence française dans le monde des start-ups vue à travers le CES 2015 à Las Vegas

 

http://www.xerfi-precepta-strategiques-tv.com/emission/Jean-Pierre-Corniou-CES-2015-la-percee-de-la-French-Tech_2198.html


L'odyssée de l'innovation à travers le CES 2015

Quels messages retenir du CES 2015 ? Il ne faut pas se limiter à une vision immédiate de cet évènement car il s’inscrit dans une perspective de long terme. L’informatisation de la société est un processus engagé depuis la fin de la seconde guerre mondiale et en constante accélération, chaque étape préparant la suivante. C’est un des leviers majeurs des changements qui façonnent notre vie et permettent, grâce aux progrès convergents des sciences et des techniques, une amélioration des performances humaines qui se traduit, in fine, par l’allongement de la vie humaine.

Les formes de  l’informatisation ont évolué par grandes étapes en fonction des capacités techniques. Du premier processeur Intel en 1971, le 4004 et ses 2300 transistors, au Pentium Pro de 1995, avec 3,1 millions de transistors, au processeur i7 Haswell de 2014 avec 2,6 milliards de transistors, les performances ont connu une croissance exponentielle qui confirme, à chaque étape, la loi de Moore. Si la puissance de traitement des machines est désormais considérable, c’est l’exploitation de cette puissance à travers une multitude d’usages, dans toutes les situations, tous les contextes géographiques, et par tous les utilisateurs  qui est véritablement le déclencheur d’une révolution.

Car cette informatisation ne serait qu’une simple prouesse technique si elle ne provoquait pas une mutation sociale  sans précédent dans l’histoire de l’humanité par son ampleur et sa profondeur. La révolution informatique est aujourd’hui le moteur d’un changement de civilisation, avec ses promesses et ses angoisses. Il suffit de se plonger, au cœur du décor surréaliste de Las Vegas, dans la plus grande manifestation mondiale consacrée au numérique  pour comprendre que cette mutation est profonde, irréversible et va changer nos vies dans la plupart de leurs composantes.

La révolution numérique s'incarne au CES

Le CES, qui a débuté à New York, dans les années soixante, comme Consumer Electronic Show, salon consacré à l’émergence du règne de l’image télévisée et du son haute-fidélité, est devenu depuis dix ans le théâtre global de la révolution numérique. La différence sémantique entre informatique et numérique n’a pas de sens technique, mais traduit, dans une acceptation commune, le fait que l’informatisation du XXe siècle consacrée aux tâches professionnelles est désormais régie par le rythme des innovations grand public. L’entreprise n’est plus maîtresse du rythme de ses évolutions car elle doit intégrer dans ses fonctionnements internes ces innovations plébiscitées par ses clients et son personnel. Or si le PC en 1981 et la facilité d’accès à internet en 1993, grâce au navigateur, ont fait déjà vaciller l’informatique centralisée classique sur des bases en introduisant la liberté de l’individu dans la gestion des systèmes, c’est bien l’apparition de l’iPhone en 2007 qui, cumulant pour le première capacité de communication, puissance de traitement, mobilité et diversité des usages,  a marqué l’ouverture d’une autre ère.

A travers l’expérience d’une dizaine de CES, il est possible de visualiser cette accélération en surimposant les images de chaque CES. En effet, en mesurant la taille et le positionnement des stands comme en analysant le dosage des thématiques des conférences et le choix des intervenants, on comprend que ces mutations parfois subtiles sont à la fois les marques des changementsdésormais actés comme les signaux annonciateurs des transformations à venir.

S’il ne fallait retenir qu’un seul symbole de ces mutations, il faut se souvenir que dans l’entrée du hall central, cœur prestigieux du LVCC, Las Vegas Convention Center où était centrée la partie exposition du CES, se faisaient face Microsoft et Intel, les deux acteurs du monde Wintel qui a brillamment  façonné le monde du PC pendant trente ans. Mais en 2015 c’est un constructeur chinois de téléviseurs, encore méconnu en occident, Changhong, leader du marché chinois des téléviseurs, qui occupe cette place prestigieuse. Intel à cause de cette relation trop intime  avec le monde du PC a raté son entrée dans celui de la mobilité au profit de Qualcomm. Intel est toujours là, très combatif, pour retrouver sa place et son prestige dans le monde de l’informatique des objets dont la part dans la croissance de son chiffre d'affaires a déjà bondi de 19% en 2014

Withings  011
S’il y a cinq ans, la santé et le bien être occupaient quelques stands minimalistes, dont celui de Withings, timide start-up française montrant en 2009 un objet improbable, un pèse-personnes connecté. Aujourd’hui ce sont des travées entières qui y consacrées avec des stands richement dotés où brillent d'ailleurs les entreprises françaises comme Netatmo, Withings, Sculpteo, Sen.se...  Il a d’ailleurs fallu quitter le LVCC car la place y manquait. C’est un nouvel espace, immense, au Sands, qui est intégralement consacré au monde bruissant des objets connectés. De même, le cycle de conférences consacrées au monde de la santé est devenu une manifestation à part entière, the Digital Health Summit. Le système de santé est en effet devenu un ensemble complexe où interagissent de multiples disciplines et professionnels partageant des donnéees communes.

Healthcare  007

De façon générale, l’expansion de la sphère de l’informatisation se traduit par la multiplication des approches verticales où experts et firmes spécialisées discutent de la dynamique de ces nouveaux environnements numériques qui refaçonnent les activités traditionnelles que sont le bien-être et la santé, l’éducation, l’automobile, la publicité, les medias. Sur le socle de base de l’économie numérique, qui se consolide autour du smartphone, du cloud computing et des réseaux à haut débit, viennent se greffer une multitude d’écosystèmes verticaux qui embarquent entreprises conventionnelles et start-up dans une irrésistible dynamique de transformation accélérée.

Tout est connectable et connecté

Le CES est donc sur quatre journées non seulement une exposition commerciale où se croisent 170000 visiteurs de toute la planète et 5000 journalistes, face à 3600 entreprises, mais aussi des milliers de dirigeants qui dialoguent, analysent et construisent les transformations de demain, publiquement mais aussi discrètement dans les suites et salons des hôtels. C’est pourquoi les keynotes du CES sont aussi prisés. Véritables shows millimétrés, fort coûteux, ils traduisent la vision des dirigeants et la force des entreprises leaders. Il s’agit d’impressionner, de marquer les participants et par là les analystes de la planète entière. Ford s’illustre depuis des années dans cet exercice et le nouveau  président, qui a succédé à Alan Mullaly, Mark Fields, a bien montré que l’avenir de l’automobile ce n’était pas la puissance brute mais la capacité de faciliter la mobilité de la planète. Le président d’Intel, Brian Krzanich, a illustré de façon spectaculaire qu’il entendait bien mettre ses processeurs au centre de la réconciliation du réel et du virtuel qui pour lui est « the next big thing ». Et il a invité sur scène HP pour lancer officiellement l’entrée de ce constructeur dans le monde de l’impression 3D, scanneurs, imprimantes et puissances de calcul permettant de passer l’objet réel à sa définition numérique en 3D pour pouvoir être reproduit à l’infini… Mais c’est surtout la présentation du nouveau processeur Curie, qui intègre en un format unique de la taille d'un bouton, son système d’exploitation, des capteurs et des capacités de communication Bluetooth, qui a frappé en montrant la détermination d’Intel à prendre le leadership de l’équipement des objets connectés et du wearable computing.

Un nouveau modèle d'innovation

La leçon du CES ne réside pas dans la diversité des produits proposés, mais dans la convergence de chacune des approches. Par touches se construit un monde où l’ordinateur s’efface au profit d’une multitude d’objets qui vont échanger des informations pour alimenter la prise de décision dans chaque acte de la vie quotidienne, personnelle ou professionnelle.

Le monde des objets consacre un nouveau modèle d’innovation très éloigné du modèle classique de l’investissement en recherche-développement tels que les grandes firmes l’ont pratiqué depuis des décennies. Face au modèle planifié et méthodique de la R&D, l’innovation venu du monde grand public ressemble  à un grand bazar où des objets divers émergent entre le concours Lépine et la science-fiction. Le CES avec ses stands exotiques donne évidemment cette impression. Mais comme l’a vivement défendu le fondateur de Parrot, Henri Seydoux, peu importe que les produits qui sortent de la créativité des start-up soient qualifiés de « gadgets ». C’est l’usage qui fait le tri et révèle des potentiels insoupçonnés au départ par les créateurs. Citant l’exemple des drones qu’il avait imaginé comme étant une forme de jeu vidéo en 3D, il a constaté que les usages professionnels, comme pour l’agriculture et la bâtiment, étaient parfaitement pertinents. Le créateur de la semelle chauffante et connectée, Digitsole, une start-up française parmi les dizaines présentes au CES , visait le marché des équipements sportifs, mais le monde professionnel des travaux en plein air se montre tout à fait intéressé.

Digitsole  009

Ce processus s’applique également aux grandes entreprises. Plusieurs grandes entreprises ont clairement affiché leur choix d'ouvrir leur R&D, leurs brevets en favorisant l'open innovation. Samsung, Toyota, mais aussi Ford opérent ce mouvement pour injecter dans leur ADN historiquement fermée des processus d'innovation radicalement nouveaux. La présence active de ces grandes entreprises mondiales, qui ignoraient le CES, est le symbole d'un tournant dans la recherche de synergies entre start-ups et entreprises établies. La Poste, qui est victime de l’érosion du marché du transport de documents papier, a fait de son image robuste et reconnue par la population un vecteur de développement en devenant fournisseur de services de confiance, à travers son réseau physique de proximité, de bureaux et de facteurs, mais également par l’innovation logicielle dans les services numériques et son soutien aux start-ups. Il faut aussi saluer pour ce souci d'ouverture à la créativité la forte présence des start-up françaises, accompagnées par Emmanuel Macron, Axelle Lemaire, Pierre Gattaz, Louis Schweitzer, de même qu'une forte délégation de DSI du CIGREF autour de leur président, autant de symboles témoignant d'un vrétible changement dans la culture française, salué par le président du CES, Gary Shapiro.

La Poste  008

Il se crée un cheminement, impossible à planifier, entre ce que permet de faire la technique, les objets qui en découlent, et la réalité des usages décidée par les utilisateurs.

 Innover, ou disparaître

Le choix est au fond très simple, et c’était le thème d’un keynote essentiel, rassemblant les dirigeants de Cisco, Bosch et Comcast : « Fast innovation : Disrupt or be Disrupted ». Innover s’impose comme une forme indispensable d’évolution pour toute entreprise. Innover c’est écouter ses clients, mais aussi aller au-delà des attentes, des formes convenues, des logiques d’image. C’est oser aborder des sujets nouveaux qui ne peuvent s’explorer à travers des études de marché. Steve Jobs a été expert dans cette approche en rupture. S’il avait attendu des études marketing la réponse des clients potentiels, il n’aurait jamais fait l’iPhone et c’est pourquoi Nokia, champion absolu du téléphone GSM, ne pouvait pas imaginer autre chose qu’un meilleur... téléphone GSM. Lire le CES, c’est comprendre le  rôle de ces chemins de traverse, c’est admettre d’être surpris, choqué par des visions au premier abord futiles, mais qui peuvent se révéler des pépites porteuses de rupture. Le CES implique beaucoup d’humilité et se remémorer que toute innovation suscite un cycle de réactions en trois étapes. La première étape, c’est de penser que c’est inutile, farfelu, absurde. La seconde étape c’est de s’indigner en considérant que c’est dangereux. Et enfin, troisième étape, considérer que c’est tout à fait banal, normal…