Cybersécurité, l'enjeu industriel

Fullsizeoutput_2720

L'économie numérique a engendré son double maléfique, le monde sombre de la cyber criminalité. Les attaques se suivent. Et vont continuer. Cette situation n'est pas surprenante, elle est vieille comme l'humanité. Les compétences développées pour mettre en place en moins de trente ans une économie fluide, mondiale, fondée sur l'échange d'informations et de connaissance, sont aussi utilisées pour développer la criminalité et poursuivre par des moyens violents la compétition séculaire entre nations et groupes sociaux. La cyber criminalité s'est installée durablement comme une branche du crime organisé et des politiques d’intimidation entre états. 

L'enjeu de la sécurité se joue donc sur deux plans distincts : 

- celui des individus et des entreprises dont l'intégrité physique peut être engagée par des offensives criminelles opérées depuis internet

- celui des États, confrontés au traitement d'une nouvelle forme d'insécurité qui menace leurs intérêts vitaux et leur souveraineté, et où ils se retrouvent aussi bien prédateurs que proies.

Identifier en permanence les menaces, comprendre les faiblesses, se mettre en situation de réagir pour diminuer les dommages causés, puis organiser la riposte sont autant de techniques éprouvées dans l'histoire qui doivent aujourd’hui se déployer dans l'univers numérique. La puissance publique, garante de la sécurité des citoyens, et de la stabilité du cadre économique, ne peut durablement laisser le privilège de l'offensive aux forces de déstabilisation et de destruction de l’ordre. Comme pour chaque évolution technique, les forces criminelles savent capter l'innovation au service de leurs intérêts plus rapidement que la société ne se met en situation de gérer ces menaces nouvelles, tant par la réglementation que par la répression.

Mais l'ampleur des enjeux dans une économie mondialisée et sur le chemin d'une numérisation totale n'a plus rien à voir avec la menace que pouvait faire peser sur les banques à la fin de la guerre « la bande des tractions »,  gangsters technophiles, avec leurs Citroën traction avant plus rapides que les voitures de la police. La menace est omniprésente et protéiforme, l’ingéniosité des cyber attaquants sans limite. Ils n’ont pas de règles, de processus, de budgets à respecter. Leur agilité est totale, ce qui les rend totalement dangereux.

Il ne faut donc plus considérer la sécurité comme une activité marginale car elle s'insère désormais au cœur de la conception des systèmes et doit être présente dans chacun des usages. Tout étant désormais numérisé et connecté, tout devient vulnérable. Cette politique de sécurité change de nature. Elle sort du périmètre des organisations, limité à quelques règles simples gérées par des spécialistes. Elle est désormais centrale, systémique, cohérente et a pour objectif d'assurer une continuité totale des opérations tout au long de la chaîne de valeur. Elle implique chacun au quotidien tout en devenant une discipline à part entière, hautement technique.

Si tous les États s'équipent pour faire face à ces nouvelles menaces, l'Etat d'Israël, compte tenu de son histoire, de sa taille et de sa vulnérabilité a été un des premiers à mettre en place une organisation puissante dès 2002, la NISA, National Information Security Authority, couvrant aussi bien les acteurs privés que les autorités publiques. Mais, c’est dès 1952 que l’armée israélienne avait constitué une unité spécialisée dans le renseignement électronique, l’unité 8200, qui est considérée comme le creuset de toute la pensée de l’Etat israélien en matière de cyber défense. Ses membres ont essaimé dans toute l’industrie et constituent une élite aux postes de responsabilité publics comme privés. 

Depuis 2011 la structure centrale, au cœur du système public et privé de défense contre la cybercriminalité, se nomme Cyber Bureau et dépend du Premier ministre.

Autour de ce rôle fédérateur de l'Etat, s'est développé un écosystème complet qui est reconnu pour sa créativité et joue un rôle de leader dans le monde. On estime que 25% des dépenses de R&D mondiales consacrées à la cyber sécurité sont effectués en Israël. Et les sociétés israéliennes, dans le secteur militaire comme dans le civil ont atteint un haut degré de performance et sont actives dans le monde entier, et principalement aux Etats-Unis avec lesquels se sont tissés des liens étroits. La plupart des grands entreprises mondiales du secteur disposent d'un centre de recherche en Israël dédié à la cybersécurité. L’Etat a encouragé la création d’un pôle spécialisé dans la cybersécurité dans le désert du Néguev à Beer’Sheva.

La sécurité prend une dimension nouvelle avec le déploiement du contrôle numérique des infrastructures et des installations industrielles. Même isolés du réseau internet, ces équipements dépendent aujourd'hui d'un fonctionnement numérique. 80 % des systèmes industriels sont de fait connectés à internet par l'intermédiaire de certains de leurs composants. Les grandes infrastructures vitales, comme les réseaux ferrés, les aéroports, la distribution électrique, les systèmes d’approvisionnement, dépendant pour leurs performances de logiciels et d’outils informatisés. Leur sécurité de fonctionnement dépend de multiples facteurs qu’il faut inventorier et monitorer sans relâche. Ce sont précisément ces fonctions que les nouveaux outils de cyberdéfense instrumentent. Dans le domaine grand public, les produits connectés, conçus aujourd'hui, sont eux la plupart du temps connectés directement au réseau IP par Wi-Fi. Cette facilité d’usage présente aussi une grande vulnérabilité.

Les bénéfices clients de cette connexion sont devenus vitaux. L'Internet des objets est fondé sur les avantages que donne la connexion de tous les composants d’un système, permettant la collecte des données et l'intervention à distance, tissant un système dont les bénéfices ne sont liés qu'à l’interopérabilité et au traitement des données connectées.  Les futurs réseaux intelligents, avec les véhicules autonomes, ne pourront livrer leurs promesses qu’au prix d’une sécurité sans aucune faille.

Ce besoin de connectivité bilatérale, fiable, impose de conférer au traitement des problèmes de vulnérabilité des réseaux connectés une place centrale. Le premier facteur de protection est de connaître les composants de ces nouveaux ensembles, en identifiant leurs propriétés, c’est-à-dire les paramètres de leur fonctionnement nominal, mais également leurs vulnérabilités. Mettre en place des outils de traitement des seules vulnérabilités aux frontières de l’entreprise - comme la gestion des identifiants et des pare-feux - ne suffit plus. Il faut identifier les composants du système global et mettre en œuvre les règles de sécurité adaptées à chaque composant. Il n'est plus possible d'additionner des outils dans des architectures de plus en plus complexes sans les connaître et les comprendre.

Le seul moyen de gérer cet ensemble composite est de développer l’automatisation en confiant à des robots et à des logiciels de soin de gérer les tâches quotidiennes d’authentification, de suivi, de mesure et d’analyse des flux pour en tirer une vision dynamique et identifier les situations anormales. L’accent est désormais mis dans la recherche de l’anticipation des attaques en comprenant les comportements de leurs auteurs, en anticipant les cheminements des logiciels infectants, en multipliant les pièges pour les traquer avant qu’ils ne deviennent actifs. Les spécialistes de sécurité ont en charge, dans ce modèle, l’architecture générale de la cybersécurité, l’analyse des comportements, l’anticipation et la veille technique. Ils ont également un grand rôle de sensibilisation et de formation. Les opérationnels doivent désormais intégrer dans leurs missions la responsabilité du suivi en temps réel du système.

De fait, la montée de l’insécurité numérique oblige à considérer que si qu'internet a été conçu de façon brillante, il est sorti depuis longtemps de son objet initial. C'est un outil qui se trouve désormais au cœur de l'économie mondiale et attire toutes les convoitises. Il doit subir un sérieux lifting et être enrichi pour intégrer la sécurité "by design".  A court terme, il est impératif de donner aux professionnels de la cybersécurité les outils et les moyens nécessaires, et développer massivement la formation. Pour fixer le niveau d’effort, il faut mentionner que, dans les administrations israéliennes, le budget de cybersécurité doit être fixé à 8% du budget informatique…


L'impossible consensus... ou comment malgré tout y parvenir !

Chaque individu abrite plusieurs personnages aux intérêts contradictoires. Nous jouons chacun de ces rôles alternativement avec conviction. Et nous nous attendons à être chaque fois pleinement satisfait sinon nous sommes furieux et frustrés. Cette colère devient rapidement, quand on est français, révolte. Forcément légitime. Et bien sûr nous attendons de nos gouvernants qu’ils satisfassent chacun de nos personnages avec un zèle égal.

Comme « fournisseur de service », que ce service soit une prestation intellectuelle, ou une prestation technique ou physique, soit simplement des heures de notre liberté qui nous sont prélevées par un patron, nous attendons, et si besoin, revendiquons une juste rémunération de notre contribution.

Comme « client », nous attendons, voire nous exigeons, d’avoir une qualité irréprochable pour le prix le plus bas possible, ceci au pied de notre porte et sans délai.

Comme « épargnant », même modeste, nous voulons que le sacrifice de notre non-consommation de revenu soit, d’une part, sécurisé contre les aléas économiques, et d’autre part justement rémunéré pour en tirer un revenu additionnel. Nous sommes allergiques aux risques mais friands d’une confortable sécurité.

Comme « contribuable », nous considérons que chaque centime arraché à notre poche et à notre libre arbitre pour être confié à des mains inexpertes de fonctionnaire anonyme est une pure spoliation, l’objectif de chaque contribuable étant de payer le moins possible pour lui en faisant payer les autres.

Comme « citoyen », nous exigeons des routes en parfait état, des écoles qui fassent de chacun de nos enfants des génies, des hôpitaux qui guérissent de tous les maux, une police exemplaire, une armée moderne, bien équipée, efficace pour nous protéger, une « vraie » politique familiale, une retraite confortable. Et tout ceci évidemment pour un coût tendant vers zéro…

Il y a donc en chacun d’entre nous, tout à tour, une montagne d’exigences qui doivent être satisfaites par… les autres. Car nous sommes hélas entourés d’incapables. Les patrons qui ne trouvent pas les bonnes commandes au bon moment, les enseignants qui font des fautes d’orthographe et bien sûr les transmettent à nos gamins, les salariés-du-public-en-grève, les syndicats, et au cœur de tout cela, deux responsables majeurs : le CAC 40, entité aveugle et anonyme, et les banques, cupides et prédatrices. Je pourrais ajouter, mais ce serait certainement excessif, que parmi les incapables majeurs qui nous nuisent avec acharnement il y a les étrangers, uniquement quand ils nous concurrencent comme fournisseurs de services, pas quand ils contribuent au paiement des factures collectives comme contribuables, et surtout le grand Satan coupable de tout cela, l’Europe. Certaines raffinent le modèle et les campagnes électorale sont un festival de vœux pour éliminer tous les obstacles à notre bonheur de citoyen, de contribuable, de fournisseur, de consommateur et d’épargnant…

Regardons de plus près le fonctionnement de ce modèle. Le fournisseur de service, de son temps, de son travail, de ses compétences, veut être mieux rémunéré de son effort. C’est légitime. Mais vu de l’entreprise qui intègre cette contribution dans le prix de revient total du produit ou du service qu’elle va mettre sur le marché, la rémunération devient un coût. Si ce coût de production ne permet pas de vendre le produit plus cher, il deviendra trop cher aux yeux du consommateur qui veut lui limiter les coûts de ses acquisitions. Donc le consommateur qui cherche les prix les plus bas nuit à son voisin de palier fournisseur qui veut les revenus les plus hauts. Le contribuable qui veut réduire sa facture d’impôt en cherchant à dissimuler des revenus ou acheter sans taxe, au noir ou en contrebande, nuit au citoyen qui veut les meilleurs services publics. On estime à une soixantaine de milliards le coût de la fraude fiscale directe. Toute fraude, même mineure, est une atteinte au partage de la contribution collective aux services que l’Etat fournit aux citoyens. L’épargnant qui exige les taux d’intérêt les plus élevés nuit à l’investisseur qui va créer des activités et des emplois par le financement de biens productifs et qui a besoin de payer le moins cher possible les capitaux dont il a besoin. Nous devons bien comprendre que l’économie est un jeu à somme nulle, les gains des uns étant les coûts des autres. La croissance, l’ouverture internationale et l’inflation, déforment cette mécanique de redistribution en augmentant les opportunités car le cadre devient plus large et les flux plus importants. Cette vision implique une compréhension de la difficulté des arbitrages. Chacun de nous sait par expérience qu’une dépense va accroître notre satisfaction immédiate au détriment de notre épargne. Mais l’épargne peut nous offrir une satisfaction différée et donc aléatoire car le long terme est un pari. Il en est de même pour une collectivité nationale qui va préférer donner immédiatement satisfaction aux électeurs-citoyens par une augmentation d’une prestation de rentrée scolaire, par exemple, plutôt que d’investir pour le long terme sur le développement du haut débit mobile. Mais ce ne sont pas les mêmes décideurs, les mêmes mécanismes, les mêmes budgets et les mêmes effets induits. Les arbitrages personnels, comme les arbitrages collectifs, sont donc des choix difficiles qui ne peuvent garantir à chacun le même niveau de satisfaction. Par ailleurs tout ceci se déforme dans le temps !

Cet impossible consensus, qui pourrait mener à des tensions inacceptables, et se traduit périodiquement par des crises, nécessite pour être toutefois résolu que les acteurs économiques acceptent des compromis. La transparence, le débat, la négociation et le respect des arbitrages sont donc indispensables dans une économie complexe. Le marché y pourvoie, pour partie seulement car le signal prix, s'il fonctionne bien, ne suffit pas à résoudre tous les problèmes. C'est bien parce que le consommateur tend à remporter sur le producteur que l'on transfère la fabrication de sèche-linge de France en Pologne.

Le débat collectif, documenté, le vote fréquent sur des questions précises doivent être largement exploités pour rendre les arbitrages et leur conférer une autorité forte pour éviter la remise en cause systématique des décisions prises. Ainsi écrivait Condorcet en 1794 : « Ainsi, l’on n’osa plus partager les hommes en deux races différentes, dont l’une est destinée à gouverner, l’autre à obéir ; l’une à mentir, l’autre à être trompée ; on fut obligé de reconnaître que tous ont un droit égal de s’éclairer sur tous leurs intérêts, de connaître toutes les vérités, et qu’aucun des pouvoirs établis par eux sur eux-mêmes, ne peut avoir le droit de leur en cacher aucune. » Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain.

Ce travail est encore loin d'être accompli. Il est pourtant la clef de la recherche de solutions collectives dont nous avons besoin pour continuer à progresser.


Drôle de campagne, vrais enjeux...

Beaucoup de scrutins, peu de débats de fond

Cette drôle de campagne électorale pour les vrais scrutins d’avril, mai et juin entretient un malaise qui dure depuis le démarrage  de cette  longue campagne pré-présidentielle qui nous a valu déjà quatre scrutins. Tout se passe comme si l’opinion, oubliant les enjeux réels, usée par ces débats, et ces scrutins dont on peut aujourd’hui douter de l’utilité, se laissait aller, apathique, assommée face aux scandales qui offrent une dramaturgie renouvelée à chaque instant. Par ailleurs, tétanisée par l’improbable show quotidien qu’offre Trump, qui démontre que tout est possible et tout est à craindre d’une machine politique devenue folle, l’opinion se met sérieusement à s’inquiéter sur l’issue opérationnelle du scrutin. Car même si ce théâtre peut passionner par ses rebondissements, nul n’ignore que pendant les travaux les ventes doivent continuer. Avec les primaires et la mise en place de la nouvelle équipe de l’exécutif, c’est plus d’une année d’incertitude que le pays s’offre.

Malgré cet état d’apesanteur et ces manœuvres dilatoires qui retardent le moment où le débat va devoir finalement se dérouler pour dessiner le futur des cinq prochaines années, il va bien falloir travailler, réfléchir et in fine décider. Or le temps presse car même si le pouvoir du Président de la République est beaucoup moins large que ne laissent entendre les candidats, il occupe une place essentielle dans le jeu politique de la Ve République.

Pour prendre le temps de la réflexion, ce qui est toujours difficile quand on vit les événements en temps réel, il faut se rappeler que nous sommes dans un régime mixte, présidentiel et parlementaire. Les décisions qui sont prises impliquent une forme de consensus entre des deux pouvoirs également issus du suffrage universel. La plupart des décisions de gestion sont du ressort du gouvernement, responsable devant l’Assemblée, comme l’ont démontré les cohabitations toujours possible même si l’alignement des calendriers des élections présidentielle et législative a pour but de les éviter. Parfois la cohabitation se déroule au sein du même camp. Si l’affrontement  présidentiel surmédiatisé agite les esprits depuis des mois par sa dramaturgie, il n’est qu’une pièce d’un système plus large qui va également nous occuper en juin 2017 et bien au-delà….

Ces précisions nous incitent à mieux comprendre que si les enjeux électoraux sont décisifs, ils ne sont pas exclusifs car la vie économique et sociale d’un pays ne dépend que pour partie des choix politiques. Les déterminants socio-techniques jouent un rôle beaucoup plus important car ils fixent des limites et ouvrent des opportunités aux intentions des gouvernants en dépassant le cadre territorial et temporel de l’action publique. Toutefois les dirigeants surestiment de façon récurrente leur capacité à comprendre ces mécanismes systémiques complexes et à intervenir pour infléchir le jeu des facteurs. Ils ont tous le sentiment que le volontarisme, martelé avec plus ou moins de vigueur, pourra faire revenir les fleuves à leur source. Ceci serait facilité par un « retour » aux frontières nationales, la souveraineté nationale étant proposée à l’opinion comme le cadre magique de la résolution de la plupart de nos problèmes. 

Pour la première fois dans un tel scrutin, la question du protectionnisme est en effet au cœur du débat. Une majorité de candidats en fait un axe central de leurs propositions. Cette audace dans un pays qui depuis la fin de la seconde guerre mondiale a fait de son ancrage dans une Europe économique, puis politique, l’invariant de sa stratégie internationale, surprend car l’opinion semble s’accoutumer d’une idée qui tourne résolument le dos a une culture qui a marqué plusieurs générations.

L'ancrage international de la France

Les attendus du Traité de Paris de 1951 créant la Communauté européenne du charbon et de l’acier, en 1951, ont en effet ouvert la voie à un effort continu et ambitieux  de coopération en Europe. L’Europe a été conçue à la fin de la seconde guerre comme l’outil indispensable de la paix et de la prospérité. La France a ainsi  toujours été motrice dans le processus d’élargissement de l’Union Européenne,  mais également sur le plan mondial avec une adhésion sans réserve à l’Organisation Mondiale du Commerce.

« CONSIDÉRANT que la paix mondiale ne peut être sauvegardée que par des efforts créateurs à la mesure des dangers qui la menacent;

CONVAINCUS que la contribution qu'une Europe organisée et vívante peut apporter à la civilisation est indispensable au maintien des relations pacifiques;

CONSCIENTS que l'Europe ne se construira que par des réalisations concrètes créant d'abord une solidarité de fait, et par l'établissement de bases communes de développement économique;

SOUCIEUX de concourir par l'expansion de leurs productions fondamentales au relèvement du niveau de vie et au progrès des oeuvres de paix;

RÉSOLUS à substituer aux rivalités séculaires une fusion de leurs intérêts essentiels, à fonder par l'instauration d'une communauté économique les premières assises d'une commumaulé plus large et plus profonde entre des peuples longtemps opposés par des divisions sanglantes, et à jeter les bases d'institutions capables d'orienter un destin désormais partagé »

Si ces principes forts ne font plus aujourd’hui l’unanimité, ils n'ont toutefois pas perdu leur sens et leur actualité. L’Europe comme construction volontariste a été mal comprise et mal aimée des peuples.  Les bénéfices de cette coopération apparaissent insuffisants au regard des contraintes que des gouvernants peu courageux ont fait porter sur une Europe qualifiée de désincarnée, et donc jugée bureaucratique. Or ce n’est pas la Commission qui gouverne l’Europe, mais le Conseil de l’Union européenne, composé des chefs de gouvernement des Etats que rassemble l’Europe. La complexité des institutions européennes, le manque de soutien populaire à cette construction difficile à appréhender et mal expliquée ont rendu l’idée européenne peu porteuse au cours des dernières années, même si le Parlement européen, élu au suffrage universel, apporte une indéniable dimension de transparence et de démocratie. Mais à 28 membres, la cohérence et la lisibilité de l’action sont difficiles à valoriser. Est-ce que face à la Chine, aux Etats-Unis, à la Russie, la France seule peut aborder la complexité systémique d'un monde multiple mais confronté aux mêmes problèmes : menaces climatiques, raréfaction des ressources naturelles, fragilisation des océans, dégradation de la biodiversité, migrations non désirées ? Les Etats sont trop grands pour les petits problèmes, mais certainement trop petits pour las grands problèmes. Le moment est-il bien bien choisi pour détricoter l'oeuvre de la construction européenne, certes incomplète et imparfaite, mais qui constitue un cadre de résolution de problèmes existant, démocratique et améliorable. 

Le sentiment de déclassement nourrit la colère 

Mais c’est surtout la crise de 2009 et la transformation rapide des équilibres économiques du monde avec l’émergence de la Chine et de l’Asie qui ont conduit plusieurs courants politiques à développer dans les pays matures l’idée que la mondialisation était la cause des problèmes rencontrés dans ces nations qui, ayant été à l’origine du développement économique mondial, souffraient de voir leur leadership contesté et leur économie ralentie. Cette montée d’un désir de protection contre la concurrence mondiale, jugée déloyale, s’est incarnée dans le vote de sortie du Royaume Uni de l’Union européenne et dans l’élection de Donal Trump aux Etats-Unis.  Les peuples frappés par la remise en cause de leur environnement professionnel et social se sentent abandonnés, trahis par leurs dirigeants qui eux s'en sortent bien. 

Friches
Le discours d’investiture de Donald Trump présente une théorisation de ce mouvement. Une analyse intéressante du Guardian de ce discours met bien en évidence qu’il s’agit d’une déclaration de guerre contre les compromis conduits depuis des décennies par la classe dirigeante américaine dans le concert mondial. C’est une promesse de redressement national fondé sur le retour au protectionnisme et une vision sans nuance et sans précaution du "America first" au profit des classes moyennes et populaires qui auraient été victimes de la mondialisation... Analyse sommaire, discours sans nuance, tout ceci est nouveau dans l'histoire contemporaine car, malgré ce volontarisme cinglant, les Etats-Unis restent une démocratie avec des contre-pouvoirs, comme les premiers mois du mandat de Trump le démontrent,  et doivent respecter les engagements internationaux. Il reste que cette vision repose sur une analyse aussi limpide que celle des populistes européens : le peuple a été trahi par la classe dirigeante qui s'est enrichie par la mondialisation, alors qu'elle transformait un pays prospère en champ de ruines industrielles et de dégénération morale. Le diagnostic est sans précaution, les réponses sont simples : droits de douane élevés, arrêt total de l'immigration, préférence nationale en matière d'emplois et d'investissements. Cette vision prend le contrepied exact de cinquante années de croissance et de relations internationales.

Aujourd'hui nul ne peut dire si cette rupture majeure voulue en 2016 aux Etats-Unis et en Grande-Bretagne, qui ont avec Ronald Reagan et Margaret Thatcher initié la vague de libéralisation économique des années quatre-vingt, va ouvrir une nouvelle page de l’histoire économique mondiale. Il est certain que ces positions ouvrent le débat sur les limites de la libéralisation de l’économie mondiale et sur les conditions de la transformation technique et sociale des économies matures. Mais on ne tue pas une idée, car c'est trop coûteux, on l'améliore ! 

Et pendant ce temps-là, rien n'arrête la révolution numérique 

Car indépendamment de l’émergence cette culture protectionniste, d’année en année se dessine, de façon systémique, un monde où le numérique revisite chaque secteur, chaque métier, chaque processus. Le numérique se joue des frontières. Sur toute la planète, ce sont des milliards d'humains de tous âges qui utilisent le téléphone mobile, désormais "intelligent", et accèdent aux savoirs et services du web.Il ne s’agit pas de louer candidement une « digitalisation » à tout crin de la société pilotée par quelques entreprises si habiles, qu’elles pourraient en devenir cyniques, mais d'en comprendre les ressorts, les enjeux, les risques. L'iconomie, ce n’est pas chanter les louanges d’une disruption ravageuse, mais chercher à construire une société plus efficiente dans la gestion des ressources naturelles et plus ambitieuse dans le respect des hommes et la stimulation de leurs infinies compétences cognitives. 

Robots

Pour y parvenir nous allons, comme les générations précédentes, exploiter la science et la technique, mais plus vite et à plus grande échelle puisqu’il s’agit de notre planète Terre et plus seulement de l'Occident ou de la Chine. Tout ce que nous voyons chaque année au CES de Las Vegas, de l’hygiène bucco-dentaire à la voiture autonome, des exo-squelettes pour handicapés aux imprimantes 3D pour fabriquer des voitures,  aux jeux pour apprendre à construire et programmer des robots dès le plus jeune âge fait sens par rapport à une perspective historique globale : l’amélioration de nos compétences et de notre discernement. Lucidement, en mesurant les conséquences et en trouvant des parades aux problèmes potentiels, nous pouvons construire un monde meilleur où le progrès retrouvera tout son sens : vivre mieux, plus longtemps et en bonne santé, rendre le travail stimulant et non épuisant grâce à la coopération avec les robots, se déplacer en toute sécurité avec des véhicules autonomes, anticiper  les tensions sur les ressources et le climat grâce au big data, apprendre toujours et encore pour donner à chaque habitant de la terre ses chances dans le respect le plus total et sans discrimination avec le concours de l’intelligence artificielle.

Transférer à des machines et à des logiciels des tâches pénibles et peu valorisantes est plutôt une bonne nouvelle. Mais ce sont des humains qui vont, au moins temporairement,  perdre ces emplois et ces revenus, et on ne peut contempler ce phénomène ne se croisant les bras. Ce tarissement progressif d'une source d'emploi faiblement qualifiés impose une réflexion lucide et des mesures d'accompagnement de long terme.

C'est un chantier complexe qui ne peut que se développer dans un esprit de co-construction pragmatique visant l’intérêt général, c’est à dire la prospérité et la sécurité.  Peut-on le faire isolément ? Peut-on le faire à partir d'une lecture partisane, idéologique, du monde et du progrès ? La France seule a-t-elle la taille critique pour concevoir et mettre en œuvre la politique nécessaire pour embrasser ces problèmes ?

De toute évidence, non… L'exercice de la souveraineté n'exclut pas la recherche de solutions mutualisées au niveau régional face aux grands ensembles qui sont constitués sur la planète. Il faut rechercher inlassablement le bon niveau d'exercice de cette orchestration dont nous avons besoin pour éviter que le destin des nations et des peuples soit décidé par les nouveaux maîtres de la technologie. 


Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau http://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie http://www.iconomie.org


Vous avez dit "digital" ? Qu'entendez-vous par là ?

Après beaucoup de désintérêt et d’ignorance, le numérique, et surtout sa version hype anglo-saxonne, le « digital », est désormais sur toutes les lèvres. Il faut « en » faire, et vite ! Mais dans cette agitation, beaucoup de gens ont oublié de s’interroger sur la nature et la réalité de cette nouvelle idole. A force de considérer comme acquise une compréhension homogène des concepts, plus personne, par peur de paraitre ringard, ne fait l’effort de définir précisément ce dont on parle. Il en ressort une cacophonie généralisée qui permet de multiplier les procès en sorcellerie de ceux qui osent poser la question simple et sans réponse évidente « de quoi parle-t-on au juste quand on parle de « digital » ?

L’aveu en mai 2016 par Nicolas Sarkozy de son ignorance de ce qu’est « le bon coin », 8e site français quand même fréquenté par plus de 22 millions d’utilisateurs chaque mois, dont 50% à partir de mobiles, illustre la coupure entre la déclamation de principe de la priorité du numérique et sa compréhension réelle par beaucoup de décideurs. Le même, alors candidat, n’hésitait pas en effet à déclarer en 2007 : « Il n’est pas un secteur de notre société qui ne soit pas touché par l’apparition d’internet et les bouleversements qui en résultent. C’est une révolution qui se déroule sous nos yeux, la révolution numérique ». Il est surprenant que Le bon coin ait échappé neuf ans plus tard à cette vigilance tant c’est un site populaire dans la vie des gens qui a effectivement transformé le fonctionnement de l’économie de proximité. De même l’absence d’ordinateur sur le bureau présidentiel de François Hollande a surpris. Jacques Attali avait malicieusement fait observer lors de l’Université numérique du MEDEF en 2015 que s’interroger sur l’usage du numérique en 2015 était surréaliste et ressemblait à un colloque du CNPF de 1950 sur l’utilisation du téléphone par les entreprises.

Faute de connaitre la « vraie » réponse sur la nature de cette révolution numérique, on cherche avant tout les coupables sans comprendre les causes. Sommes-nous « en retard » ? Pourquoi ? Où se situe la France dans sa maturité numérique ? Qui doit conduire la transition numérique en entreprise ? Ce débat alimente désormais avec régularité les colloques et articles sur la transformation numérique. Le DSI sera-t-il ou non supplanté par le CDO, Chief Digital Officer ? Le suspense est total.

Cette dramatisation du débat, transformé en conflit de structure et de personnes, ne sert pas la cause car elle occulte la véritable question : comment (continuer à) transformer l’organisation, comme la société, confrontée à un nouveau paradigme socio-technique que ce terme « numérique » tente de définir ? Comme c’est un sujet complexe, incertain, qui engage toutes les fonctions mais en premier lieu le cercle historique des décideurs, il est indispensable, pour réussir à s’engager résolument dans le chemin de la transformation, de commencer par le débroussailler. Il serait grand temps de s'y mettre sérieusement...

Qu’est ce que le "numérique" ?

Une convergence de définition sur ce point central doit étayer toute démarche. Faute de compréhension, le débat sur la stratégie, et donc sur les personnes et les structures les mieux aptes à la mener, est faussé. Les approches peuvent être multiples, académiques ou empiriques. Depuis plus de vingt ans, les ouvrages sur l’émergence de la société numérique tentent cette approche. Don Tapscott, qui avait déjà prévenu dès 1993 avec "Paradigm Shift",  écrivait en 1996 dans son ouvrage « Digital Economy » : «  The computer is expanding from a tool for information management to a tool for communications… In this digital economy, individuals and entreprises create wealth by applying knowledge, networked humain intelligence and effort to manufacturing , agriculture and services. In the digital frontier of this economy, the players, dynamics, rules , and requirements for survival and success are changing ». Dix ans plus tard, en 2006, Yochai Benkler écrit « The Wealth of Networks ». Le professeur de Yale y développe sa vision : « The removal of the physical contraints on effective information production has made human creativity and the economics of information itself the core structuring facts in the new networkeded information economy ».

Tout est dit. Nous étions prévenus depuis longtemps et, d'ailleurs, nous n'avons pas été inactifs en France. Les structures, comme le Conseil national du numérique, existent. De multiples rapports passionnants ont été écrits. mais cette qualité d'analyse n'a pas nécessairement conduit les entreprises à l'exception de quelques pionniers à se mettre sérieusement en route. Or il est impossible d'ignorer que nous sommes face à un tsunami et il faut se préparer et agir.

Si les nuances existent, le consensus est fort sur ce constat : il ne s’agit pas seulement de technique informatique, mais d’un système global où la technique, les produits, les processus et les compétences sont engagés dans une nouvelle combinaison des facteurs. En ce sens la nature de la révolution numérique ne diffère en rien de celles qui l’ont précédé : l’écriture, l’imprimerie, la vapeur, l’électricité… La numérisation de l’entreprise, comme de la société, est une transformation radicale qui exploite le potentiel de toutes les techniques de traitement de l’information - logiciels, réseaux, interfaces, serveurs - objets pour réinventer le mode de fonctionnement global, tant économique que politique. Mais s’il y a bien une différence à chercher avec les étapes antérieures, c’est la vitesse et l’ampleur de la diffusion des outils qui font, en deux décennies, de la révolution numérique une révolution spécifique. C'est aussi le fait que la révolution industrielle a permis l'humanité de se doter d'un prothèse musculaire, alors que la révolution numérique nous permet de privilégier le cerveau-d'oeuvre à la main-d'oeuvre en nous offrant une prothèse cérébrale efficiente. 

Ces techniques ne sont pas récentes comme on en a l’illusion. Elles ont graduellement été mises au point depuis les années cinquante, internet et le web étant la dernière vague de cette construction. Chaque étape technique - avec un pas de dix ans environ: ordinateurs centraux , puis départementaux, ordinateur individuel, internet, web - a permis d’étendre le spectre des usages et de baisser les coûts de mise en œuvre.

Architecture-ordinateur2architecturedebase-8-638
Les techniques informatiques peuvent être imagées sous la forme d'un cône inversé qui repose sur la base historique que constitue aucun doute le modèle de von Neumann, qui date de 1945. Sur ce modèle, et grâce à la loi de Moore,  la production d'outils informatiques (réseaux, processeurs, programmes)  s’élargit rapidement pour couvrir un  champ de plus en plus vaste Ces outils engendrant eux-mêmes de nouveaux usages, le cône informatique englobe désormais un volume de plus en plus important que l’on nomme par convention « numérique ». Si la construction de la pointe du cône a pris beaucoup de temps, coûté cher et laissé souvent d’amers souvenirs de projets avortés, de performances médiocres, l’accélération technique, et les choix structurants de l’architecture de l’internet, permettent aujourd’hui d’atteindre des performances de fiabilité et de coût qui autorisent une totale démocratisation des usages et de nouvelles ambitions. Le monde des données massives (Big data), l'internet des objets, l'exploitation de l'intelligence artificielle, les robots constituent le nouveau front de cette expansion.

En effet, la combinaison des outils disponibles, désormais abondants, économiques et interopérables, permet de réaliser de nouvelles constructions qui dépassent la capacité des outils antérieurs. Cette extension de la performance intrinsèque coût/valeur permet également d’appliquer ces outils à de nouvelles catégories et, par là, d’étendre le champ de la réflexion et de l’action. Si la population des terriens a maintenant accès, partout, à l’information numérique grâce aux réseaux hertziens et à la fibre optique, c’est grâce à 70 ans de recherches, d’innovations et d’investissements considérables. La démocratisation du « téléphone intelligent », le smartphone, qui n’est plus téléphone que pour 15% de ses usages, mais ordinateur le reste du temps, ouvre à chacun le potentiel d’accès aux ressources du web. La révolution informatique continue sa marche en avant. Elle s’appelle désormais numérique, alliant la complexité technique de ses couches invisibles à la facilité d’usage de ses outils pratiques.

Un monde nouveau émerge

En décloisonnant les disciplines, effaçant les frontières des entreprises, bouleversant les statuts, transformant les rôles la révolution numérique fait émerger progressivement un monde nouveau qui remet en cause les situations et les convictions. Mais la puissance de ce mouvement est telle que la déstructuration du monde ancien se fait très rapidement, sans laisser le temps aux structures antérieures de s’adapter. Cohabitent ainsi deux mondes, l’ancien qui refuse de mourir, le nouveau qui malgré ses percées remarquables peine encore à se généraliser ce qui alourdit les coûts, différant la transformation dans toute son amplitude est donc la récupération effective des bénéfices. Ce déploiement différencié entre les entreprises et les nations conduit à l’émergence d’hyperpuissances numériques, l’Amérique et ses « champions du web », qui raflent la mise de la transformation, laissant aux moins rapides le soin de gérer les externalités négatives. Cette définition démontre d’ailleurs que la numérisation de l’entreprise n’est pas un big bang, mais un processus de transformation permanente qui emprunte au flux d’innovations celles qui sont les plus pertinentes pour atteindre l’objectif générique de compétitivité.

Il n’y a donc pas un modèle unique de transformation numérique -ou digitale- mais une adaptation des processus, des structures et des comportements pour renforcer l’entreprise sur ses marchés, sa profitabilité et ses perspectives. C'est un projet qui dépasse de très loin les seules responsabilités du CIO, mais engage toute l'entreprise, même si obtenir des résultats ne peut être envisagé sans maîtrise de la technique. De nouvelles entreprises qui comprennent mieux que d’autres l’alliage entre la technique et les usages se déploient mondialement avec talent sans s'interroger trop longtemps sur les nuances  d'une stratégie digitale. C'est ce qu'il convient de faire, sans délai : agir, aller de l'avant, projet par projet, usage par usage, faire confiance aux innovateurs, aux jeunes.

D ‘autres souffrent pour s’adapter. Beaucoup n’y parviendront pas. C’est la logique de l’évolution économique qui n’est en rien choquante si les processus d’adaptation des hommes aux nouvelles compétences requises et aux nouveaux comportements se déploient dans la lucidité et l’équité.

C’est bien le (seul ?) sujet de la démocratie aujourd’hui : qui doit payer le coût de l’adaptation ? Qui va en récolter les bénéfices ? Comment assurer une transition douce ? Les questions de l'emploi, des revenus, de sécurité et de respect de la personne doivent être réévaluées dans la perspective de la révolution numérique. La réponse n’est pas dans les idéologies anciennes, ni dans les hommes providentiels, mais dans une réinvention de la prise de décision collective, en entreprise et dans la société.

C’est possible... en exploitant les mêmes outils.

La vision du Chief Digital Evangelist de Salesforce, Vala Afshar, sur les six axes de la transformation numérique 

 http://www.huffingtonpost.com/vala-afshar/6-stages-of-digital-trans_b_9822640.html

Quelques lectures "historiques" pour se rafraichir la mémoire :

"The Digital Economy", Don Tapscott, 1996, McGraw-Hill

"What will be." How the new world of information will change our lives, Michael Dertouzos, 1997, HarperEdge

"The Wealth of networks" How social production transforms markets and freedom, Yochai Benkler, Yale University Press, 2006

Pour les passionnés, "A history of modern computing" de Paul E. Ceruzzi, The MIT Press, 1998, est un régal !

NB : ce blog qui a été lancé en 2005 est en fait une chronique de la révolution numérique qui permet de mesurer l'évolution de la perception


L'impasse française : oser la comprendre pour mieux en sortir

Quelques expatriés japonais qui aiment la France, lassés de voir les rues et squares de Paris mal entretenus, y ont créé une association, les Green birds, qui organise des expéditions de nettoyage collectif. Ce fait, humiliant, est symbolique. Ce pays qui jouit d’une position géographique, d’un climat et d’un patrimoine exceptionnels, suscitant l’envie de toute la planète, perd sa lucidité au point de négliger le fondement même de son attractivité, son aspect physique ! Plus encore, il parait normal à tout parisien fumeur de jeter son mégot au sol car c’est l’expression d’une valeur bien française, la liberté… Et ne paye-t-on pas des impôts pour exercer ce droit inaliénable, même au risque très peu probable  de devoir payer 68 € d’amende?

La France vit sans cesse le grand écart entre l’expression bravache de grands principes qui ont fait sa réputation et une incapacité très concrète à les mettre en pratique. C’est sûrement pour mieux concrétiser nos valeurs que le chef de l’Etat a cru nécessaire de créer un secrétariat d’Etat à « l’égalité réelle » qui doit être un cas unique dans les 193 états membres des Nations Unies !

Les causes sont… ailleurs !

La France vit avec beaucoup de difficultés un double changement historique: une perte d’influence mondiale et un ralentissement durable de son économie. Ces deux tendances lourdes se traduisent par une réduction de la population en emploi et donc du revenu disponible, alors que les frais de structure d’un grand territoire, morcelé en une multitude de collectivités, restent identiques. Cet effet ciseau a des conséquences immédiates : poids des transferts sociaux, dégradation des infrastructures, alourdissement des déficits. L’économie française, privée des armes classiques des pays en difficulté – la dévaluation, l’inflation, l’accroissement sans limite des déficits –, incapable, faute de consensus, de résoudre quelques problèmes structurels récurrents, est paralysée et ne progresse plus. Plutôt que d’en comprendre les causes, la classe politique, soutenue en cela par une partie notable de l’opinion, préfère s’en tenir à une vision archaïque de la défense du « modèle français », voir même, sans hésitation, du « génie français »[i] remis au goût du jour par tous les partis.

Dans cet exercice récurrent d’autojustification, dont le débat sur la loi Travail offre un florilège, le reste du monde s’acharne à attaquer la France dans ses valeurs républicaines et la superbe de son modèle. Bruxelles, l’euro, les Etats-Unis, l’inflexible Allemagne ou la perfide Albion, la Silicon Valley et l’immonde hydre du GAFA, la Chine avec ses industriels copieurs et ses salaires bradés, constituent une coalition hétéroclite mais efficace au service de la mondialisation, bras armé d’une revanche contre la France éternelle, celle de la joie de vivre, de l’humanisme, des valeurs du XVIIIe siècle. Qu’on soit nationaliste, populiste, écologique, de gauche ou de droite, on partage largement le sentiment que si nous trainons la patte dans la plupart des classements mondiaux, c’est parce que l’arbitre est clairement du côté de l’adversaire. Comme le répètent à l’envi nos dirigeants, la France est un « grand » pays qui ne mérite certes pas ce sort. Mais comme le disait le très regretté Pierre Desproges, nous n’y sommes pour rien parce que, simplement, « les étrangers sont des cons », sentiment largement répandu dans tous les bistrots de France.

La loi d’airain des classements

Mesurer la situation réelle de la France en termes de situation économique, éducative, technologique, sanitaire n’est pas très difficile. Les organisations de l’ONU, l’OCDE, le FMI publient des statistiques et analyses qui sont corroborées par des études menées par des organismes privés comme le Word Economic Forum. De cette masse d’informations, il ressort que le recul de la France est réel et se mesure sur une série d’axes objectifs.

Avec moins de 1% de la population mondiale, et un PIB de 2423 milliards $ en 2015 qui la classe au 6e rang mondial, la France n’est que 21e pour le PIB par habitant. Chaque France vit beaucoup moins bien qu’un Suisse, dont le PIB est 2,2 fois le sien, qu’un Suédois (1,3 fois supérieur) ou qu’un Canadien (1,2 fois) sans parler des britanniques ou des allemands. Au classement mondial de l’IDH (indice de développement humain), qui intègre le PNB par habitant, le niveau d’études et l’espérance de vie à la naissance, la France est 22e. Cette réalité chiffrée contraste avec les chants de gloire de nos gouvernants successifs.

Faire une liste exhaustive des preuves de ce déclin de long terme serait impossible. Mais au-delà des indicateurs significatifs de résultat, qui traduisent l’impact actuel de décisions anciennes, il faut aussi s’intéresser aux indicateurs qui traduisent une capacité à faire, qui conditionne les résultats futurs.

Une des clefs de l’avenir économique est la maîtrise des composants de la société numérique. Parmi ceux-là, figurent les réseaux de télécommunications haut débit et les logiciels. Selon le rapport 2015 sur les technologies de l’information du World Economic Forum, la France occupe le 26e rang mondial pour son degré de préparation à intégrer les technologies numériques (indice NRI : Networked Readiness Index). La France souffre d’un handicap en matière de couverture de son territoire en haut débit, fixe et mobile. Ce fait est reconnu et chaque gouvernement en fait une priorité… L’objectif d’Eric Besson, secrétaire d’Etat à l’économie numérique, était ainsi, en avril 2008, de « donner à l'ensemble de ses concitoyens et pour chacun des territoires l'accès à l'Internet haut débit fixe et mobile, ainsi qu'à la télévision numérique terrestre, à l'horizon 2012 ». Le plan Très haut débit de Fleur Pellerin dit en 2013 la même chose, pour… 2022. Après avoir bien réussi le déploiement de l’ADSL, la France a négligé le haut débit fixe et se situe en 2016 au 26e rang mondial pour le raccordement en fibre optique et 59e pays mondial pour le taux de couverture en 4G.

Le second sujet d'avenir est l'éducation. Dans une économie où le  niveau scientifique et technique va être de plus en plus exigeant, l'éducation est le facteur clef de compétitivité. L’enquête PISA de 2013 montre une dégradation du niveau des élèves français au cours des dix dernières années en mathématiques où les performances se situent désormais dans la moyenne. Plus encore l'école française est de plus en plus inégalitaire.  L’origine sociale des enfants dans leurs résultats pèse plus en France que dans les autres pays de l’OCDE. De manière générale, l’inégalité de la différence de niveau entre les élèves croît en France depuis 2003 ! Chiffre très révélateur : la proportion d’élèves issus de l’immigration se situant au dessous du niveau 2 en mathématiques atteint 43 % en France et ne dépasse pas 16% en Australie et au Canada. Le retard de l'apprentissage en France est largement reconnu et chaque gouvernement s'en indigne, sans résultat. En matière d’informatique scolaire, en l’attente périodique d’une « grand plan numérique pour l’école », qui se résume le plus souvent à des équipements, les résultats des enquêtes de l’OCDE, qui situe la France légèrement au dessus de la moyenne, démontrent qu’il n’y a pas de miracle numérique et l’impact de l’usage des outils numériques est d’autant meilleur que les enseignants sont formés et les programmes adaptés.

Il n’y a que sur le plan démographique que la France qui jouit d’un système reconnu de soutien à la petite enfance atteint un taux de fécondité constamment proche de 2, le meilleur de l'Union européenne avec l'Irlande, qui écarte tout risque de vieillissement prématuré, même si le vieillissement biologique inévitable des baby-boomers va se traduire par une augmentation importante des plus de soixante ans dans la population, avec les dépenses de santé inhérentes à cette tranche d’âge.

Changer, mais comment ?

Depuis vingt ans les rapports s'accumulent,  les ouvrages se multiplient, les rayons croulent sur les solutions de chaque homme politique mais la situation continue à se dégrader. Ce n'est donc pas dans les constats et les programmes que se situe "la" solution. Il faut donc admettre enfin qu’il faut réagir individuellement. Nous ne pouvons plus glisser sur la pente fatale de l’appauvrissement en attendant un miracle venu "d'en haut", homme providentiel ou situation magique. Le sursaut ne peut venir que d'une envie partagée de ne pas se résigner au déclin.

Toutefois cette réaction individuelle peut aussi être  un constat d’échec collectif, motivant un départ de la France. Beaucoup de Français, lucides et actifs mais impatients, préfèrent quitter ce pays pour aller développer leurs talents ailleurs, Londres, la Californie, l’Australie, ou le Canada. Les retraités partent au Portugal ou au Maroc au risque de se désocialiser. Si ce phénomène est largement médiatisé, il ne bouleverse pas encore les équilibres fondamentaux puisqu'il n'y a officiellement que 1,566 million de français recensés à l'étranger, chiffre certes en hausse de 17% entre  2006 et 2013, et surtout au profit des pays proches comme la Suisse, la Grande-Bretagne, la Belgique... Toutefois, ce qui est le plus préoccupant dans ce flux de départ, c'est qu'il touche de plus en plus les jeunes diplômés.

Rester pour construire un avenir meilleur en France est la solution la plus simple et la plus évidente. Avant, toute mesure technique fiscale ou sociale, c'est la confiance sur la capacité collective des Français de faire face aux problèmes par un désir de renouveau et d'engagement qui peut stimuler cette motivation. Retrouver une place acceptable dans les classements mondiaux sera un résultat ultérieur heureux de cette capacité de réaction retrouvée.

Or ce pays a la capacité d’offrir à tous les entrepreneurs et à tous les entreprenants le territoire de leurs ambitions.

La France dispose de tous les moyens techniques pour prendre toute sa place dans la société numérique. C’est bien en misant totalement sur les technologies numériques, qu’elles soient exploitées dans les industries classiques ou déployées dans des usages nouveaux. Il ne faut plus chercher à corriger les défauts structurels de notre modèle économique, il faut résolument tourner la page du XXe siècle, car le modèle a totalement changé, pour attaquer les sources de richesse et d’influence futures. Elon Musk dit que « le passé est notre plus mauvais conseiller « .

Le changement est scientifique et technique. Le numérique, omniprésent, aide à redéfinir les standards de performance dans tous les secteurs, agriculture, industrie, services et service public. On peut, partout, faire mieux, plus vite et moins cher. Mais de peur de déstabiliser des processus établis depuis longtemps, qui ont figé les hiérarchies, les normes, les contrôles, les modèles de management, dans le modèle antérieur du productivisme industriel, on - et derrière ce « on » anonyme il est possible de mettre beaucoup de gens - diffère les changements. On plaide pour les réformes alors que chacun s’enferme dans le conformisme prudent et paresseux. Tout le monde sait qu’il faut simplifier les règles, partout. Et il est très commode d’incriminer le seul secteur public alors même que le plupart des entreprises ont réinventé une bureaucratie qui casse l’initiative et valorise le conformisme. Or simplifier implique toujours l’abandon de systèmes inutiles, auxquels sont associés des équipes, des personnes, des dirigeants. Ce sont autant de talents qui pourraient largement être utilisés à mettre en œuvre les innovations qui vont nous permettre de progresser en efficience plutôt que s'acharner à pérenniser des modèles obsolètes.

Industrie-futur371

Intelligence artificielle, sciences cognitives, biotechnologies, énergie décentralisée, automobile à faible consommation, technologies de l’habitat, biotechnologies agricoles, aéronautique, lutte contre le cancer et les maladies neurodégénératives, nouvelles techniques de la confiance ( blockchains…) voici autant de sujets clefs où il faut investir massivement, avec de l’intelligence et des capitaux. Ces thèmes sont traités dans les neufs dossiers de « la nouvelle France industrielle ». Mais il y a encore beaucoup de réticences à abandonner un saupoudrage des moyens. La lisibilité des messages en souffre. Faute de clarté et de simplicité dans les engagements, dans un climat de scepticisme et de défiance, on n'obtient pas de résultats suffisamment rapides et visibles pour en tirer toute l’énergie nécessaire au changement. Les conséquences de cet engagement indispensable pour l'industrie du futur mettront des années à avoir un impact sur l'emploi.. et le moral ! Mais il ne faut pas relâcher cet effort de long terme en cédant au découragement et aux contingences de court terme. 

Car les idées sont là, pertinentes, en phase avec le potentiel scientifique et technique. Et même sur le sujet controversé de  la  baisse des charges, un dispositif lourd a été mis en place. Le CICE (Crédit d'Impôt pour la Compétivité et l'Emploi) organise depuis janvier 2013  une réduction massive du coût de la main-d'oeuvre de l'ordre de 20 milliards €. La mesure a été critiquée pour sa complexité. Néanmoins rien ne permet d'enrayer le chômage de masse dont les causes sont anciennes, profondes et complexes. Les messages positifs ne suffisent pas à écarter les nuages alimentés par un climat morose et le manque de puissance des discours politiques.

Les gouvernants ne sont certes pas responsables de l’embauche individuelle. Mais leur stratégie doit contribuer à desserrer les freins qui pèsent sur la décision individuelle. On constate que les grandes réformes ne fonctionnent pas vite et butent sur les contraintes de court terme, trésorerie, carnet de commande, contexte économique mondial. Les entrepreneurs persistent à penser qu'embaucher est difficile et contraignant. Or la compétitivité ne se décrète pas. C'est un travail  de longue haleine qui porte sur la qualité de l'offre, sur l'image de marque, sur la qualité des services, les prix n'étant qu'un facteur parmi tous les éléments qualitatifs qui influencent les clients.

Il faut donc avancer sur le plan macroscopique en déminant les obstacles de façon pragmatique et décentralisée sur les sujets qui conditionnent les performances économiques futures, et donc la qualité et la standard de vie : formation, notamment en alternance, embauche des jeunes; soutien aux jeunes entreprises, renforcement des liens entreprises-écoles-universités,  innovations dans le domaine de la santé. L'économie est au coeur de la réussite d'un pays même si les sujets sociétaux peuvent se réveler  mobilisateurs pour stimuler  l'innovation et l'investissement, comme la lutte contre l'accidentologie routière ou le cancer. 

Mais plus que toute grande stratégie de réforme, lente et complexe, l'économie française doit se réinventer sur une base décentralisée, fondée sur les initiatives locales et l'entrepreneuriat. Les grandes entreprises à vocation mondiale peuvent y contribuer efficacement en soutenant les écosystèmes par un flux de commandes, de prises de participation dans les start-up, de prêt de personnel qualifié. Il ne faut pas attendre de réformes globales pour commencer à se prendre en charge. Tout repose sur un sursaut individuel. Maintenant. 

 

Sources et références

https://fr.wikipedia.org/wiki/Green_Bird

[i] Marie-Noëlle Lienemann, Le Monde, 25 mars 2016


Le numérique est aussi une révolution managériale

http://www.labourseetlavie.com/videos//debat-economique/jean-pierre-corniou-directeur-general-adjoint-sia-partners-un-des-enjeux-c-est-aussi-de-changer-les-methodes-manageriales,2247.html#.Vq87HYnChz8.twitter

 

 

Une vue historique

https://www.youtube.com/watch?v=dmTOMxwil4g&list=PLNAnUl_bnDUfp7gGdPRyLchNQU3T_GOZV&index=7


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Décryptages du CES, suite...

On peut faire une première lecture du CES. Elle est déjà stimulante ! Elle consiste à lire en direct le flot des innovations techniques servi par la forme brillante que savent déployer les entreprises américaines. C'est le temps de l’enthousiasme. Il y a un second niveau de lecture, qui n'est plus dans le "quoi" de la révolution numérique mais dans le "pourquoi". A chaque étape de la remise en cause du système socio-technique, les humains ont cherché à comprendre le pourquoi de ce changement qui allait bouleverser leur vie, souvent d'ailleurs de façon tacite. Evidemment c'est une phase de questionnement et de doute. Le marketing du strass et des paillettes n'a plus cours : il faut trier ce qui est pertinent pour la vie des humains et qui va rester.  C'est le temps de la lucidité...

Le CES constitue une chambre de résonance exceptionnelle où se mêlent les histoires  des produits,  des entreprises et des entrepreneurs qui produisent l’économie numérique. Les key notes  en sont les amplificateurs. Le talent de communicateur des dirigeants invités est servi par des moyens techniques qui assurent une orchestration parfaite de l’histoire qu’ils ont choisi de raconter. Le casting de ces key notes est aussi révélateur du poids accordé par la CTA – Consumer Technology Association– à chaque entreprise et à chaque tendance structurante de la révolution numérique. La puissante CEA qui organise le CES, sous la férule de son dynamique président, Gary Schapiro,  a changé de nom cette année en abandonnant l’appellation historique de Consumer Electronics Association pour remplacer Electronics par Technology, ce qui illustre parfaitement le changement de positionnement du CES. La CTA demande d’ailleurs de ne plus décliner l’acronyme, l’évènement CES dépassant désormais largement les frontières du monde de la consommation.

Ces symboles savamment distillés traduisent bien l’évolution du CES. Naguère grand salon du son et de l’image, c’est aujourd’hui plus qu’un vaste marché. C’est un carrefour de rencontres, un lieu où s’expriment les tendances mondiales du marché. Derrière la force de ces démonstrations et l’habilité du spectacle, toujours réussi, il faut tenter de décrypter les messages porteurs de sens pour la grande histoire de la construction numérique dont nous sommes les témoins en temps réel. Car le CES provoque aussi un effet de halo qui projette des tendances sans lendemain. La montée et la chute de la télévision en 3D en sont un exemple récent. Au-delà des spectateurs immédiats, c’est le marché et les investisseurs qui sont les destinataires de ces messages. Les 3500 journalistes présents assurent une couverture médiatique unique à l’évènement. Emmanuel Macron à Las Vegas, surtout quand il intervient dans une key note, devient une star mondiale. La Poste présente au CES, c’est un message très fort qui a un retentissement majeur en France. Le détour par Las Vegas est un amplificateur de renommée, et un accélérateur d’affaires, surtout quand on y est couronné par un Award.

L’édition 2016 a vu apparaître plusieurs nouveaux venus - Reed Hastings, CEO de Netflix, Herbert Diess, CEO de Volkswagen, Mary Barra, CEO de General Motors, Ginni Rometty, CEO d’IBM, Robert Kyncl, Chief Business Officer de YouTube – relayer les habitués.

Si Diess était plus dans la contrition que dans la démonstration, Brian Krzanich CEO d’Intel est intervenu pour une seconde présentation  très « hype » pour démontrer qu’Intel est tout à fait  engagé dans l’internet des objets. IBM qu’on ne voit jamais est obligé de démontrer que son choix stratégique d’abandonner le matériel au profit des logiciels et des services de l’intelligence artificielle est justifié, alors que le chiffre d’affaires ne cesse de régresser. Mary Barra, qui remplaçait Ford un grand habitué du CES, a fait une démonstration sans révélation de l’intérêt de GM pour le véhicule électrique en présentant son dernier modèle.

La thématique majeure de tous ces acteurs est de montrer que le monde numérique constitue un ensemble homogène où tout – personnes et objets – est connecté. Cette omni-connexion n’a qu’un but : améliorer le sort de l’humanité. Cette affirmation, constante, ne souffre d’aucune limitation. Gary Shapiro admet bien toutefois que les « bad guys » peuvent aussi tirer profit de cet univers connecté. Mais cela ne doit en rien ralentir l’enthousiasme – « amazing » reste le maître mot -  et surtout justifier un interventionnisme gouvernemental.

Bien entendu les messages commerciaux ne sont jamais loin. Il faut convaincre les consommateurs et les investisseurs de la pertinence de la vision stratégique. Pour un Français, l’excès de publicité peut l’emporter sur la pertinence stratégique du message. Ce point a été notamment évoqué pour Netflix, qui n’a pas hésité à en rajouter pour montrer qu’Hollywood, désormais, c’était eux, en convoquant force acteurs et bandes annonces, ou pour Intel dont les invités multiples n’ont pas été avares de louanges pour expliquer que sans Intel, la musique, les drones, la mode et même la banque ne seraient pas les mêmes. La palme de la sobriété a été décernée à Samsung qui distillant le même message – nous sommes la plate-forme de référence – l’a fait avec méthode et pédagogie.

Trois idées fortes et partagées émergent de ces discours et de ces images:

  • Plus personne ne réussit seul. Le temps est à la coopération.
  • Laisser parler clients et partenaires, ils sont plus convaincants que vous pour expliquer que la coopération est indispensable
  • La disruption c’est vraiment mettre le client au cœur de son attention, et donc du business. Pour parler au client, il ne faut pas hésiter à se défaire de toute intermédiation. Il faut toujours se positionner au plus près du client de peur que quelqu’un d’autre le fasse.

L’éloquente démonstration de Netflix, au-delà du discours promotionnel, était centrée sur le caractère vital de la maîtrise technique pour être capable de servir le client.

Frank_Underwood_-_House_of_Cards

Oeuvre phare qui a lancé vraiment Netflix

Reed Hastings a expliqué comment, d’entreprise de vente par correspondance, mettant des DVD dans des enveloppes, Netflix est devenu producteur et diffuseur de contenus dans le monde entier. C’est par la maîtrise du video streaming, sur tous les réseaux, tous les formats d’écran qui a permis à la plate-forme de rentrer directement chez le client, et d’en connaitre les moindres réactions face au contenu diffusé. C’est cette connaissance intime, millimétrée, des clients qui permet à Netflix de devenir producteur de contenus à succès. Dès lors Netflix peut s’affranchir des autres producteurs de contenus en maîtrisant parfaitement toute la chaine de valeur. La leçon s’applique à tout acteur qui loin en amont du client dépend de l’improbable bonne volonté des intermédiaires pour améliorer sa performance. Il y a ainsi une forte aspiration vers l’aval des producteurs qui ne peuvent plus camper sur leur positionnement B2B historique.

Mais ce mouvement vital n’est pas à la portée de chacun. La culture interne, le poids des processus, la résistance des intermédiaires, l’image institutionnelle empêchent bien souvent de sortir du statu quo, quand ce n’est pas par simple inertie. Malgré ses efforts massifs, Intel a beaucoup de peine à sortir de l’image du couple Wintel et à apparaître comme un acteur majeur du monde de la mobilité contrairement à Qualcomm. Faute de succès rapide dans cette mutation, il tente de devenir incontournable dans le monde de l’internet des objets. Tous les constructeurs automobiles cherchent avec la voiture connectée à se rapprocher du client final en en connaissant les comportements. Mais c’est un mouvement tardif, qui peine à renforcer l’intimité client en hors de quelques constructeurs premium au moment où les clients se passent des constructeurs pour valoriser leurs véhicules par l’autopartage et le co-voiturage.

La leçon du CES 2016 est que le monde de l’internet et du web n’a pas fini de déstabiliser les acteurs en place au profit de nouveaux venus qui en ont compris, dans leur ADN, tous les éléments. L’internet des objets, nouvelle frontière, ne va pas simplifier la tâche des acteurs historiques. Dans tous les domaines, notamment le transport, l’énergie, la santé, la capture de l’information dans les objets en réseau va donner aux acteurs de l’information numérique une place majeure. Curieusement le peu de présence au CES de l’industrie bancaire tend à dissimuler une conséquence majeure de l’internet des objets : la prochaine disparition du cash, déjà largement engagée en Europe du Nord, et sa transformation par des échanges électroniques qui vont donner aux plate-formes de l’internet un rôle prééminent.

Le CES 2016 ne fait que marquer une étape dans la grande restructuration en cours de l’économie mondiale qui, pour l’instant, est dominée par les produits et la culture des Etats-Unis. L’information s’impose comme matière première du service  et de la création de valeur. Elle s’appuie sur les réseaux - internet et les réseaux de l’internet des objets -, le traitement des données, la restitution en temps réel et contextuelle des informations utiles, l’automatisation des processus enrichie par l’intelligence artificielle. Ceux qui comprennent les enjeux de cette nouvelle économie en deviendront, pour un temps, les leaders.

Chacun se bat pour se situer au plus près du client final au carrefour de la création de valeur entre objets, réseaux et service. C’est une quête risquée et passionnante dont l’issue ne peut être qu’incertaine. Derrière les déclarations d’autosatisfaction, savamment distillées, tous les acteurs de l’économie numérique ne peuvent être que lucides : tout peut changer vite. Et seule la vitesse d’action offre le moyen de s’adapter.


Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor