Chine, automobile et tweettrumps vengeurs

Pour comprendre les tensions économiques entre les Etats-Unis et la Chine, il faut mesurer à quel point la Chine est devenue, aux yeux des Etats-Unis, leur seul rival possible. Dans tous les domaines, la croissance de la Chine représente un défi insupportable pour la première puissance économique et militaire du monde qui sait qu'elle ne peut être que rattrapée par le géant démographique qui forme aujourd'hui 39 millions d'étudiants.

TENSIONS COMMERCIALES
Ce que pourrait coûter aux constructeurs européens des tarifs américains augmentés sur l’automobile
 
 

Atlantico : Quel pourrait être le coût de telles sanctions pour le secteur automobile européen ? 

Jean-Pierre Corniou : Dans le superbe ouvrage d’histoire de la diplomatie d’Henry Kissinger, « Diplomatie », écrit en 1996, le tweet n’était pas encore identifié comme arme de destruction massive de valeurs boursières et de déstabilisation de la confiance. Donald Trump aura conféré ces propriétés en quelques minutes à ces 280 caractères qui ont confirmé, entre ses mains, leur caractère redoutablement toxique. Soucieux de défendre l’économie des Etats-Unis, et plus encore leur capacité de domination à long terme de l’économie mondiale, Trump ne recule devant rien. Il a décidé que ses électeurs attendaient de lui cette fermeté virile, quelles qu’en soient les conséquences. Il faut bien admettre que le déficit commercial des Etats-Unis, qui a atteint 681 milliards $ en 2018, soit 3% du PIB, représente un problème économique et politique, rendu toutefois supportable par l’usage du dollar comme réserve de valeur et monnaie de transaction. Plus encore, l’importation de produits, ou moins cher, ou de meilleure qualité, répond aux besoins du marché et se traduit globalement par une baisse des prix. Taxer les produits importés est un aveu de faiblesse qui traduit la faible compétitivité de l’industrie américaine sur les produits industriels de consommation. En effet, le déficit américain se concentre sur les produits manufacturés, soit 891 milliards $ de produits de consommation, de biens électroniques, d’automobiles. L’impact de ce déficit en emplois perdus est estimé à 3,4 millions d’emplois. Pour Trump, accusant ses concurrents, Chine et Europe en tête, de pratiques déloyales et frauduleuses,  recréer des emplois industriels, c’est d’abord, à tout prix, réduire le déficit commercial.

Qu’a donc écrit de nouveau le président Trump dans ses deux tweets  du 5 mai ? il a rappelé que grâce à ses mesures protectionnistes, la Chine avait payé en dix mois 25% de droits de douane sur un montant de 50 milliards $ de produits Hi-Tech and 10% sur 200 milliards d’autres produits. Il considère que cela contribue aux remarquables résultats économiques des Etats-Unis. Pourquoi s’arrêter en si bon chemin ?  Alors même qu’une délégation chinoise, forte de 100 personnes, était attendue à Washington pour conclure les négociations en cours par un accord commercial, il a annoncé qu’il se donnait le moyen de faire grimper ces taux de 10% à 25% sur un montant de 200 milliards $ de produits chinois dès le 10 mai. Plus encore, il annonce la possibilité de taxer à court terme à 25% un montant additionnel de 325 milliards $, ce qui couvrirait tous les produits chinois importés aux États-Unis. Or ces taxes sont payées pour une grande part par les entreprises américaines implantées aux États-Unis qui vont les répercuter sur leurs prix de vente.

Ces menaces s’inscrivent dans une série de mouvements qui depuis un an visent à réduire le déficit américain vis-à-vis de la Chine à la fois par des menaces et par des négociations. Dans une première étape, Trump a imposé en avril 2018 une réduction de 100 milliards de déficit, puis un mois plus tard de 200 milliards.  A chaque action unilatérale des Etats-Unis, comme la menace du 3 avril 2018 d’imposer 25% de taxes sur les produits électroniques et les équipements chinois, répond dans l’heure une décision chinoise de même nature. Le 2 mai, la Chine annule ainsi tous les contrats d’importation de soja américains, privant ainsi les fermiers américains de la moitié de leurs exportations. Mais la Chine accepte le 21 mai de réduire de 25% à 15% les droits sur les importations de véhicules américains en Chine. Le 6 juillet les droits de douane américains sont effectivement mis en place sur 34 milliards d’importations chinoises, et la Chine riposte en augmentant à nouveau les droits sur les véhicules américains à 40%. Cette mesure a peu d’impact car les constructeurs américains préfèrent produire moins chers leurs véhicules en Chine et d’ailleurs Tesla a immédiatement annoncé construire une usine à Shanghai pour éviter ces droits de douane !

 

Cette guérilla est peu productive pour les deux parties. Néanmoins, la Chine dispose des moyens économiques de limiter l’impact de ces mesures sur son économie, plus que les États-Unis très dépendants de produits fabriqués en Chine. D’ailleurs, malgré cette atmosphère de guerre commerciale, les exportations chinoises aux États-Unis ont augmenté, en 2018 de 11,3%, alors que les États-Unis n’ont pas réussi à dépasser 0,7% de croissance de leurs exportations en Chine. De ce fait, l’excédent commercial chinois a cru en 2018 de 17% pour atteindre 323 milliards $, soit l’excédent le plus important de la décennie.  Le dernier coup de poker de Donald Trump, visiblement destiné à peser sur la négociation en cours, risque de profondément irriter la partie chinoise et d’être inutile. En effet, lors du sommet du G7, Xi Jinping et Trump s’étaient entendus pour négocier sur 142 points, comme la cybersécurité, la propriété intellectuelle, la technologie, le taux de change, l’agriculture. Remettre en cause sans cesse els accords est contre-productif et démontre un manque de confiance préjudiciable à la négociation avec la partie chinoise. Xi Jinping dispose en effet de plus de ressources politiques pour faire face à une telle situation.

Les conséquences sur l’automobile de cette menace sont très faibles pour l’industrie chinoise qui n’exporte pas aux États-Unis mais le sont pour les constructeurs occidentaux, américains, comme GM avec la Buick Envision ou la Cadillac hybride CT-6, et allemands, implantés en Chine et qui commencent à exporter les véhicules qu’ils y produisent vers les États-Unis. En 2018, 50 000 véhicules fabriqués en Chine ont été exportés aux États-Unis contre 250 000 des États-Unis vers la Chine, dont 50 000 BMW. Si les volumes de véhicules produits en Chine et exportés aux USA sont encore faibles, c’est un mouvement prometteur pour les constructeurs, notamment avec les véhicules électriques et hybrides, qui risque d’être cassé. D’ailleurs, cette politique punitive des Etats-Unis se retourne contre eux puisque les les flux d’exportation des USA vers la Chine se sont réduits de 50% fin 2018 et au premier trimestre 2019 à cause des droits de douane chinois de 40%. Ainsi, BMW n’exporte plus le X3 de son usine de Caroline du Sud. En 2017, BMW avait exporté 100 000 véhicules des Etats-Unis vers la Chine. De façon générale, les Etats-Unis ont connu en 2018 une baisse de leurs exportations d’automobiles de 16,6%.

Dans le cas ou Donald Trump venait à imposer des tarifs aux automobiles importées aux Etats-Unis en provenance d'Europe, quel en serait le coût pour nos constructeurs européens ? Sont-ils en mesure de le supporter ? 

L’économie de l’automobile, solidement construite autour des constructeurs nationaux à la fin de la seconde guerre mondiale, s’est graduellement ouverte à la concurrence pour constituer un écosystème mondial dont tous les composants sont désormais interdépendants. Le moteur de cette structuration internationale de l’industrie autour de grands groupes transnationaux a été l’abaissement des droits de douane. Aucun constructeur national n’est en mesure de se passer de fournisseurs étrangers. De même aucun constructeur ne peut survivre sans exporter, à l’exception notable du marché chinois qui jusqu’alors, contrairement à la Corée et au Japon, a pu se développer grâce à son immense marché intérieur sans exporter plus de 3% de sa production. Or la moitié des véhicules venus en Chine le sont par des co-entreprises où les constructeurs occidentaux jouent un rôle essentiel. Pour GM, la Chine est devenue son premier marché dépassant les Etats-Unis en volume.

L’Allemagne est, en 2018, le premier exportateur mondial de véhicules avec un montant de 154 milliards $, soit 20% du total mondial. Elle est naturellement la plus exposée par toute mesure qui pourrait altérer ses flux d’exportation, même si elle a constitué en Chine et aux États-Unis de solides bases industrielles. Le déficit commercial des États-Unis avec l’Allemagne en 2018 est de 68 milliards $ et de 67 milliards $ avec le Japon. L’automobile en constitue la plus large part.

L’acharnement de Trump a vouloir régler les problèmes d’emploi aux Etats-Unis par les droits de douane ne règle pas la question de la capacité de l’industrie américaine à produire ce que réclame les consommateurs américains. Les diatribes de Trump contre les « Mercedes de la 5e avenue » n’empêcheront pas les consommateurs d’acquérir ces véhicules, même rendus plus chers par les taxes. On voit bien que l’industrie automobile est désormais totalement mondialisée et sait transférer rapidement les productions d’un pays à l’autre. Jouer sans cesse avec les droits de douane se révèle vain car les constructeurs s’adaptent vite au détriment des pays d’implantation.

Plus spécifiquement, quels pourraient en être les effets directs ou indirects sur les entreprises françaises ? 

Les constructeurs français ne sont pas exposés aux Etats-Unis où ils n’exportent plus depuis fort longtemps. La France est le dixième exportateur mondial d’automobiles avec un montant de 25 milliards $, soit 3,4% du volume global.

L’Alliance pourrait être touchée pour la partie des véhicules Nissan et Mitsubishi exportés du Japon. En revanche les équipementiers français, comme Valeo, Michelin, Faurecia, Plastic Omnium qui travaillent aussi bien en Chine qu’aux États-Unis pourraient subir l’impact de la baisse des volumes de production de véhicules. L’interdépendance des marchés, la flexibilité des constructeurs, dépassent désormais les territoires nationaux mais les mesures protectionnistes atteignent directement l’emploi des travailleurs qui ne sont pas aussi mobiles que les productions.

 

Présentation de mon dernier livre "Quand la voiture du XXIe siècle sera chinoise" qui analyse les ressorts d cela performance chinoise en automobile..

 

"https://bfmbusiness.bfmtv.com/mediaplayer/video/jean-pierre-corniou-et-la-voiture-du-xxieme-siecle-sera-chinoise-aux-editions-marie-b-0605-1159309.html

 


L'énergie (seule) question d'avenir ?

S’il est un grand débat essentiel, c’est bien celui de l’énergie… Depuis la maîtrise du feu il y a 400 000 ans, l’homme n’a dû son salut qu’à la maîtrise de l’énergie. Cette quête continue est à l’origine de beaucoup de tensions, de conflits, de drames. Tchernobyl et Fukushima ne doivent pas faire oublier Courrières. Si appuyer machinalement sur un interrupteur pour obtenir sans effort de la lumière ou de la chaleur apparait tellement évident à l’homme moderne, cette banalité est bien récente et est encore ignorée par plus de 600 millions de terriens. S’il est une injustice fondamentale, c’est bien celle-ci !

IMG_4642

Le propre du progrès est de devenir tellement installé dans notre vie quotidienne que personne ne se préoccupe plus de ses bénéfices. Mais  il suffit d’un banal incident climatique, une tempête  ou une chute de neige, pour que la vérité éclate : sans électricité, Homo Sapiens 2019 est aussi nu que ses lointains prédécesseurs. C’est dire que cette vulnérabilité extrême de notre civilisation à la disposition abondante, facile et économique d’énergie, est une caractéristique de notre époque, aussi cruciale que silencieuse.

 

C’est pourquoi le plus grand des débats aurait dû être celui sur la loi de programmation pluriannuelle de l’énergie, la PPE. Or si le débat public a bien été organisé entre mars et juin 2018  et a donné lieu à la publication d’un rapport en septembre 2018 et d’un compte-rendu d’une extrême richesse, les conclusions présentées par la Président de la république le 27 novembre 2018 ont été atténuées par l’irruption des Gilets Jaunes dans le débat sur la transition énergétique. Or la politique de l’énergie, par son caractère transversal, est la matrice dans laquelle vont se fondre toutes les politiques sectorielles et notamment les politiques sociales. Le coût de l’énergie est en effet un des paramètres clefs du pouvoir d’achat. La politique de l’énergie est donc, par nature, essentielle et doit continuer à faire l’objet d’une ample réflexion, d’autant plus que les décisions sur la continuation du programme nucléaire français ont été repoussées à 2021. Or notre relation passionnelle au nucléaire exige une véritable mobilisation de tous les acteurs pour faire émerger un consensus aussi lucide qu’acceptable.

 

Aussi, c’est tout le mérite de la Fondapol d’avoir réuni le  6 février une série d’experts pour réfléchir  sur le retour de « la fée électricité » et de publier simultanément cinq  nouveaux documents sur l’énergie électrique pour animer le débat public.  Sous le titre « Impératif climatique : le retour de la fée électricité »,Fondapol offre à cinq experts l’opportunité de faire un point complet sur notre relation contemporaine à l’électricité.

 

« Une civilisation électrique », d’Alain Beltran et Patrice Carré, nous rappelle que pendant des siècles l’homme était un piéton vivant une grande partie du temps dans l’obscurité. Or l’électricité est lumière, chaleur, mouvement. Entre 1880 et 1970, l’électricité a incarné cette modernité qui a profondément transformé la société française, englobant villes et campagne dans un espace uni par un accès égalitaire à l’électricité en tous points du territoire.  Elle apporte le confort domestique dans les années cinquante par l’électro-ménager qui révolutionne la vie quotidienne. Le XXIe siècle redécouvre l’électricité grâce au numérique, à l’image, aux medias, et au début d’une mobilité électrique individuelle.

 

Dans « vers une société post-carbone »,  Patrice Geoffron rappelle les ambitions de l’Accord de Paris de 2015. La COP 21 engage les Etats vers une convergence des efforts pour limiter à 2° l’augmentation de la température du globe d’ici 2050 avec une réduction par trois des émissions  de CO2. Loin de résoudre toutes les questions posées lors de la COP 21, cet Accord induit une dynamique qui doit être régénérée chaque année, tant les enjeux économiques et sociaux sont tendus. La complexité de la mise en œuvre des politiques de décarbonation implique des ruptures techniques dans la production d’énergie bas carbone comme des profonds changements comportementaux. Il faut apprendre les vertus du « négawatt », car consommer moins est plus accessible que produire mieux..

 

Dans « Energie-climat en Europe : pour une excellence écologique », Emmanuel Tuchscherer pointe la responsabilité particulière de l’Europe dont est partie la révolution industrielle carbonée dans la transition énergétique.  Les trois « D » qui composent la politique de transition énergétique sont  ceux de décarbonation, décentralisation et digitalisation  des systèmes énergétiques. La sobriété énergétique est le mantra de la stratégie climatique de la Commission européenne. Elle s’accompagne d’une vigoureuse stratégie d’innovation qui doit redonner à l’industrie européenne une motricité mondiale dans la maîtrise des défis techniques , que ce soit dans la production d’énergie bas carbone, où le gaz aura également une place, que dans les usages innovants du bâtiment et de la mobilité.

 

Se pose enfin la question crucial du coût ! Jacques Percebois explique dans « Prix de l’électricité : entre marché, régulation et subvention » que si l’électricité n’est pas un produit comme les autres, la pratique de «l’optimum tarifaire» a permis à l’entreprise monopolistique EDF de remplir son contrat entre 1946 et 1996 en garantissant continuité de service, égalité de traitement des usagers et maintien de coûts compétitifs. L’introduction de la concurrence dans le cadre européen, a conduit à la mise en place, à travers les trois « paquets énergie », d’un système qui tempère la concurrence par le concept d’infrastructure essentielle qui garantit aux acteurs un accès équitable aux ressources et régule le transport et la distribution. Mais outre cette complexité économique, c’est sur le plan technique que les marchés ont rencontré une nouvelle difficultés avec l’introduction massive des énergies renouvelables, solaires et éoliennes, dont la disponibilité n’est pas garantie. Pour favoriser ces nouvelles filières, une obligation d’achat a été introduite à un prix garanti fixé par l’Etat.


Le blog, outil du XXe siècle ?

Je reste fidèle à ce blog que j'ai crée en octobre 2005. Pour le plus jeunes lecteurs , l'iPhone n'existait pas, le web faisait encore débat dans les entreprises, et le sujet majeur était la puissance du PC et des ordinateurs centraux... Se lancer dans un  blog, alors que l'écriture oblige, était perçu comme audacieux. Car c'est un vrai travail d'écriture, pas l'expression hâtive d'une pensée explosive... En un peu plus d'une décennie, le monde  vraiment changé et la relecture des 331 notes, soit un peu plus de 3 millions de caractères , qui composent ce blog permet de comprendre ce qui s'est passé... Enfin, d'aborder le début du commencement de la compréhension car tant de facteurs s'entremêlent pour constituer la trame organisationnelle, sociale, technique, comportementale du fonctionnement de la société... En  14 ans la Chine est passée du stade d'usine du monde, avec une réputation moyenne, à celui d'outsider crédible dans le leadership scientifique et technique. L'Europe s'enfonce dans un déclin annoncé et les Etats-Unis ne valent guère mieux, malgré la protection que leur procurent leur puissance militaire et leur unité continentale. Si les réseaux sociaux permettent une réaction instantanée, le blog est un outil d'approfondissement qui répond aux questions de fond que Facebook soulève... Je resterai donc fidèle au blog et je remercie les milliers de lecteurs qui ont participé à son succès : le seuil des 250 000 pages vues a été franchi début janvier, le rythme de 50 pages vues par jour se maintient... 51,36 pages vues chaque jour en 14 ans, c'est une prouesse. Merci à tous ceux qui le rendent possible !

POur mémoire, les innovations de 2005 vues par CNN

  1. The Internet
    2. Cell phone
    3. Personal computers
    4. Fiber optics
    5. E-mail
    6. Commercialized GPS
    7. Portable computers
    8. Memory storage discs
    9. Consumer level digital camera
    10. Radio frequency ID tags
    11. MEMS
    12. DNA fingerprinting
    13. Air bags
    14. ATM
    15. Advanced batteries
    16. Hybrid car
    17. OLEDs
    18. Display panels
    19. HDTV
    20. Space shuttle
    21. Nanotechnology
    22. Flash memory
    23. Voice mail
    24. Modern hearing aids
    25. Short Range, High Frequency Radio

 


Où vont les technologies de l'information ? Le CES 2019 confirme les tendances...

Les grands enseignements du CES 2019

 

Capture d’écran 2019-02-05 à 17.11.11

Image d'un temps révolu sur le stand RCA

Le CES a toujours été, depuis sa création à New York en 1967, un marché où se pressent les acheteurs du monde entier pour y dénicher des nouveautés. Mais il est devenu aujourd’hui, en abandonnant le terme « consumer » en 2017, le lieu de convergence de tous les acteurs de la société numérique, c’est à dire de toute l’économie… Mais chaque nouveau CES, qui bénéficie avec 6500 journalistes d’une couverture presse mondiale sans égale, soulève immanquablement la question : quelles sont les nouveautés de cette année ? Les CES Awards incitent à distinguer dans cette masse de produits ceux qui marquent un véritable gain pour les consommateurs et pour la société.  Toutefois, douze ans après l’irruption du smartphone, il est devenu évident qu’une innovation isolée ne peut plus, à elle seule, changer le paysage technologique. Il faut désormais ne plus se contenter d’une vision pointilliste de l’innovation, mais analyser l’évolution systémique de la transformation numérique et mesurer sa vitesse de pénétration dans chacun des grands secteurs de la société, comme dans chaque plaque régionale mondiale.

Le virage pris par la CES depuis quelques années se confirme largement en 2019. Il s’agit de présenter la transformation numérique par grands secteurs d’activité, cette mutation étant rendue possible par la consolidation d’un socle technologique transversal et cohérent sur lequel s’appuient toutes les transformations sectorielles. Les conférences y jouent un rôle de plus en plus important. 1100 intervenants y ont échangé leurs points de vue cette année au cours des sessions regroupées en 21 thèmes, ainsi que lors des fameux « corporate keynotes ».

Il faut aussi noter en 2019 la confirmation, dans ce haut lieu de la technologie tout puissante, d’une interrogation inquiète sur les limites d’une approche purement technologique.  Dans un contexte sociétal qui remet en cause la marche en avant forcée vers une technologie et des acteurs tous puissants, ce questionnement a pris en 2019 une place majeure.

 

La transformations de la production et des services

 La palette de sujets proposés en 2019 par la CES est large. Elle affiche cette nouvelle réalité : tout objet est désormais connectable en réseau et devient de fait un composant d’un système qui collecte et distribue de l’information. Le comportement de chacun des composants du système s’intègre dans une vision globale où les données unitaires en s’agrégeant en informations primaires devient signifiantes Cette capacité de connectivité ouvre des perspectives nouvelles à tous les opérateurs de systèmes complexes.

Les premiers impliqués sont les industriels qui connectant chaque machine et chaque produit à une chaîne de valeur globale construisent le « manufacturing 4.0 » dont les acteurs comme Bosch ou Dassault Systèmes illustrent les capacités. La mobilité n’est plus traitée à travers chacun de ses composants unitaires, voiture, bus, tram ou train, mais comme un système globale optimisé. La maison, longtemps absente de l’automatisation, devient elle-même un système où énergie, chauffage, climatisation, images, sons, sécurité et services sont interdépendants et monitorés globalement par les occupants. De fait chaque composant devient « smart » et l’imagination des fournisseurs de technologie devient sans limite puisque le hardware peut désormais être mis en valeur par des logiciels traitant ces volumes considérables de données. Ceci reste toutefois un potentiel encore largement sous-exploité, la présidente d’IBM considérant que seules 1% des données produites sont effectivement exploitées.

 

  • La mobilité

La force d’attraction du CES est telle que le Salon automobile de Detroit, évènement emblématique de l’industrie automobile mondiale traditionnellement situé en janvier, est forcé de migrer au milieu de l’été, dès juin 2020… Car le CES attirant les marques les plus prestigieuses était devenu le salon de l’innovation automobile, renforçant d’année en année son attractivité. Les dirigeants de l’industrie, comme Ford, General Motors, Daimler, Nissan sont venus chaque année animer des key notes.Cette année, le North Hall brillait de tous ses feux pour exposer la vision futuriste des marques établies comme  Daimler, Hyundai, Toyota comme des nouveaux venus comme le chinois Byton.

Mais au-delà de ces exercices de style flatteurs, la question centrale qui est posée à travers les conférences comme dans les stands est la contribution opérationnelle des technologies de l’information à la résolution des problèmes structurels de mobilité dans une planète où plus de 50% de la population habite dans les villes. La reconquête de la ville ne peut se faire que par une série de mesures visant à la fois à la qualité des constructions, la fluidification des circulations et de la logistique et au développement harmonieux des activités.  De la cartographie en 3D, présentée par Here, à la gestion en temps réel des flux, comme le font Alibaba ou Baidu, les solutions empruntent toutes la puissance de la technologique pour construire un jumeau numérique de la ville et modéliser les flux. Encore utopique au début de la décennie, ces travaux entrent dans une phase concrète, notamment en Chine, et permettent la construction progressive de la « cité intelligente », du BIM pour chaque composant unitaire des bâtiments à la modélisation globale telle que le propose Dassault Systems.

La transformation de l'automobile est en cours. Elle ne touche pas seulement l'évolution du mode d'énergie de propulsion - du moteur à combustion interne vers l'électromobilité -, mais surtout le modèle d'usage. Le mouvement se fait du "vehicule as a service" vers "mobility as a service" comme le CES 2019 l'a mis en perspective. Bien sûr c'est une mutation qui touche d'abord les centres urbains denses où les systèmes de transport à grande capacité sont complétés par la mobilité douce du dernier kilomètre et par une multitude d'offres. La possession d'un véhicule en pleine propriété non seulement n'est plus indispensable fonctionnellement, mais elle se heurte à un coût de possession de plus en plus élevé qui est le premier facteur de dissuasion. Il n'en est pas de même pour les zones de faible densité où la possession d'un véhicule individuel reste la seule solution pratique. Une offre est en train d'émerger, avec le covoiturage, le taxi collectif, les navettes de petite capacité, le transport à la demande. L'électromobilité y est une solution attractive car en habitat individuel, il est très facile de charger un véhicule électrique. Ces mutations sont accélérées par le recours systématique à l'information de géolocalisation qui offre une grande sécurité dans l'utiilisation de moyens alternatifs de transport et dans la possibilité de gérer à distance les flottes de véhicules partagés. Plus que la solution coûteuse et lointaine de la voiture autonome, c'est une palette riche de réponses immédiates portant sur les services et l'adaptation des véhicules, électriques, connectés, plus petits et moins chers, qui feront de "la mobilité comme service" une réalité accessible à tous.

Navya, le constructeur lyonnais, avec ses deux véhicules autonomes, et Keolis étaient présents au CES 2018, pas en 2019, mais il faut souligner que Navya est en cours d'expérimentations dans de nombreux pays.

 

  • La santé

La santé reste le secteur le plus prometteur pour une utilisation intensive de tous les outils numériques, du diagnostic au traitement, de la gestion du bien-être personnel aux protocoles médicaux. La santé connectée n’est que la mise en œuvre à grande échelle de la capacité des outils à collecter avec des capteurs peu coûteux l’information de base, à la traiter avec des logiciels appropriés, qui font appel aux traitement statistique de masse, et recourent, pour partie à l’intelligence artificielle, et à organiser le processus de traitement dans le système hospitalier ou en médecine ambulatoire. Le maintien à domicile des personnes âgées est aussi un objectif majeur de la santé connectée et les solutions sont nombreuses, comme celles proposées par La Poste. On a vu de multiples exemples tant dans la présentation Qualcomm sur la salle d’opération où chaque appareil est connecté en 5G en temps réel grâce à la très faible latence de cette technologie à la gestion d’électrocardiogrammes avec une montre connectée, proposition de Withings qui de retour sous la responsabilité d’Eric Carrel affiche son intention de devenir un acteur de la santé connectée en embauchant notamment de médecins et en durcissant ses protocoles. Son tensiomètre connecté avec stéthoscope est une innovation marquante de ce CES.

 

  • La maison connectée

Chaque année, les solutions domotiques abondent au CES, mais le marché est resté longtemps limité par la complexité de systèmes, le caractère propriétaire des protocoles, et le manque de personnel d’installation et de maintenance. Cette période parait désormais oubliée par la généralisation du BIM qui intègre la connectivité dès la conception des bâtiments et les promoteurs, résidentiels comme domiciliaires, en font désormais un argument commercial. De plus, l’offre gagne en maturité. Le rapprochement de Netatmo et de Legrand marque ainsi un changement significatif, comme l’intégration dans Somfy de MyFox. Ces nouveaux ensembles sont en mesure de proposer une solution globale, ouverte également aux autres acteurs industriels. LG et Samsung, intègrent leurs appareils dans ces nouveaux réseaux domestiques.

 

Le socle technique

 

Si 2018 a été l’année de l’annonce imminente de la concrétisation des promesses de la 5G, 2019 est celle du déploiement. Les industriels entrent désormais dans le concret. Samsung présente la chaine complète des équipements, jusqu’au terminal utilisateur. Qualcomm y consacre l’intégralité de sa key noteen détaillant de manière pédagogique tous les bénéfices de cette technique. Chaque stand apporte sa touche 5G.

 

Derrière cette forte présence de la 5G comme solution universelle, il y a en effet des réalités industrielles qui s’annoncent prometteuses.

Il en est de même pour l’intelligence artificielle, omniprésente sur tous les stands et dans toutes les conférences. Il y a même désormais un cycle de conférences, devenues payantes, les conférences consacrées à l’intelligence artificielle marquant l’intérêt des professionnels pour une participation à Las Vegas sur cette question désormais incontournable.  Le terme AI-poweredest omniprésent même si la réalité technique sous-jacente est souvent très inférieure à l’ambition affichée. Car l’intelligence artificielle est un domaine complexe dont les conférences ont bien mis en évidence les limites et les difficultés, au-delà de l’enthousiasme porté par cette technique qui paraît la seule en mesure de traiter les zettaoctets  de données générées par l’économie mondiale.

La reconnaissance vocale est marquée par le triomphe d’Alexa et la bataille de Google pour reprendre le leadership à travers une présence aussi ludique que bruyante. Cortana, de Microsoft, s’est ralliée à Alexa. Dans la bataille, Amazon recueille 61% du marché américain des enceintes connectées, contre 34% pour Google. Selon IDC, Alexa peut se connecter à 20000 appareils contre 6000 pour Google. L’enjeu est majeur : 29% des Américains parlent à une enceinte de reconnaissance vocale, 34% des millénials. Si la généralisation de la commande vocale suscite parfois du scepticisme sur les risques de cacophonie et de pertinence de l’usage, elle rencontre un intérêt réel dans des cas d’usage professionnel. Il en est de même pour la réalité virtuelle, toujours présente dans sa dimension ludique qui risque de rendre les parcs d’attractions obsolètes, mais qui trouve aussi dans le monde professionnel de véritables cas d’usage pratiques.

L’image conforme son omniprésence. Si les écrans 4K OLED étaient les vedettes de 2018, la 8K, avec ses 33 millions de pixels, a fait son entrée en force dans tous les stands en 2019 avec des démonstrations spectaculaires chez les leaders que sont LG et Samsung. Les écrans sont de plus en larges, dépassent couramment 50 pouces, et pour se faire oublier se replient comme chez LG. Mais il n’y a pas de contenu 8 K  pour servir utilement cette prouesse technique !

Enfin, le CES 2019 a remarqué le fort engagement d’IBM, alors que l’entreprise était très discrète au cours des éditions précédentes. IBM était présent lors du key note inaugural par la voix de sa présidente, Ginni Rometty, et dans un vaste stand qui reprenait les thèmes développés par Rometty, c’est-à-dire l’investissement dans la blockchain, à travers la coopération avec Wal-Mart, l’intelligence artificielle, avec Delta, et l’informatique quantique.

 

POur conclure, le CES reste un temps fort de la compréhension du rythme d'évolution de la société numérique. Aujourd'hui se constitue une plate-forme technique autour des serveurs, des réseaux, des interfaces qui, par leur mise en cohérence, créent une trame technique à partir de laquelle le traitement des données permet de comprendre les phénomènes complexes et d'agir pour améliorer la performance opérationnelle et le service rendu. Il n'y a rien de nouveau dans les idées. Ce qui change, et c'est un énorme changement,  c'est la vitesse et la profondeur d'exécution. Les habitudes et les processus sont bousculés, les compétences aussi. C'est cette capacité à bouger vite qui fera la différence.


Le cerveau-d'oeuvre

Ne pas avoir peur du futur c'est contribuer à la construire. Comme il n'y a pas de "bon vieux temps", il n'y a pas de futur magique. Tout est question de lucidité, de compétences, de travail et aussi de gouvernance. Développer les connaissances, les diffuser et les mettre en pratique dans des nouveaux processus, des nouveaux produits et une interaction humains/nature beaucoup plus frugale et respectueuse, par l'implication de chacun, voici le champ immense de développement du cerveau d'oeuvre.

http://www.entreprise2020.fr/l-entreprise-2020-sera-celle-du-cerveau-doeuvre/Le cerveau-d'oeuvre


Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/


De la complexité, de l'échec et de la SNCF

Nous sommes dans un monde physique. Avec ses lois, ses contraintes, la masse, le temps, l'énergie, l'espace.  Tout s'y mesure. Mais nous avons inventé son double numérique. Et nous voulons que le jumeau physique du jumeau numérique se comporte sans défaut, sans délai. Nous mesurons chaque jour  que c'est une tâche immense, peut-être impossible.  Nous voulons que dans le monde physique tout fonctionne sans défaut, sans neige glissante les samedis de transhumance d'hiver, sans rats qui s'attaquent aux gaines des câbles électriques, sans gel qui fait éclater les canalisations, sans rivières qui débordent, gorgées  de pluie et entrainent des glissements de terrain. Nous sommes en colère parce que nous constatons que l'espérance de vie de la civilisation c'est en gros 24 h, la durée d'autonomie des batteries de nos téléphones portables. A Saint-Martin, un tempête nous a montré l'extrême vulnérabilité de la dimension physique du vaisseau spatial Terre. Et nous protestons contre cette terrible injustice, être menacés dans notre confort, dans notre survie même par le vent et l'eau.

Notre tentative rassurante de tout rationaliser, modéliser, construire de façon idéale se heurte aux adhérences de notre système industriel qui souffre d'être né il y a si longtemps que même le smartphone n'existait pas. Elle se heurte aux faiblesses de nos organisations, ballotée par les politiques, les dirigeants, les changements intempestifs de direction, les hésitations qui ont fait, par exemple, séparer la SNCF de son réseau physique pour ouvrir en 1997 la voie, au sens propre, de la concurrence. Et puis on s'est dit quand même que c'était pas si simple et on a refermé en 2015 cette parenthèse en réinventant un nouveau système artificiellement séparé en deux, le réseau physique et la circulation des trains, mais au sein d'une même entité juridique. Et tout ceci prend du temps, de l'argent, de l'attention. Pendant ce temps là, le temps poursuit son oeuvre corrosive. Et il faut réparer à marche forcée en faisant pression sur les hommes et les éléments, et les ressources... 

La SNCF c'est un réseau de 30000 km de rails, d'appareils de voie, d'outils de signalisation, de ballast et de caténaires. Du solide qui parfois casse. Défaut d'entretien dit-on. La réalité est complexe, l'homme démiurge veut la soumettre à son désir d'absolu. Le réseau, tout réseau, ce n'est pas une abstraction sur un bel écran. C'est vieux, compliqué, soumis à l'usure, au temps. L'aventure du rail a commencé en 1832 en France. Elle est essentielle pour nos territoire et notre prospérité. L'efficience du réseau, et sa sécurité sont des composants indissociables de notre vécu collectif. S'il est insupportable de laisser en rade les voyageurs du week-end, ce serait pire encore de prendre le risque d'un accident. 

Les pannes à la SNCF illustrent ce terrible conflit entre notre désir d'idéal épuré d'un monde lisse et sans incident et la réalité des cicatrices que le temps et la fatigue impriment sur les choses. Cette crise doit nous mettre en garde. Il y en aura d'autres. Tous les secteurs sont fragilisés par l'accroissement des attentes, l'impatience du résultat parfait dont nous sommes chacun porteurs. Aux effet plus graves, peut-être. Il est notre devoir de travailler pour éviter que cela survienne. Mais aussi de nous préparer à en minimiser l'impact. Il faut investir avec clairvoyance, renforcer les compétences, développer l'ingénierie car faire rouler des trains, mais aussi produire de l'électricté, des voitures , des soins, ce n'est pas du marketing, mais cela met en oeuvre une alliance subtile entre l'intelligence et la matière. Et dans la méthode il faut surtout  ne pas blâmer tous ceux qui font leur travail quotidien avec professionnalisme. Plutôt que des coupables, il faut chercher les causes et les remèdes. 

http://bfmbusiness.bfmtv.com/mediaplayer/video/sncf-a-quand-un-service-de-qualite-0412-1010179.html

Capture d’écran 2017-12-05 à 22.36.19

 


La voiture sans essence va révolutionner la ville

Les annonces se multiplient. Lassés d'investir dans les infrastructures routières sans réduire les encombrements ni les émissions toxiques et de gaz à effet de serre, les dirigeants de la planète ont décidé de changer drastiquement les règles du jeu. Si la voiture est un symbole de liberté individuelle et a largement contribué au XXe siècle à libérer les individus en leur offrant la faculté de découvrir les grands espaces sans contrainte, elle se révèle contre-productive en ville où la liberté de se mouvoir ne peut être garantie à chacun avec un véhicule individuel. Les contraintes foncières, le réchauffement qu'induit la circulation automobile massive dans un espace limité, l'allongement des temps de transport individuel condamnent l'usage de la voiture individuelle en pleine propriété. La toxicité de l'automobile, notamment diesel, est désormais prouvée et les industriels qui ont tardé à le reconnaître et tentés par des manoeuvres frauduleuses de cacher leur impossibilité de faire face aux problèmes liées aux courtes distances sont aujourd'hui sur la sellette.

Iu

Les transports publics, qui ont partout dans le monde progressé en efficacité et en confort sont la seule solution de transit de masse acceptable. Ils doivent être complétés par des solutions individualisées, comme le taxi, l'autopartage les navettes automatiques et le co-voiturage, et bien évidemment avec des modes de propulsion sans rejet local. Cette transformation de la ville est désormais un choix politique assumé par les plus grandes villes du monde. Les Etats ont fixé une date : 2040. A partir de ce moment-là il n devrait plus être possible de commercialiser des voitures à "gaz de pétrole". Les industriels, les utilisateurs, les flottes ont le temps de s'adapter. Mais cette annonce concomitante partout dans le monde laisse furieux les amateurs de grosses cylindrées. Qui regrette les 11000 fiacres parisiens de 1907 et leurs cargaisons de crottins ?  Il est possible de gérer cette mutation nous en en avons le temps, nous en avons besoin et surtout les villes deviendront des lieux de vie et de travail confortables. L'innovation que cette mutation va induire est multiforme et sera source d'emplois et de compétences nouvelles. C'est un enjeu majeur de civilisation.

Si les débats sur les causes sont aujourd'hui clairement établis, les solutions vont faire l'objet dans les années à venir d'âpres controverses. or il faut que le débat soit documenté pour être serein, démocratique et permettre à chacun, collectivités, industriels, urbains, citoyens de trouver des réponses appropriées.

https://www.franceinter.fr/emissions/le-telephone-sonne/le-telephone-sonne-17-octobre-2017

https://www.lesechos.fr/idees-debats/cercle/030699740970-jean-pierre-corniou-lautomobile-nest-plus-une-solution-pour-les-villes-2121718.php


Cybersécurité, l'enjeu industriel

Fullsizeoutput_2720

L'économie numérique a engendré son double maléfique, le monde sombre de la cyber criminalité. Les attaques se suivent. Et vont continuer. Cette situation n'est pas surprenante, elle est vieille comme l'humanité. Les compétences développées pour mettre en place en moins de trente ans une économie fluide, mondiale, fondée sur l'échange d'informations et de connaissance, sont aussi utilisées pour développer la criminalité et poursuivre par des moyens violents la compétition séculaire entre nations et groupes sociaux. La cyber criminalité s'est installée durablement comme une branche du crime organisé et des politiques d’intimidation entre états. 

L'enjeu de la sécurité se joue donc sur deux plans distincts : 

- celui des individus et des entreprises dont l'intégrité physique peut être engagée par des offensives criminelles opérées depuis internet

- celui des États, confrontés au traitement d'une nouvelle forme d'insécurité qui menace leurs intérêts vitaux et leur souveraineté, et où ils se retrouvent aussi bien prédateurs que proies.

Identifier en permanence les menaces, comprendre les faiblesses, se mettre en situation de réagir pour diminuer les dommages causés, puis organiser la riposte sont autant de techniques éprouvées dans l'histoire qui doivent aujourd’hui se déployer dans l'univers numérique. La puissance publique, garante de la sécurité des citoyens, et de la stabilité du cadre économique, ne peut durablement laisser le privilège de l'offensive aux forces de déstabilisation et de destruction de l’ordre. Comme pour chaque évolution technique, les forces criminelles savent capter l'innovation au service de leurs intérêts plus rapidement que la société ne se met en situation de gérer ces menaces nouvelles, tant par la réglementation que par la répression.

Mais l'ampleur des enjeux dans une économie mondialisée et sur le chemin d'une numérisation totale n'a plus rien à voir avec la menace que pouvait faire peser sur les banques à la fin de la guerre « la bande des tractions »,  gangsters technophiles, avec leurs Citroën traction avant plus rapides que les voitures de la police. La menace est omniprésente et protéiforme, l’ingéniosité des cyber attaquants sans limite. Ils n’ont pas de règles, de processus, de budgets à respecter. Leur agilité est totale, ce qui les rend totalement dangereux.

Il ne faut donc plus considérer la sécurité comme une activité marginale car elle s'insère désormais au cœur de la conception des systèmes et doit être présente dans chacun des usages. Tout étant désormais numérisé et connecté, tout devient vulnérable. Cette politique de sécurité change de nature. Elle sort du périmètre des organisations, limité à quelques règles simples gérées par des spécialistes. Elle est désormais centrale, systémique, cohérente et a pour objectif d'assurer une continuité totale des opérations tout au long de la chaîne de valeur. Elle implique chacun au quotidien tout en devenant une discipline à part entière, hautement technique.

Si tous les États s'équipent pour faire face à ces nouvelles menaces, l'Etat d'Israël, compte tenu de son histoire, de sa taille et de sa vulnérabilité a été un des premiers à mettre en place une organisation puissante dès 2002, la NISA, National Information Security Authority, couvrant aussi bien les acteurs privés que les autorités publiques. Mais, c’est dès 1952 que l’armée israélienne avait constitué une unité spécialisée dans le renseignement électronique, l’unité 8200, qui est considérée comme le creuset de toute la pensée de l’Etat israélien en matière de cyber défense. Ses membres ont essaimé dans toute l’industrie et constituent une élite aux postes de responsabilité publics comme privés. 

Depuis 2011 la structure centrale, au cœur du système public et privé de défense contre la cybercriminalité, se nomme Cyber Bureau et dépend du Premier ministre.

Autour de ce rôle fédérateur de l'Etat, s'est développé un écosystème complet qui est reconnu pour sa créativité et joue un rôle de leader dans le monde. On estime que 25% des dépenses de R&D mondiales consacrées à la cyber sécurité sont effectués en Israël. Et les sociétés israéliennes, dans le secteur militaire comme dans le civil ont atteint un haut degré de performance et sont actives dans le monde entier, et principalement aux Etats-Unis avec lesquels se sont tissés des liens étroits. La plupart des grands entreprises mondiales du secteur disposent d'un centre de recherche en Israël dédié à la cybersécurité. L’Etat a encouragé la création d’un pôle spécialisé dans la cybersécurité dans le désert du Néguev à Beer’Sheva.

La sécurité prend une dimension nouvelle avec le déploiement du contrôle numérique des infrastructures et des installations industrielles. Même isolés du réseau internet, ces équipements dépendent aujourd'hui d'un fonctionnement numérique. 80 % des systèmes industriels sont de fait connectés à internet par l'intermédiaire de certains de leurs composants. Les grandes infrastructures vitales, comme les réseaux ferrés, les aéroports, la distribution électrique, les systèmes d’approvisionnement, dépendant pour leurs performances de logiciels et d’outils informatisés. Leur sécurité de fonctionnement dépend de multiples facteurs qu’il faut inventorier et monitorer sans relâche. Ce sont précisément ces fonctions que les nouveaux outils de cyberdéfense instrumentent. Dans le domaine grand public, les produits connectés, conçus aujourd'hui, sont eux la plupart du temps connectés directement au réseau IP par Wi-Fi. Cette facilité d’usage présente aussi une grande vulnérabilité.

Les bénéfices clients de cette connexion sont devenus vitaux. L'Internet des objets est fondé sur les avantages que donne la connexion de tous les composants d’un système, permettant la collecte des données et l'intervention à distance, tissant un système dont les bénéfices ne sont liés qu'à l’interopérabilité et au traitement des données connectées.  Les futurs réseaux intelligents, avec les véhicules autonomes, ne pourront livrer leurs promesses qu’au prix d’une sécurité sans aucune faille.

Ce besoin de connectivité bilatérale, fiable, impose de conférer au traitement des problèmes de vulnérabilité des réseaux connectés une place centrale. Le premier facteur de protection est de connaître les composants de ces nouveaux ensembles, en identifiant leurs propriétés, c’est-à-dire les paramètres de leur fonctionnement nominal, mais également leurs vulnérabilités. Mettre en place des outils de traitement des seules vulnérabilités aux frontières de l’entreprise - comme la gestion des identifiants et des pare-feux - ne suffit plus. Il faut identifier les composants du système global et mettre en œuvre les règles de sécurité adaptées à chaque composant. Il n'est plus possible d'additionner des outils dans des architectures de plus en plus complexes sans les connaître et les comprendre.

Le seul moyen de gérer cet ensemble composite est de développer l’automatisation en confiant à des robots et à des logiciels de soin de gérer les tâches quotidiennes d’authentification, de suivi, de mesure et d’analyse des flux pour en tirer une vision dynamique et identifier les situations anormales. L’accent est désormais mis dans la recherche de l’anticipation des attaques en comprenant les comportements de leurs auteurs, en anticipant les cheminements des logiciels infectants, en multipliant les pièges pour les traquer avant qu’ils ne deviennent actifs. Les spécialistes de sécurité ont en charge, dans ce modèle, l’architecture générale de la cybersécurité, l’analyse des comportements, l’anticipation et la veille technique. Ils ont également un grand rôle de sensibilisation et de formation. Les opérationnels doivent désormais intégrer dans leurs missions la responsabilité du suivi en temps réel du système.

De fait, la montée de l’insécurité numérique oblige à considérer que si qu'internet a été conçu de façon brillante, il est sorti depuis longtemps de son objet initial. C'est un outil qui se trouve désormais au cœur de l'économie mondiale et attire toutes les convoitises. Il doit subir un sérieux lifting et être enrichi pour intégrer la sécurité "by design".  A court terme, il est impératif de donner aux professionnels de la cybersécurité les outils et les moyens nécessaires, et développer massivement la formation. Pour fixer le niveau d’effort, il faut mentionner que, dans les administrations israéliennes, le budget de cybersécurité doit être fixé à 8% du budget informatique…


L'impossible consensus... ou comment malgré tout y parvenir !

Chaque individu abrite plusieurs personnages aux intérêts contradictoires. Nous jouons chacun de ces rôles alternativement avec conviction. Et nous nous attendons à être chaque fois pleinement satisfait sinon nous sommes furieux et frustrés. Cette colère devient rapidement, quand on est français, révolte. Forcément légitime. Et bien sûr nous attendons de nos gouvernants qu’ils satisfassent chacun de nos personnages avec un zèle égal.

Comme « fournisseur de service », que ce service soit une prestation intellectuelle, ou une prestation technique ou physique, soit simplement des heures de notre liberté qui nous sont prélevées par un patron, nous attendons, et si besoin, revendiquons une juste rémunération de notre contribution.

Comme « client », nous attendons, voire nous exigeons, d’avoir une qualité irréprochable pour le prix le plus bas possible, ceci au pied de notre porte et sans délai.

Comme « épargnant », même modeste, nous voulons que le sacrifice de notre non-consommation de revenu soit, d’une part, sécurisé contre les aléas économiques, et d’autre part justement rémunéré pour en tirer un revenu additionnel. Nous sommes allergiques aux risques mais friands d’une confortable sécurité.

Comme « contribuable », nous considérons que chaque centime arraché à notre poche et à notre libre arbitre pour être confié à des mains inexpertes de fonctionnaire anonyme est une pure spoliation, l’objectif de chaque contribuable étant de payer le moins possible pour lui en faisant payer les autres.

Comme « citoyen », nous exigeons des routes en parfait état, des écoles qui fassent de chacun de nos enfants des génies, des hôpitaux qui guérissent de tous les maux, une police exemplaire, une armée moderne, bien équipée, efficace pour nous protéger, une « vraie » politique familiale, une retraite confortable. Et tout ceci évidemment pour un coût tendant vers zéro…

Il y a donc en chacun d’entre nous, tout à tour, une montagne d’exigences qui doivent être satisfaites par… les autres. Car nous sommes hélas entourés d’incapables. Les patrons qui ne trouvent pas les bonnes commandes au bon moment, les enseignants qui font des fautes d’orthographe et bien sûr les transmettent à nos gamins, les salariés-du-public-en-grève, les syndicats, et au cœur de tout cela, deux responsables majeurs : le CAC 40, entité aveugle et anonyme, et les banques, cupides et prédatrices. Je pourrais ajouter, mais ce serait certainement excessif, que parmi les incapables majeurs qui nous nuisent avec acharnement il y a les étrangers, uniquement quand ils nous concurrencent comme fournisseurs de services, pas quand ils contribuent au paiement des factures collectives comme contribuables, et surtout le grand Satan coupable de tout cela, l’Europe. Certaines raffinent le modèle et les campagnes électorale sont un festival de vœux pour éliminer tous les obstacles à notre bonheur de citoyen, de contribuable, de fournisseur, de consommateur et d’épargnant…

Regardons de plus près le fonctionnement de ce modèle. Le fournisseur de service, de son temps, de son travail, de ses compétences, veut être mieux rémunéré de son effort. C’est légitime. Mais vu de l’entreprise qui intègre cette contribution dans le prix de revient total du produit ou du service qu’elle va mettre sur le marché, la rémunération devient un coût. Si ce coût de production ne permet pas de vendre le produit plus cher, il deviendra trop cher aux yeux du consommateur qui veut lui limiter les coûts de ses acquisitions. Donc le consommateur qui cherche les prix les plus bas nuit à son voisin de palier fournisseur qui veut les revenus les plus hauts. Le contribuable qui veut réduire sa facture d’impôt en cherchant à dissimuler des revenus ou acheter sans taxe, au noir ou en contrebande, nuit au citoyen qui veut les meilleurs services publics. On estime à une soixantaine de milliards le coût de la fraude fiscale directe. Toute fraude, même mineure, est une atteinte au partage de la contribution collective aux services que l’Etat fournit aux citoyens. L’épargnant qui exige les taux d’intérêt les plus élevés nuit à l’investisseur qui va créer des activités et des emplois par le financement de biens productifs et qui a besoin de payer le moins cher possible les capitaux dont il a besoin. Nous devons bien comprendre que l’économie est un jeu à somme nulle, les gains des uns étant les coûts des autres. La croissance, l’ouverture internationale et l’inflation, déforment cette mécanique de redistribution en augmentant les opportunités car le cadre devient plus large et les flux plus importants. Cette vision implique une compréhension de la difficulté des arbitrages. Chacun de nous sait par expérience qu’une dépense va accroître notre satisfaction immédiate au détriment de notre épargne. Mais l’épargne peut nous offrir une satisfaction différée et donc aléatoire car le long terme est un pari. Il en est de même pour une collectivité nationale qui va préférer donner immédiatement satisfaction aux électeurs-citoyens par une augmentation d’une prestation de rentrée scolaire, par exemple, plutôt que d’investir pour le long terme sur le développement du haut débit mobile. Mais ce ne sont pas les mêmes décideurs, les mêmes mécanismes, les mêmes budgets et les mêmes effets induits. Les arbitrages personnels, comme les arbitrages collectifs, sont donc des choix difficiles qui ne peuvent garantir à chacun le même niveau de satisfaction. Par ailleurs tout ceci se déforme dans le temps !

Cet impossible consensus, qui pourrait mener à des tensions inacceptables, et se traduit périodiquement par des crises, nécessite pour être toutefois résolu que les acteurs économiques acceptent des compromis. La transparence, le débat, la négociation et le respect des arbitrages sont donc indispensables dans une économie complexe. Le marché y pourvoie, pour partie seulement car le signal prix, s'il fonctionne bien, ne suffit pas à résoudre tous les problèmes. C'est bien parce que le consommateur tend à remporter sur le producteur que l'on transfère la fabrication de sèche-linge de France en Pologne.

Le débat collectif, documenté, le vote fréquent sur des questions précises doivent être largement exploités pour rendre les arbitrages et leur conférer une autorité forte pour éviter la remise en cause systématique des décisions prises. Ainsi écrivait Condorcet en 1794 : « Ainsi, l’on n’osa plus partager les hommes en deux races différentes, dont l’une est destinée à gouverner, l’autre à obéir ; l’une à mentir, l’autre à être trompée ; on fut obligé de reconnaître que tous ont un droit égal de s’éclairer sur tous leurs intérêts, de connaître toutes les vérités, et qu’aucun des pouvoirs établis par eux sur eux-mêmes, ne peut avoir le droit de leur en cacher aucune. » Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain.

Ce travail est encore loin d'être accompli. Il est pourtant la clef de la recherche de solutions collectives dont nous avons besoin pour continuer à progresser.