Chine, automobile et tweettrumps vengeurs

Pour comprendre les tensions économiques entre les Etats-Unis et la Chine, il faut mesurer à quel point la Chine est devenue, aux yeux des Etats-Unis, leur seul rival possible. Dans tous les domaines, la croissance de la Chine représente un défi insupportable pour la première puissance économique et militaire du monde qui sait qu'elle ne peut être que rattrapée par le géant démographique qui forme aujourd'hui 39 millions d'étudiants.

TENSIONS COMMERCIALES
Ce que pourrait coûter aux constructeurs européens des tarifs américains augmentés sur l’automobile
 
 

Atlantico : Quel pourrait être le coût de telles sanctions pour le secteur automobile européen ? 

Jean-Pierre Corniou : Dans le superbe ouvrage d’histoire de la diplomatie d’Henry Kissinger, « Diplomatie », écrit en 1996, le tweet n’était pas encore identifié comme arme de destruction massive de valeurs boursières et de déstabilisation de la confiance. Donald Trump aura conféré ces propriétés en quelques minutes à ces 280 caractères qui ont confirmé, entre ses mains, leur caractère redoutablement toxique. Soucieux de défendre l’économie des Etats-Unis, et plus encore leur capacité de domination à long terme de l’économie mondiale, Trump ne recule devant rien. Il a décidé que ses électeurs attendaient de lui cette fermeté virile, quelles qu’en soient les conséquences. Il faut bien admettre que le déficit commercial des Etats-Unis, qui a atteint 681 milliards $ en 2018, soit 3% du PIB, représente un problème économique et politique, rendu toutefois supportable par l’usage du dollar comme réserve de valeur et monnaie de transaction. Plus encore, l’importation de produits, ou moins cher, ou de meilleure qualité, répond aux besoins du marché et se traduit globalement par une baisse des prix. Taxer les produits importés est un aveu de faiblesse qui traduit la faible compétitivité de l’industrie américaine sur les produits industriels de consommation. En effet, le déficit américain se concentre sur les produits manufacturés, soit 891 milliards $ de produits de consommation, de biens électroniques, d’automobiles. L’impact de ce déficit en emplois perdus est estimé à 3,4 millions d’emplois. Pour Trump, accusant ses concurrents, Chine et Europe en tête, de pratiques déloyales et frauduleuses,  recréer des emplois industriels, c’est d’abord, à tout prix, réduire le déficit commercial.

Qu’a donc écrit de nouveau le président Trump dans ses deux tweets  du 5 mai ? il a rappelé que grâce à ses mesures protectionnistes, la Chine avait payé en dix mois 25% de droits de douane sur un montant de 50 milliards $ de produits Hi-Tech and 10% sur 200 milliards d’autres produits. Il considère que cela contribue aux remarquables résultats économiques des Etats-Unis. Pourquoi s’arrêter en si bon chemin ?  Alors même qu’une délégation chinoise, forte de 100 personnes, était attendue à Washington pour conclure les négociations en cours par un accord commercial, il a annoncé qu’il se donnait le moyen de faire grimper ces taux de 10% à 25% sur un montant de 200 milliards $ de produits chinois dès le 10 mai. Plus encore, il annonce la possibilité de taxer à court terme à 25% un montant additionnel de 325 milliards $, ce qui couvrirait tous les produits chinois importés aux États-Unis. Or ces taxes sont payées pour une grande part par les entreprises américaines implantées aux États-Unis qui vont les répercuter sur leurs prix de vente.

Ces menaces s’inscrivent dans une série de mouvements qui depuis un an visent à réduire le déficit américain vis-à-vis de la Chine à la fois par des menaces et par des négociations. Dans une première étape, Trump a imposé en avril 2018 une réduction de 100 milliards de déficit, puis un mois plus tard de 200 milliards.  A chaque action unilatérale des Etats-Unis, comme la menace du 3 avril 2018 d’imposer 25% de taxes sur les produits électroniques et les équipements chinois, répond dans l’heure une décision chinoise de même nature. Le 2 mai, la Chine annule ainsi tous les contrats d’importation de soja américains, privant ainsi les fermiers américains de la moitié de leurs exportations. Mais la Chine accepte le 21 mai de réduire de 25% à 15% les droits sur les importations de véhicules américains en Chine. Le 6 juillet les droits de douane américains sont effectivement mis en place sur 34 milliards d’importations chinoises, et la Chine riposte en augmentant à nouveau les droits sur les véhicules américains à 40%. Cette mesure a peu d’impact car les constructeurs américains préfèrent produire moins chers leurs véhicules en Chine et d’ailleurs Tesla a immédiatement annoncé construire une usine à Shanghai pour éviter ces droits de douane !

 

Cette guérilla est peu productive pour les deux parties. Néanmoins, la Chine dispose des moyens économiques de limiter l’impact de ces mesures sur son économie, plus que les États-Unis très dépendants de produits fabriqués en Chine. D’ailleurs, malgré cette atmosphère de guerre commerciale, les exportations chinoises aux États-Unis ont augmenté, en 2018 de 11,3%, alors que les États-Unis n’ont pas réussi à dépasser 0,7% de croissance de leurs exportations en Chine. De ce fait, l’excédent commercial chinois a cru en 2018 de 17% pour atteindre 323 milliards $, soit l’excédent le plus important de la décennie.  Le dernier coup de poker de Donald Trump, visiblement destiné à peser sur la négociation en cours, risque de profondément irriter la partie chinoise et d’être inutile. En effet, lors du sommet du G7, Xi Jinping et Trump s’étaient entendus pour négocier sur 142 points, comme la cybersécurité, la propriété intellectuelle, la technologie, le taux de change, l’agriculture. Remettre en cause sans cesse els accords est contre-productif et démontre un manque de confiance préjudiciable à la négociation avec la partie chinoise. Xi Jinping dispose en effet de plus de ressources politiques pour faire face à une telle situation.

Les conséquences sur l’automobile de cette menace sont très faibles pour l’industrie chinoise qui n’exporte pas aux États-Unis mais le sont pour les constructeurs occidentaux, américains, comme GM avec la Buick Envision ou la Cadillac hybride CT-6, et allemands, implantés en Chine et qui commencent à exporter les véhicules qu’ils y produisent vers les États-Unis. En 2018, 50 000 véhicules fabriqués en Chine ont été exportés aux États-Unis contre 250 000 des États-Unis vers la Chine, dont 50 000 BMW. Si les volumes de véhicules produits en Chine et exportés aux USA sont encore faibles, c’est un mouvement prometteur pour les constructeurs, notamment avec les véhicules électriques et hybrides, qui risque d’être cassé. D’ailleurs, cette politique punitive des Etats-Unis se retourne contre eux puisque les les flux d’exportation des USA vers la Chine se sont réduits de 50% fin 2018 et au premier trimestre 2019 à cause des droits de douane chinois de 40%. Ainsi, BMW n’exporte plus le X3 de son usine de Caroline du Sud. En 2017, BMW avait exporté 100 000 véhicules des Etats-Unis vers la Chine. De façon générale, les Etats-Unis ont connu en 2018 une baisse de leurs exportations d’automobiles de 16,6%.

Dans le cas ou Donald Trump venait à imposer des tarifs aux automobiles importées aux Etats-Unis en provenance d'Europe, quel en serait le coût pour nos constructeurs européens ? Sont-ils en mesure de le supporter ? 

L’économie de l’automobile, solidement construite autour des constructeurs nationaux à la fin de la seconde guerre mondiale, s’est graduellement ouverte à la concurrence pour constituer un écosystème mondial dont tous les composants sont désormais interdépendants. Le moteur de cette structuration internationale de l’industrie autour de grands groupes transnationaux a été l’abaissement des droits de douane. Aucun constructeur national n’est en mesure de se passer de fournisseurs étrangers. De même aucun constructeur ne peut survivre sans exporter, à l’exception notable du marché chinois qui jusqu’alors, contrairement à la Corée et au Japon, a pu se développer grâce à son immense marché intérieur sans exporter plus de 3% de sa production. Or la moitié des véhicules venus en Chine le sont par des co-entreprises où les constructeurs occidentaux jouent un rôle essentiel. Pour GM, la Chine est devenue son premier marché dépassant les Etats-Unis en volume.

L’Allemagne est, en 2018, le premier exportateur mondial de véhicules avec un montant de 154 milliards $, soit 20% du total mondial. Elle est naturellement la plus exposée par toute mesure qui pourrait altérer ses flux d’exportation, même si elle a constitué en Chine et aux États-Unis de solides bases industrielles. Le déficit commercial des États-Unis avec l’Allemagne en 2018 est de 68 milliards $ et de 67 milliards $ avec le Japon. L’automobile en constitue la plus large part.

L’acharnement de Trump a vouloir régler les problèmes d’emploi aux Etats-Unis par les droits de douane ne règle pas la question de la capacité de l’industrie américaine à produire ce que réclame les consommateurs américains. Les diatribes de Trump contre les « Mercedes de la 5e avenue » n’empêcheront pas les consommateurs d’acquérir ces véhicules, même rendus plus chers par les taxes. On voit bien que l’industrie automobile est désormais totalement mondialisée et sait transférer rapidement les productions d’un pays à l’autre. Jouer sans cesse avec les droits de douane se révèle vain car les constructeurs s’adaptent vite au détriment des pays d’implantation.

Plus spécifiquement, quels pourraient en être les effets directs ou indirects sur les entreprises françaises ? 

Les constructeurs français ne sont pas exposés aux Etats-Unis où ils n’exportent plus depuis fort longtemps. La France est le dixième exportateur mondial d’automobiles avec un montant de 25 milliards $, soit 3,4% du volume global.

L’Alliance pourrait être touchée pour la partie des véhicules Nissan et Mitsubishi exportés du Japon. En revanche les équipementiers français, comme Valeo, Michelin, Faurecia, Plastic Omnium qui travaillent aussi bien en Chine qu’aux États-Unis pourraient subir l’impact de la baisse des volumes de production de véhicules. L’interdépendance des marchés, la flexibilité des constructeurs, dépassent désormais les territoires nationaux mais les mesures protectionnistes atteignent directement l’emploi des travailleurs qui ne sont pas aussi mobiles que les productions.

 

Présentation de mon dernier livre "Quand la voiture du XXIe siècle sera chinoise" qui analyse les ressorts d cela performance chinoise en automobile..

 

"https://bfmbusiness.bfmtv.com/mediaplayer/video/jean-pierre-corniou-et-la-voiture-du-xxieme-siecle-sera-chinoise-aux-editions-marie-b-0605-1159309.html

 


Le futur de l’industrie automobile européenne

Capture d’écran 2019-03-07 à 09.02.39

Citroën Ami One Concept, Salon de Genève, mars 2019


Depuis la crise de 2008, l’industrie avait cru réussir à retrouver, avec ses volumes antérieurs, une zone relative de calme. Il n’en est rien. Le « dieselgate » a démontré difficultés des constructeurs pour respecter la rigueur des nouvelles normes, au point de devoir inventer des systèmes illégaux de contournement des mesures d’émission. Cette crise  a profondément ébranlé les constructeurs et leur a coûté des dizaines de milliards d’euros en pénalités et compensations commerciales. Si sur le plan économique, ils ont été en mesure de supporter le premier choc de cette crise de confiance, ils doivent faire face à un défi industriel de taille pour accompagner la réduction de la demande de véhicules diesel et proposer une alternative crédible.

Mais au-delà de la crise du diesel, les industriels européens voient subitement plusieurs fronts s’ouvrir  dans un métier habitué aux évolutions lentes et contrôlées. L’accumulation de ces menaces remet en cause l’organisation et la domination d’un secteur industriel dont l’influence déborde largement les constructeurs et les équipementiers. L’économie de la route est indissociable de la prospérité économique générale et sa remise en cause provoque quelques insomnies auprès des décideurs. Le Salon de Genève a été le théâtre de quelques déclarations de rébellion devant la dureté des normes européennes d’émission pour la décennie 2020, mais ces réactions ne sont que le début d’une prise de conscience générale de l’ampleur des défis à surmonter pour cette industrie-mère.  Le rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, publié le 20 mars 2019, chargé d’évaluer la faisabilité de l’arrêt des ventes de véhicules à moteur thermique à horizon 2040, est l’expression d’une première prise de conscience de l’ampleur des séismes qui vont frapper l’industrie européenne dans les dix prochaines années.

Cette transformation peut se synthétiser en quatre lettres : CAPE.

Connectée, Autonome, Partagée, Électrifiée, la voiture de demain, comme les véhicules utilitaires, ne pourront plus être traités comme des objets de consommation unitaires, certes atypiques par leur taille, leur poids, leurs conditions d’usage, mais comme des composants d’un système global de mobilité. Cette évolution n’est pas dictée par le seul souci de réduire les émissions de CO2, de particules et de NOx. La réduction de l’usage des hydrocarbures est un objectif technique et géopolitique majeur, en ligne avec la décarbonation de l’économie imposée par la COP 21. Mais ce sont l’ensemble des conditions d’usage, le coût de possession de plus en plus élevé, l’urbanisation de la société, les bénéfices de la société de l’information et les progrès considérables des transports publics qui bousculent le monde de l’automobile. Cette convergence des transformations remet en cause le modèle historique de la voiture individuelle, naguère seule alternative libre et confortable aux transports publics. L’automobile va subir la même mutation que les autres secteurs en se fondant dans une économie de l’usage, qui va la faire passer d’un modèle « vehicule-as-a-service » à un nouveau modèle en cours d’émergence, « mobility-as-a-service ». Elle n’y est pas préparée car toute la structure de l’industrie automobile a été édifiée pour un tout autre modèle.

 

L’industrie automobile, premier pourvoyeur d’emplois industriels en Europe

La filière automobile et transport emploie 2,2 millions de personnes en France, soit 8% de la population active. L’industrie automobile proprement dite en emploie directement 605 000, partagées, à parts égales, entre les constructeurs et les équipementiers. Mais l’usage de l’automobile a induit la création d’un secteur aval qui emploie lui aussi 500 000 personnes environ. C’est une vingtaine de métiers de la distribution et de la maintenance automobiles qui contribuent à la maintenance d’un parc de 39 millions de véhicules. Les transports et les infrastructures regroupent 1,1 millions de personnes, dont 95 000 pour la construction et l’entretien du réseau d’un million de kilomètres de routes.

Malgré un solde négatif de 10 milliards €, l’automobile contribue à hauteur de 50 milliards aux exportations de la France et l’industrie française représente 8 % du marché mondial Depuis le milieu du XXe siècle, la route a pris progressivement un rôle primordial dans l’économie du pays. Il en est de même pour les principaux pays européens, la Grande-Bretagne, l’Allemagne et l’Italie, vieux pays initiateurs de la révolution automobile, mais également l’Espagne, qui produit plus d’automobiles que la France, la République tchéque, la Slovaquie, la Pologne, la Hongrie et la Roumanie  qui les ont rejoint depuis les années quatre-vingt.  L’industrie européenne est donc multiforme, avec  la perte d’influence de la Grande-Bretagne, la domination de l’industrie allemande, seule à être multi-continentale, avec une forte présence en Chine et aux Etats-Unis, et qui a constitué à l’Est un « Hinterland » compétitif.

L’Europe occidentale a produit en 2017 14,7 millions de véhicules, dont 38% pour la seule Allemagne, et l’Europe centrale et orientale 5,7 millions de véhicules. Le parc européen est de 387 millions de véhicules, l’Amérique du Nord, 324 millions, la Chine 164 millions  et le Japon 77 millions, soit un stock de 1,28 milliards de véhicules dans le monde.

Pour être complet dans les positions respectives des acteurs, il faut noter que les États-Unis ne cessent de perdre du terrain en matière de production automobile et que le Japon, sur son sol, demeure un acteur solide, avec 9,7 millions de véhicules. Mais on voit bien que désormais les combats se livrent entre les grands constructeurs en Chine où l’Allemagne, le Japon et les États-Unis ont établi, grâce aux co-entreprises, des positions solides.

L’Europe, qui a inventé l’automobile, est demeurée, malgré la poussée des constructeurs japonais et coréens, une terre d’élection pour l’automobile jusqu’à l’aube du XXIe siècle grâce à son excellence en matière de motorisation thermique. Mais alors que l’on craignait le Japon et la Corée, c’est surtout la Chine qui en vingt ans a totalement perturbé le paysage mondial au point de représenter désormais un tiers du marché mondial, mais surtout plus de la moitié du marché de l’électromobilité.  Rien ne peut plus s’imaginer désormais sans référence à la Chine dont la stratégie d’électrification massive du parc automobile crée une rupture qui affecte tous les constructeurs. Ceux qui, comme Volkswagen et GM, sont très actifs sur le marché chinois sont les premiers à s’y conformer pour conserver leur leadership. Tous les autres n’ont pas d’autre choix que de se donner les moyens d’électrifier leur gamme, ou de se retirer du marché chinois, qui n’accepte plus de nouvel entrant pour produire des véhicules à moteur thermique.

 

Un changement sans précédent se prépare

Connectée, Autonome, Partagée, Électrifiée : chacune de ces nouvelles propriétés s’éloigne du cœur historique de l’industrie automobile. Avant tout, mécaniciens, assembleurs, motoristes, les industriels que sont les constructeurs  doivent désormais puiser dans d’autre corpus disciplinaires leurs compétences nouvelles. Seront -ils les mieux placés pour y parvenir ? Ils ont sur le faire progressivement, grâce aux équipementiers, pour l’électronique mais sans toucher à leurs compétences centrales.

Or le monde qui se prépare est fort différent. L’électrification de l’automobile n’est pas simplement un changement de mode de propulsion pour une énergie plus propre à l’usage,  c’est un bouleversement car la voiture électrique est beaucoup plus simple à concevoir, construire et maintenir tout au long de sa vie. Plus encore, la marche vers le véhicule autonome va retirer progressivement à l’automobile un de ses atouts historiques sur lequel les constructeurs ont orienté massivement leur marketing : le plaisir de conduire. La voiture devient un robot motorisé qui assiste, d’ores et déjà, son conducteur par de multiples aides et  qui ultimement n’aura plus besoin de conducteur. De fait, le partage deviendra totalement naturel, et même indispensable pour réduire le coût d’usage. Or si une voiture reste immobile 97% de son temps, comme c’est le cas actuellement, le coût du kilomètre parcouru est très élevé. Plus elle tournera, comme les avions commerciaux, moins elle coûtera cher au kilomètre. La mutualisation est donc la voie naturelle de la baisse des coûts d’usage. Mais plus de kilomètres parcourus par moins de véhicules, électriques, signifie un parc plus limité et donc une production réduite.  Comme, de plus, il s’avère que les coûts de maintenance des voitures électriques sont beaucoup plus faibles que ceux des voitures thermiques, la chaîne de maintenance aval verra son volume d’interventions diminuer, et donc également son chiffre d’affaires et ses effectifs.

De proche en proche, se dessine un modèle fort différent de celui que la voiture individuelle à moteur à combustion interne, en pleine possession, avait construit tout au long du XXe siècle. Même si ces perspectives peuvent légitimement inquiéter le monde de l’automobile, elles se situent sur un temps long de plusieurs décennies. Le parc mondial de 1,2 milliards de voitures restera encore longtemps thermique et  même si l’on vend 1 million de voitures électriques en France en 2025, soit la moitié du flux annuel, il restera un stock largement dominant de voitures thermiques à maintenir. Les prévisions de développement du marché électrique, faites par des constructeurs comme l’Alliance au début des années 2010, se sont révélées très optimistes et même si le marché mondial est passé de 47000 véhicules en 2011 à plus de 2 millions en 2018, il ne représente qu’une part minime du marché mondial de 95,6 millions  de véhicules, privés et utilitaires, produits en 2018.

 

Les grands défis

 Incertitudes techniques, hésitations des marchés, scepticisme du client final, manque de stabilité des politiques publiques  composent une toile de fond  très complexe, et anxiogène, pour les constructeurs. Ils doivent néanmoins faire évoluer leur offre, faute rapidement de perdre le contact avec le marché et de se faire dépasser par des concurrents mieux armés et mieux soutenus par une volonté politique ferme, comme le démontre la Chine. Les constructeurs vont devoir dans les prochaines années composer avec des facteurs en rupture peu compatibles avec les contraintes d’une industrie de grande série, à évolution lente et à faible marge.

 

    Le stockage et la production d’électricité à bord

Le cœur de l’électrification est le système de stockage, solution aujourd’hui la plus courante, ou de production d’énergie à bord. Véhicule à batteries, hybride rechargeable ou véhicule à pile à combustible à hydrogène, ils constituent ce que les Chinois appellent les NEV, ou New Energy Vehicule.  C’est ce mix de solutions qui va faire l’objet de la transformation du parc, sachant qu’il sera nécessaire pendant une longue période de trouver des solutions pour réduire les émissions du parc de moteurs thermiques. Le biogaz, issu de la méthanisation des déchets organiques apparait comme le candidat le plus solide.

Or les constructeurs sont placés devant une difficulté stratégique. Ils n’ont pas de signaux suffisamment clairs de l’évolution du marché pour consentir de façon sereine les investissements nécessaires. Les chaines de traction électriques ne sont pas dans le cœur de leur métier historique et ces systèmes doivent aujourd’hui être acquis par les constructeurs qui ne les conçoivent pas. Comme il représentent la moitié du coût du véhicule, c’est une part essentielle de la valeur ajoutée, entre 30 et 50%, qui leur échappe. Mais c’est un champ technologique qui n’est pas arrivé à maturité et pour lequel la recherche développement va jouer un rôle majeur dans les prochaines années. Dans tous les cas, il faut accroître l’autonomie du véhicule électrique et le temps de recharge pour le rapprocher des pratiques actuelles des moteurs à combustion interne. Si l’hydrogène répond à ces critères, le production décarbonée d’hydrogène est encore coûteuse et surtout trop peu répandue pour alimenter une offre de véhicules significative. Le VEB, véhicule électrique à batteries, apparait donc aujourd’hui comme la solution la plus réaliste.

Les performance de la batterie ion-lithium sont la cause  du retour en grâce de l’électrique dans l’automobile depuis dix ans. Elles ne cessent de progresser et leur prix baisse. Le prix des batteries lithium-ion est passé de 1000 $/Kwh en 2010 à 200 $/Kwh en 2017. Aussi l’autonomie des véhicules a pu passer d’une centaine de kilomètres il y a dix ans à plus de 400 km sur les derniers modèles. Mais la batterie ion-lithium est devenue une spécialité asiatique, partagée entre les Chinois de CATL et BYD, les Japonais de Panasonic et les Coréens de LG Chem. La Chine détient 60% du marché mondial des batteries automobiles et impose à tous les constructeurs présents sur son sol de n’utiliser que des batteries chinoises. La Chine s’engage à produire en 2030 40% de véhicules à énergie nouvelle sur la production totale de véhicules, soit 15,2 millions de véhicules, ce qui assure à son industrie une visibilité forte sur le fléchage de ses investissements.

Il n’y a pas d’acteurs européens ! Quelques fabricants de batteries asiatiques ont décidé de installer en Europe pour accompagner leurs clients, mais pour y assembler les cellules non pas pour développer une filière complète. Cette dépendance est le premier défi de l’Europe. La constitution d’une filière européenne de batteries pour la conception et la fabrication des cellules de batteries est la priorité qui a conduit la France, l’Allemagne et la Commission à conclure en accord en décembre 2018 pour développer une filière européenne des batteries. Si pour le lithium-ion, il est probablement trop tard pour reprendre des parts de marché aux asiatiques, il est indispensable de préparer les générations futures de batteries, notamment avec un électrolyte solide, mais les concurrents ne resteront pas inertes. Il faut donc une stratégie européenne qui ne soit pas angélique et implique, notamment, un protectionnisme symétrique à celui de la Chine.

    La conception des véhicules innovants pour stimuler le marché

Le Salon de Genève de mars 2019 a démontré que les constructeurs étaient tous présents sur le front de l’innovation électromobile. Mais il faut rompre avec beaucoup de pratiques pour faire évoluer un marché qui, fonctionnant à plus de 70% avec des véhicules d’occasion, n’a toujours pas adopté le véhicule électrique qui reste marginal en volume et quasi-inexistant en occasion. Seule la Norvège avec 50 % du marché des véhicules neufs est en pointe en matière d’adoption par le public. Il faut dire que la politique de subventionnement des VE et de forte taxation des véhicules thermiques, ainsi que de larges mesures pour favoriser l’usage du VE, ont su convaincre les acheteurs.

Pour arrêter les moteurs thermiques en 2040, il fait infléchir de façon volontariste le marché par une politique de prix et une offre attractives. C’est pourquoi, pour convaincre les clients récalcitrants, les constructeurs misent avant tout sur l’autonomie et le design, pari qui a réussi à Tesla devenu en 2018 premier constructeur d’automobiles électriques du monde. Plusieurs start-up chinoises en ont faire leur modèle, comme Byton ou Nio , et Tesla est en train de créer son usine à Shanghai. Le coréen Hyundai est en train de réussir à convaincre aussi bien la clientèle professionnelle que celles des particuliers avec son SUV Kona électrique particulièrement soigné et salué par les critiques. PSA a annoncé à Genève que tous ses nouveaux véhicules auront une déclinaison électrique. Volkswagen annonce plus de 20 modèles électriques en 2019, la gamme I.D, conçue autour de sa plate-forme électrique modulaire (MEB). Car outre le segment premium, très courtisé, c’est surtout par le développement d’une offre d’entrée et le moyen de gamme que l’électrification trouvera son public. Et c’est un segment très concurrentiel où le prix est déterminant. Or l’industrie chinoise est déjà très présente sur ce segment avec, par exemple, l’EC200, de la filiale électrique de BAIC, BJEC (Beijing Electric Vehicle Company), disponible pour 11 000 €, ou le petit SUV BYD Yuan EV 360. C’est une à refonte des gammes et aussi une ouverture à de nouveaux types de véhicules, plus légers, plus pratiques, moins polyvalents que devront se résoudre les constructeurs, entraînés à l’inverse depuis des années, notamment par les constructeurs allemands,  vers le poids, la vitesse et l’augmentation des consommations.

Donc, les constructeurs peuvent dissiper le scepticisme avec des véhicules bien conçus et abordables. Une fiscalité incitative et un parc de bornes de recharges suffisamment dense ( la norme d’un point de charge pour dix véhicules et couramment admise)  pour supprimer toute inquiétude de « panne sèche » complètent le paysage de l’électromobilité pour en faire une alternative non seulement crédible mais surtout compétitive. La décarbonation de la mobilité individuelle ne peut se faire que si elle est perçue comme utile et agréable, et non pas le fruit d’un volontarisme idéologique.

    Une fiscalité incitative

Pour compenser temporairement le surcoût des batteries dans les véhicules électriques, il a été admis, partout dans le monde, qu’une incitation fiscale était nécessaire. C’est le modèle qui a fait le succès de l’électrification en Norvège. Tous les autres pays y recourent, avec plus ou moins d’audace et de continuité. Mais on en connait les limites : plus le modèle fonctionne, plus il coûte cher à la collectivité qui, de plus pour des raisons d’équité, ne peut pas créer durablement un tel avantage pour une partie de la population. La seule solution de long terme est la baisse du coût des batteries, pari que le gouvernement chinois semble faire en annonçant la suppression de l’aide fiscale aux voitures électriques en 2022 et en reportant l’effort de la baisse des coûts vers la filière. C’est la seule solution raisonnable à long terme, même si cela oblige toute la filière a des efforts majeurs d’adaptation de son offre.

Par ailleurs l’électrification du parc va progressivement priver l’Etat, en France, d’une recette massive, la TICPE, la Taxe intérieure de consommation de produits énergétiques, qui représente un montant de l’ordre de 37 milliards répartis entre le budget général de l’Etat (45%) et les collectivités territoriales (33%)

    Les ruptures d’usage

Acheter, maintenir en condition, assurer et stationner une voiture va devenir obsolète dans les prochaines années. Posséder une voiture dimensionnée pour les quelques jours annuels où on a besoin d’un grand véhicule pour partir à plusieurs en vacances commence à poser question. Ce qui est désormais perçu comme rationnel, c’est d’obtenir le véhicule le mieux adapté à l’usage quand on en besoin et pendant ce temps-là seulement. Ce qui est une évidence pratique n’a pas été possible pendant des décennies. Et ce n’est pas un choix encore admis pour une grand partie de la population dans les pays au marché automobile mature. Mais le développement rapide des solutions comme Uber, Lyft, Didi, l’évolution des compagnies de taxi qui utilisent maintenant les mêmes outils numériques que les pionniers, la multiplication des moyens de transport comme le vélo électrique ou les trottinettes en libre-service, et la rénovation des transports publics, offrent aux citadins une palette de moyens de déplacement. Le fait de conduire seul, d’un point A à un point B,  est de plus ne plus perçu comme une activité intéressante et utilitaire pour un nombre croissant de conducteurs, notamment les jeunes. Pour les trajets les plus longs, le covoiturage a conquis toutes les couches de la population avec le succès de BlaBlaCar. Il reste à trouver des solutions pour les zones peu denses, notamment avec les navettes électriques à la demande.

Le sentiment de perdre son temps pour une activité coûteuse pose désormais à beaucoup la question cruciale de ne plus posséder de voiture, et aux jeunes de ne pas posséder de permis de conduire, dès lors que les solutions alternatives sont attractives et peu coûteuses.  On commence ainsi à parler de «car peak», point maximal de nombre de voitures qui serait proche aux Etats-Unis, où les jeunes de 16 ans ne sont plus que 26% à se bousculer pour obtenir leur permis de conduire, rite de passage incontournable il y a trente ans. Même en Chine, la demande de voitures est en baisse depuis le milieu de l’année 2018 et 550 millions de Chinois ont  réalisé en 2018 10 milliards de parcours avec l’opérateur Didi.

 

L'électricité peut conquérir la mobilité individuelle et les transports publics comme elle a réussi à le faire pour tous les autres usages de l'énergie industrielle. Mais c'est une rupture globale d modèle aux multiples conséquences qui ne peut venir que d'une vision planificatrice globale entre nous els acteurs européens pour retrouver une capacité d'investissement industriel, préserver les emplois et en inventer de nouveaux et rendre la mobilité souple et non polluante. C'est un immense chantier mobilisateur et enthousiasmant qu'il faut maîtriser avec une rigueur et un esprit collaboratif dont l'Europe n'a guère donné de manifestations récentes. C'est d'autant plus nécessaire de l'engager dans une totale transparence.


L'Alliance, un nouveau départ

https://bfmbusiness.bfmtv.com/entreprises/renault-nissan-l-alliance-avait-besoin-d-un-second-souffle-1651394.html

Capture d’écran 2019-03-14 à 16.39.15

1999

Compte tenu de mon passé chez Renault, j'ai été très sollicité par la presse, depuis l'arrestation spectaculaire de Carlos Ghosn  en novembre 2018, pour m'exprimer sur ce qu'il est convenu d'appeler l'affaire Ghosn. J'ai constamment rappelé que si les hommes ne sont jamais des héros indispensables dans les entreprises, il faut toujours regarder les réalités industrielles. Or il s'est produit en vingt ans un fait exceptionnel : un petit constructeur européen, Renault, a réussi grâce à la vision de son président, Louis Schweitzer, à créer une structure improbable, l'Alliance, devenue le premier constructeur automobile mondial de VP/VU en volume. Pendant ces mois de doute, j'ai tenu dans ces nombreuses déclarations publiques une ligne unique : Ghosn n'est pas l'Alliance, qui s'appuie non pas sur un homme seul mais sur les talents de 480 000 collaborateurs partout dans le monde. Seule la réalité de la mutualisation des compétences, fondée sur le respect mutuel, peut consolider l'Alliance et en faire un véritable groupe industriel robuste.
 
J'ai pu constater et exprimer sur BFM Business, en direct, le 12 mars, ma satisfaction voir qu'un dirigeant humble et à l'écoute, Jean-Dominique Sénard,  nommé le 24 janvier, avait réussi en quelques semaines à construire les équilibres nécessaires alors que les commentateurs spéculaient sur un effondrement, absurde, de l'Alliance.
 
Capture d’écran 2019-03-14 à 16.41.06

L'énergie (seule) question d'avenir ?

S’il est un grand débat essentiel, c’est bien celui de l’énergie… Depuis la maîtrise du feu il y a 400 000 ans, l’homme n’a dû son salut qu’à la maîtrise de l’énergie. Cette quête continue est à l’origine de beaucoup de tensions, de conflits, de drames. Tchernobyl et Fukushima ne doivent pas faire oublier Courrières. Si appuyer machinalement sur un interrupteur pour obtenir sans effort de la lumière ou de la chaleur apparait tellement évident à l’homme moderne, cette banalité est bien récente et est encore ignorée par plus de 600 millions de terriens. S’il est une injustice fondamentale, c’est bien celle-ci !

IMG_4642

Le propre du progrès est de devenir tellement installé dans notre vie quotidienne que personne ne se préoccupe plus de ses bénéfices. Mais  il suffit d’un banal incident climatique, une tempête  ou une chute de neige, pour que la vérité éclate : sans électricité, Homo Sapiens 2019 est aussi nu que ses lointains prédécesseurs. C’est dire que cette vulnérabilité extrême de notre civilisation à la disposition abondante, facile et économique d’énergie, est une caractéristique de notre époque, aussi cruciale que silencieuse.

 

C’est pourquoi le plus grand des débats aurait dû être celui sur la loi de programmation pluriannuelle de l’énergie, la PPE. Or si le débat public a bien été organisé entre mars et juin 2018  et a donné lieu à la publication d’un rapport en septembre 2018 et d’un compte-rendu d’une extrême richesse, les conclusions présentées par la Président de la république le 27 novembre 2018 ont été atténuées par l’irruption des Gilets Jaunes dans le débat sur la transition énergétique. Or la politique de l’énergie, par son caractère transversal, est la matrice dans laquelle vont se fondre toutes les politiques sectorielles et notamment les politiques sociales. Le coût de l’énergie est en effet un des paramètres clefs du pouvoir d’achat. La politique de l’énergie est donc, par nature, essentielle et doit continuer à faire l’objet d’une ample réflexion, d’autant plus que les décisions sur la continuation du programme nucléaire français ont été repoussées à 2021. Or notre relation passionnelle au nucléaire exige une véritable mobilisation de tous les acteurs pour faire émerger un consensus aussi lucide qu’acceptable.

 

Aussi, c’est tout le mérite de la Fondapol d’avoir réuni le  6 février une série d’experts pour réfléchir  sur le retour de « la fée électricité » et de publier simultanément cinq  nouveaux documents sur l’énergie électrique pour animer le débat public.  Sous le titre « Impératif climatique : le retour de la fée électricité »,Fondapol offre à cinq experts l’opportunité de faire un point complet sur notre relation contemporaine à l’électricité.

 

« Une civilisation électrique », d’Alain Beltran et Patrice Carré, nous rappelle que pendant des siècles l’homme était un piéton vivant une grande partie du temps dans l’obscurité. Or l’électricité est lumière, chaleur, mouvement. Entre 1880 et 1970, l’électricité a incarné cette modernité qui a profondément transformé la société française, englobant villes et campagne dans un espace uni par un accès égalitaire à l’électricité en tous points du territoire.  Elle apporte le confort domestique dans les années cinquante par l’électro-ménager qui révolutionne la vie quotidienne. Le XXIe siècle redécouvre l’électricité grâce au numérique, à l’image, aux medias, et au début d’une mobilité électrique individuelle.

 

Dans « vers une société post-carbone »,  Patrice Geoffron rappelle les ambitions de l’Accord de Paris de 2015. La COP 21 engage les Etats vers une convergence des efforts pour limiter à 2° l’augmentation de la température du globe d’ici 2050 avec une réduction par trois des émissions  de CO2. Loin de résoudre toutes les questions posées lors de la COP 21, cet Accord induit une dynamique qui doit être régénérée chaque année, tant les enjeux économiques et sociaux sont tendus. La complexité de la mise en œuvre des politiques de décarbonation implique des ruptures techniques dans la production d’énergie bas carbone comme des profonds changements comportementaux. Il faut apprendre les vertus du « négawatt », car consommer moins est plus accessible que produire mieux..

 

Dans « Energie-climat en Europe : pour une excellence écologique », Emmanuel Tuchscherer pointe la responsabilité particulière de l’Europe dont est partie la révolution industrielle carbonée dans la transition énergétique.  Les trois « D » qui composent la politique de transition énergétique sont  ceux de décarbonation, décentralisation et digitalisation  des systèmes énergétiques. La sobriété énergétique est le mantra de la stratégie climatique de la Commission européenne. Elle s’accompagne d’une vigoureuse stratégie d’innovation qui doit redonner à l’industrie européenne une motricité mondiale dans la maîtrise des défis techniques , que ce soit dans la production d’énergie bas carbone, où le gaz aura également une place, que dans les usages innovants du bâtiment et de la mobilité.

 

Se pose enfin la question crucial du coût ! Jacques Percebois explique dans « Prix de l’électricité : entre marché, régulation et subvention » que si l’électricité n’est pas un produit comme les autres, la pratique de «l’optimum tarifaire» a permis à l’entreprise monopolistique EDF de remplir son contrat entre 1946 et 1996 en garantissant continuité de service, égalité de traitement des usagers et maintien de coûts compétitifs. L’introduction de la concurrence dans le cadre européen, a conduit à la mise en place, à travers les trois « paquets énergie », d’un système qui tempère la concurrence par le concept d’infrastructure essentielle qui garantit aux acteurs un accès équitable aux ressources et régule le transport et la distribution. Mais outre cette complexité économique, c’est sur le plan technique que les marchés ont rencontré une nouvelle difficultés avec l’introduction massive des énergies renouvelables, solaires et éoliennes, dont la disponibilité n’est pas garantie. Pour favoriser ces nouvelles filières, une obligation d’achat a été introduite à un prix garanti fixé par l’Etat.


Electric Road 2018 à Nantes, entre futurisme et pragmatisme

Chaque utilisateur de moyens de transport, public ou privé, a pu mesurer à quel point l’innovation numérique, concrétisée par le smartphone et la géolocalisation, avait apporté une qualité d’informations permettant de prendre de meilleures décisions de choix de services, d’itinéraires et de coût. En revanche, les objets du transport, voiture, train, avaient peu évolué. C’est dire à quel point la vague d’innovation qui saisit depuis dix ans le monde automobile, après 120 ans de progrès incrémentaux, a été accueillie avec curiosité et intérêt. Elle émanait en effet d’acteurs nouveaux, comme Tesla ou Google, issus du monde des technologies de l’information habitué aux bouleversements. C’est pourquoi, depuis le début de la décennie, la voiture électrique a fait l’objet de beaucoup d’engouement dans le milieu de la mobilité. Entre l’offre des acteurs nouveaux, et la riposte des constructeurs traditionnels, le monde de la mobilité s’est brutalement mis à bouger. Face à l’extrême complexité des problèmes à résoudre, l’innovation automobile de rupture était devenue le symbole attendu par les commentateurs et dirigeants politiques pour reparler d’un futur rêvé en échappant au poids traditionnel des questions quotidiennes de mobilité. La voiture électrique et connectée remplit, dans l’imaginaire collectif, une place privilégiée car elle apparait comme un outil attractif, propre, silencieux, incarnant la modernité. Mais elle se voit d’ailleurs déjà contester ce statut flatteur par la voiture autonome, encore plus complexe, encore plus lointaine, encore plus fantasmée.

Malheureusement, les données de marché ne donnent pas raison à cette vision euphorique. Avec 1% du marché mondial de l’automobile le véhicule électrique n’est pas, à court terme, la solution de masse attendue. La voiture autonome, celle qui se passera vraiment de présence humaine responsable à bord, est pour un futur lointain. Quand la réalité a tort, c’est que le discours est inapproprié. Le discours doit donc muter et se transformer en une analyse multifactorielle de la mobilité afin de permettre l’élaboration de réponses efficientes et pragmatiques. Le véhicule électrique est une des solutions, ni la seule, ni la meilleure sur tous les critères.

Le colloque Electric Road qui s’est tenu à Nantes les 18 et 19 juin a présenté, dans cet esprit d’objectivité systémique, un panorama complet de la situation à travers les tables rondes plénières, les ateliers et les présentations de matériels et de solutions, sans céder ni au rêve ni au pessimisme.

Il y a un consensus clair : il faut se résoudre à considérer que la mobilité est une question concrète et terriblement complexe qui touche chaque jour des milliards d’êtres humains et pour laquelle il n’existe pas de solution miracle. Transporter des humains, des produits ou des informations exige de l’énergie, de la place et du temps. La récente floraison de recherches et d’idées en rupture est utile et permettra de faire émerger des solutions à long terme. A court terme, il faut néanmoins agir. La confusion entre les deux plans temporels peut conduire à de graves contre-sens. La voiture autonome est un bon exemple de machine à fantasmer. L’identifier comme une solution de court terme fait naitre des espoirs vains. Penser que l’on peut réduire rapidement la mortalité automobile mondiale de 90% avec la voiture autonome peut conduire à différer des mesures plus efficaces, mais d’intérêt immédiat, alors même qu’on ne sait rien du calendrier de mise au point et de diffusion de la voiture autonome et encore moins de son impact quantitatif.

Pour sortir de l’optatif, mode du souhait et d’un militantisme clivant, il faut conjuguer l’indicatif présent et le futur immédiat. Les rencontres d’Electric Road ont permis de nourrir le dossier et d’approfondir les questions techniques, économiques, sociétales. Cette abondante matière permet d’aborder avec prudence et réalisme deux champs d’action :

-       Simplifier et faciliter immédiatement les services de mobilité

-       Identifier et tester des solutions nouvelles

  1. Simplifier et faciliter immédiatement les services de mobilité

L’attente du public est de disposer d’un système de mobilité point à point prédictible, fiable, simple, confortable et économique. La responsabilité de l’autorité publique est de fournir une infrastructure et un cadre réglementaire permettant d’atteindre ces objectifs de la façon la plus compatible avec l’intérêt général. La responsabilité de l’offre de solutions est de répondre à ce cahier des charges explicite, mais souvent aussi fantasque. Il n’y a pas de demande technologique propre, c’est un marché « technology push », le seul objectif est l’efficience.  L’utilisateur, instruit par l’expérience, admet qu’il devra transiger sur certains de ses critères pour remplir son objectif de transport.

C’est un modèle d’une complexité infinie car aux demandes individuelles de mobilité l’industrie et les pouvoirs publics répondent par un cadre de solutions qui ont été élaborées au fil du temps et qui n’a pas de souplesse. Les investissements d’infrastructure sont coûteux, complexes à mettre en œuvre pour des raisons d’environnement et de foncier, et lents à déployer. L’offre d’infrastructure est inerte, alors que la demande et variable. L’expérimentation à l’échelle est risquée.

Il fut un temps où deux solutions concurrentes s’offraient au « voyageur » : le transport public ou la voiture individuelle en plein propriété. L’arbitrage était économique. Quand on en avait les moyens, on prenait sa voiture, gage de service de bout en bout et d’autonomie, dans la plupart des cas. Aujourd’hui, le choix est plus vaste et devient contextuel et multi-critères. Cette complexité du choix offre en contrepartie une gamme foisonnante de services différenciés, entre les solutions éprouvées et les solutions expérimentales. Les micro-arbitrages se font sur la base d’informations partielles, où l’appréciation du client se fonde sur  sa perception, personnelle et instantanée, du meilleur rapport coût /valeur. Mais la somme des décisions individuelles ne procure pas un équilibre global optimal. Il suffit de prendre sa voiture le vendredi soir à la sortie des villes pour en faire l’amère expérience. La complexité de la gestion de la mobilité tient à ce choc imprévisible entre des décisions individuelles et un cadre collectif capacitaire et normatif.

On comprend facilement que les arbitrages sont complexes. Comment alors décider lucidement en étant pragmatique et opérationnel pour fournir des solutions de masse sans condamner l’innovation qui ne peut être que partielle ?  Comment, dans cet équilibre délicat, concilier la liberté individuelle et l’efficacité collective ?

C’est là que l’analyse des points de vue de chacun des acteurs illustre la difficulté de mettre en œuvre une politique de mobilité consensuelle. L’usager est court-termiste et veut résoudre au mieux son problème et s’interroge peu sur les conséquences de ses décisions. IL n’a qu’une notion floue de la réalité des coûts. L’organisation régulatrice comme le fournisseur de services s’inscrit dans le moyen et long terme mais ne peut ignorer les soucis du quotidien aux conséquences politiques ravageuses.

Il faut également être capable de s’entendre sur un modèle d’analyse de la performance. Les objectifs sont multiples, coût, temps, contraintes foncières, impact environnemental. Ces objectifs peuvent être contradictoires et la recherche du compromis acrobatique.  Dans une même préoccupation environnementaliste, c’est la lutte contre les émissions de CO2 qui a conduit à privilégier le diesel et c’est la lutte contre les particules et les NOx qui poussent à s’en débarrasser !  De fait, le repli du diesel a pour conséquence d’accroître les émissions de CO2 ! La qualification du véhicule électrique comme « zéro émission », ce qui est vrai au lieu d’usage, néglige le cycle de vie du véhicule et le mix énergétique qui l’alimente en électricité.

Une politique de mobilité doit intégrer la palette des solutions qui résulte de la combinatoire des différents composants de base : marche à pied, deux-roues motorisé ou non, voiture individuelle en pleine propriété, voiture individuelle en usage mutualisé, transport public routier, transport public ferré, et transport aérien. L’approche contemporaine privilégie la logique de parcours à celle de l’outil.

2.Expérimenter et mettre en place de nouvelles solutions techniques

Les solutions sont multiples. Elles concernent aussi bien les véhicules que les réseaux, les modes opératoires que les financements. L’intérêt d’Electric Road est d’avoir embrassé la quasi-totalité des solutions immédiates et des projets futurs.

La vision consensuelle qui se dégage de ces travaux est que la mobilité du futur ne peut être que le résultat d’une collaboration multi-modale et multi-acteurs. La qualité du système de mobilité résulte de la conception et du déploiement coordonnés d’un système unifié de mobilité métropolitaine et inter-métropolitaine, gérant aussi bien les personnes, que les biens et l’information.  L’efficience énergétique est un des objectifs majeurs de ce modèle intégrateur, qui vise, corrélativement, à garantir des objectifs de santé publique. Mais l’objectif économique est aussi majeur : irriguer le territoire de réseaux de transport performant est un élément majeur de l’attractivité économique et donc de l’emploi. La qualité de la gouvernance en est la condition.

Le nombre d’acteurs s’accroit. Ainsi la route et les infrastructures physiques, qui ont pu être négligées dans le passé, apparaissent aujourd’hui clairement comme des éléments majeurs de la performance globale. Avec 1 million km, 20000 km de routes principales et 400000 de routes secondaires, et 30000 gestionnaires de routes le réseau routier français, plus important que ceux de l’Allemagne et de l’Italie réunis, est estimé en valeur de remplacement à 2000 milliards. Le réseau ferré ne comprend que 30000 km de lignes. Les services potentiels apportés par la route moderne, connectée et éventuellement à énergie positive, implique une nouvelle vision de la route, qui n’est plus ouverte, gratuite et généraliste, mais va délivrer des services « RAAS : road as a service ».  Il est clair que les véhicules les plus sophistiqués auront besoin de ces services dont on comprend qu’ils ne peuvent irriguer l’ensemble du territoire.

Le nombre de solutions énergétiques est aussi en pleine expansion. Les énergies fossiles sont encore totalement dominantes. Elles alimentent 94,8% des voitures particulières vendues en France en 2017 et al quasi-totalité des véhicules industriels et de transport collectif. Toutefois, l’électrification du transport, qui a conquis le transport collectif ferré depuis l’abandon de la vapeur dans les années soixante, est en train de gagner le transport routier. L’électrification du parc automobile progresse lentement, mais aux 26000 voitures électriques vendues en France en 2017 il faut ajouter les 81000 hybrides, dont 12000, dites plug-ins, disposent de quelques dizaines de kilomètres d’autonomie en mode électrique pur. Les VEB (véhicules électriques à batteries) ne sont pas la seule solution puisque les véhicules à pile à combustible à hydrogène se profilent comme alternative intéressante tant pour l’autonomie (600 à 700 km) que pour le temps de remplissage (3 minutes).

Les autobus sont en passe d’être également convertis à l’électricité et la décennie 2020 verra le nombre d’autobus électriques dans les villes européennes s’accroître. La Chine en a déjà mis 350000 en circulation. Ils peuvent aussi exploiter les avantages du Biogaz et de l’hydrogène pour lesquelles des solutions sont en cours de déploiement, comme à Pau.

Il faut aussi aborder l’évolution des deux roues motorisées. Si le vélo a retrouvé dans les politiques publiques et les choix individuels une place majeure, l’Europe n’a pas opté massivement comme en Chine pour les deux roues motorisés électriques. Il y a en effet plus de 250 millions de deux roues électriques en Chine. Les avantages sont les mêmes que pour les voitures, absence d’émission et de bruit.

Par ailleurs l’autonomie des batteries est encore limitée, et pour prolonger l’autonomie il faut augmenter le nombre des cellules de batteries, donc le coût et le poids. Les solutions nouvelles sont nombreuses et vont de la multiplication des bornes rapides au développement de la recharge intelligente et de la charge par induction, qui sort du stade du laboratoire pour entrer dans celui de l’expérimentation.

Mais ces innovations, si elles apportent une solution réelle à la pollution urbaine, ne règlent pas le problème crucial de la décarbonation du transport car la qualité de l’électricité qu’elle utilisent dépend du mix énergétique fossile/nucléaire/renouvelable. S’il n’y a pas d’inquiétude majeure sur la capacité de production électrique en France, car un million de véhicules électriques représente une consommation de 2 TWh sur 520 TWh de production, le problème est la simultanéité des charges qui peut surcharger le réseau. Il faut donc développer une approche des réseaux intelligents qui s’inscrit également dans une réflexion sur le stockage de l’énergie électrique.

Pour apporter une réponse à un autre problème crucial de la circulation automobile, la congestion urbaine, il faut également réduire le nombre de véhicules individuels en circulation, soit par les contraintes (péages urbains, interdiction de circulation) soit par les incitations à l’autopartage et à la rationalisation des déplacements.

  IMG_1809

Pour progresser encore dans la lutte contre les émissions carbonées et polluantes, il faut travailler sur toutes les sources de consommation d’énergie, lutter contre le poids et les frottements aérodynamiques, mais aussi, et c’est une source majeure de réduction de consommation et d’encombrement, diminuer les déplacement inutiles. C’est un enjeu particulier de la logistique urbaine, ou le e-commerce tend à multiplier les flux. Là encore, les innovations sont nombreuses pour développer une conteneurisation intelligente des marchandises, mutualiser les flux, gérer des stocks urbains et pour cela exploiter de nouveaux véhicules inventifs et développer des logiciels de tracking de plus en plus fins. La Poste a ainsi présenté un chariot autonome pour la distribution de petits colis et Man annoncé une gamme de camions électriques pour la livraison urbaine.

Electric Road 2018 a permis d’échanger et d’approfondir ces questions dans un cadre apaisé de spécialistes. Mais la conséquence de ces analyses est aussi simple que pratique : la voiture individuelle, fusse-t-elle électrique, n’offre qu’une réponse partielle à la mobilité, le transport collectif est adapté au transit de masse et ne peut couvrir tous les territoires, les innovations ne répondent que très partiellement aux problèmes de masse et de consommation énergétique. Il faut donc largement partager ces réflexions pour qu’elles sortent du cadre limité des experts pour devenir un sujet majeur de culture collective et de démocratie participative. Car s’il n’y a pas de solution technique universelle, il faut développer une prise de conscience individuelle, documentée et lucide, qui permette de faire progresser les meilleures pratiques et de créer un consensus acceptable tout en continuant à travailler d’arrache-pied sur les innovations.


Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/


De la complexité, de l'échec et de la SNCF

Nous sommes dans un monde physique. Avec ses lois, ses contraintes, la masse, le temps, l'énergie, l'espace.  Tout s'y mesure. Mais nous avons inventé son double numérique. Et nous voulons que le jumeau physique du jumeau numérique se comporte sans défaut, sans délai. Nous mesurons chaque jour  que c'est une tâche immense, peut-être impossible.  Nous voulons que dans le monde physique tout fonctionne sans défaut, sans neige glissante les samedis de transhumance d'hiver, sans rats qui s'attaquent aux gaines des câbles électriques, sans gel qui fait éclater les canalisations, sans rivières qui débordent, gorgées  de pluie et entrainent des glissements de terrain. Nous sommes en colère parce que nous constatons que l'espérance de vie de la civilisation c'est en gros 24 h, la durée d'autonomie des batteries de nos téléphones portables. A Saint-Martin, un tempête nous a montré l'extrême vulnérabilité de la dimension physique du vaisseau spatial Terre. Et nous protestons contre cette terrible injustice, être menacés dans notre confort, dans notre survie même par le vent et l'eau.

Notre tentative rassurante de tout rationaliser, modéliser, construire de façon idéale se heurte aux adhérences de notre système industriel qui souffre d'être né il y a si longtemps que même le smartphone n'existait pas. Elle se heurte aux faiblesses de nos organisations, ballotée par les politiques, les dirigeants, les changements intempestifs de direction, les hésitations qui ont fait, par exemple, séparer la SNCF de son réseau physique pour ouvrir en 1997 la voie, au sens propre, de la concurrence. Et puis on s'est dit quand même que c'était pas si simple et on a refermé en 2015 cette parenthèse en réinventant un nouveau système artificiellement séparé en deux, le réseau physique et la circulation des trains, mais au sein d'une même entité juridique. Et tout ceci prend du temps, de l'argent, de l'attention. Pendant ce temps là, le temps poursuit son oeuvre corrosive. Et il faut réparer à marche forcée en faisant pression sur les hommes et les éléments, et les ressources... 

La SNCF c'est un réseau de 30000 km de rails, d'appareils de voie, d'outils de signalisation, de ballast et de caténaires. Du solide qui parfois casse. Défaut d'entretien dit-on. La réalité est complexe, l'homme démiurge veut la soumettre à son désir d'absolu. Le réseau, tout réseau, ce n'est pas une abstraction sur un bel écran. C'est vieux, compliqué, soumis à l'usure, au temps. L'aventure du rail a commencé en 1832 en France. Elle est essentielle pour nos territoire et notre prospérité. L'efficience du réseau, et sa sécurité sont des composants indissociables de notre vécu collectif. S'il est insupportable de laisser en rade les voyageurs du week-end, ce serait pire encore de prendre le risque d'un accident. 

Les pannes à la SNCF illustrent ce terrible conflit entre notre désir d'idéal épuré d'un monde lisse et sans incident et la réalité des cicatrices que le temps et la fatigue impriment sur les choses. Cette crise doit nous mettre en garde. Il y en aura d'autres. Tous les secteurs sont fragilisés par l'accroissement des attentes, l'impatience du résultat parfait dont nous sommes chacun porteurs. Aux effet plus graves, peut-être. Il est notre devoir de travailler pour éviter que cela survienne. Mais aussi de nous préparer à en minimiser l'impact. Il faut investir avec clairvoyance, renforcer les compétences, développer l'ingénierie car faire rouler des trains, mais aussi produire de l'électricté, des voitures , des soins, ce n'est pas du marketing, mais cela met en oeuvre une alliance subtile entre l'intelligence et la matière. Et dans la méthode il faut surtout  ne pas blâmer tous ceux qui font leur travail quotidien avec professionnalisme. Plutôt que des coupables, il faut chercher les causes et les remèdes. 

http://bfmbusiness.bfmtv.com/mediaplayer/video/sncf-a-quand-un-service-de-qualite-0412-1010179.html

Capture d’écran 2017-12-05 à 22.36.19

 


Science et usage, la dialectique de la transformation

1/ Le monde est bouleversé, hier comme aujourd'hui, par l'ingéniosité, la curiosité et l'instinct de survie des hommes qui les poussent à découvrir sans cesse de nouvelles réponses aux questions qu'ils se posent et aux problèmes qu'ils génèrent. Pour cela ils inventent des concepts, des outils, des méthodes qui repoussent les limites antérieures, défient les pouvoirs, mettent à bas les croyances... et font émerger de nouveaux problèmes, de nouvelles questions. Cela s'appelle le "progrès". Mais si l'humanité a toujours été secouée périodiquement par une remise en cause brutale de ses acquis, ce que nous vivons au XXIe siècle  est marqué par l'accélération sans précédent des savoirs.

Capture d’écran 2017-09-13 à 11.06.51

2/ Nous sommes les premiers terriens à vivre une révolution scientifique et technique, planétaire, qui nous permet de construire un "modèle artificiel "de notre existence, à travers des capteurs, des réseaux, des mémoires, des processeurs qui multiplient dans des propositions extraordinaires (c'est à dire imprévisibles) notre capacité de modélisation antérieure. Si Pic de la Mirandole avait connu Google, si Einstein avait eu accès au calcul à haute performance, si Leonardo avait connu la modélisation en 3D ! Avec ce modèle, nous pouvons mieux comprendre comment nous fonctionnons, nous pouvons mieux prévoir et agir sur notre environnement, et donc le modifier. Il est même devenu envisageable de propulser les terriens hors de notre planète. Nous sommes passés d'un progrès incrémental, avec des périodes de fortes poussées, comme la fin du XVIIIe siècle, ou les années 1890-1914, à un progrès exponentiel. Cela nous met ans une situation enviable par rapport aux 115 milliards de terriens qui nous ont précédé. Mais cela provoque aussi de nouvelles angoisses car nous touchons à l'essentiel de notre condition humaine, notre relation avec la mort. Nous commençons à considérer la mort non plus comme une fatalité, attachée à notre destin, et compensée par nos croyances religieuses, mais comme un accident technique évitable.

3/ Cette immense source de savoir  disponible est un défi considérable pour tous ceux qui faisaient commerce (lucratif) d'une fraction infime du savoir actuel, et parmi mille, les notaires, médecins, prêtres, politiciens, enseignants, contrôleurs de gestion et surtout les dirigeants politiques et économique qui avaient inventé le système hiérarchique pyramidal pour se mettre au sommet et cadenasser l'accès... ! Leur source de revenu et de pouvoir, la rareté de la connaissance, est tarie. Rendre facile l'accès au savoir et à la capacité de faire que cela apporte à chacun les fait frémir. Cette source de mépris et d'humiliation qui créait un fossé infranchissable entre les sachants et les ignorants n'a plus de raison être. Le cerveau d'œuvre fonctionne en réseau maillé collaboratif, sa capacité de reprogrammation est illimitée car elle s'appuie sur l'intelligence collective qui n'est plus verrouillée par une petite minorité.. 

4/ Cette situation révolutionnaire conduit à des violentes résistances, à de retours sanglants à la barbarie (Daesch prétend régler tous les détails de notre vie en fonction des pensées primaires d'un soldat du VIIe siècle) , au culte de l'ignorance (dont Trump est un grand prêtre). Les dirigeants les plus obscurs s'attaquent à la science, veulent remettre en cause les théories scientifiques comme celles de l'évolution au profit des croyances religieuses ... Bien sûr la technique qui est à l'origine de notre capacité actuelle doit être connue, enseignée à tous, pour être exploitée par tous à la source, le code, et démystifiée. Mais c'est bien l'usage qui est révolutionnaire, en sachant bien que sans Pascal, Babbage, von Neumann, Turing, et Vint Cerf , et quelques autres, nous n'en serions pas là. C'est dans l'usage quotidien d'outils de transports, de communication, de gestion de notre santé, de nos relations avec les autres que s'incarnent les avancées scientifiques, rapidement métabolisées par nos pratiques quotidiennes au point même que nous oublions les prouesses scientifiques qui ont rendu possible cette banalisation de l'usage.

C'est cela le système socio-technique, le ying et le yang de la science et de l'usage.

Capture d’écran 2017-09-13 à 11.12.18


Tesla dans la cour des grands

L'industrie reine du XXe siècle, l'automobile, est en train de vivre une mutation sans précédent. Elle est bousculée par les trois vecteurs de la révolution numérique :

  • la généralisation de l'information mobile et géolocalisée,
  • la mutation de l'énergie, centralisée et carbonée, désormais en passe de devenir renouvelable et décentralisée,
  • la transformation de l'économie des transports, individuels ou collectifs, désormais dans une continuité systémique.

 

L'automobile va devenir connectée, électrique et autonome.

Capture d’écran 2017-03-22 à 23.32.05

Présentation de Carlos Ghosn au CES 2017


Chaque véhicule sera en mesure d'entrer en interaction dynamique avec son environnement, l'infrastructure et les autres utilisateurs de cet espace collectif qu'est la route. Les modèles d'affaires vont évoluer, de la possession vers l'usage, de l'individualisation des comportements, parfois agressive, vers la mise en synergie de tous les moyens de transports dans une continuité fluide.

 

B_1_q_0_p_0


S'il ne fallait choisir qu'un indice de l'ampleur de cette transformation, il faut saluer la performance de Tesla qui a dépassé 300 $ par action le 4 avril, portant la valeur de l'entreprise à 49,57 milliards $. Il a suffit que Tesla annonce avoir produit 25000 véhicules au premier trimestre 2017 pour embraser la bourse et tangente le symbole General Motors qui ne vaut que 51,34 M $. Si les résultats en volume de Tesla sont marginaux au regard d'un marché mondial de l'ordre de 90 millions de véhicules, Tesla symbolise le renouveau de l'industrie automobile par son audace dans l'innovation et la qualité du service.

Tesla n'est certes pas seul à porter cette transformation. Si longtemps l'Alliance Nissan-Renault a pu apparaître comme visionnaire sur le véhicule électrique et conserve le leadership des volumes, les autres constructeurs sont tous venus apporter leur proposition de voiture électrique et connectée. La compétition vers l'autonomie est aussi intense, complexe et aléatoire comme en témoignent les quelques difficultés qu'ont pu rencontrer les premiers véhicules autonomes dans la circulation. Mais ils apprennent, inlassablement, jour après jour, et cette innovation majeure trouvera une place légitime.

Ce qui frappe chez Tesla c'est cette aptitude issue de la culture de la Silicon Valley à poursuivre imperturbablement son projet même en accumulant les pertes opérationnelles, ce que tout constructeur "normal" est incapable de faire. Tesla apporte à une vénérable industrie centenaire les méthodes et les outils de la disruption numérique. C'est cette impertinence qui frappe et même si les critiques ne manquent pas face à ce trublion, attendu au tournant de l'industrialisation de la Tesla 3, force est de reconnaître que le marché financier y croit...


CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..