Genève 2018 : entre conformisme du marché et audace de l'image

Capture d’écran 2018-03-08 à 09.24.03

Renault Zoe, la star européenne des voitures électriques abordables, désormais dotée de 400 km d'autonomie

Genève est un salon automobile à part. Sur un des marchés les plus haut-de-gamme de la planète et sans constructeur national, c’est une enceinte où la compétition bat son plein à armes égales. Les halls d’exposition sont à taille humaine. On peut, en quelques heures, embrasser du regard la production mondiale et sentir les frémissements annonciateurs de changements. Les constructeurs y soignent particulièrement leurs stands et polissent leurs annonces en ce début d’année automobile qui pourrait annoncer quelques nuages après le sans faute de 2017.

Car le marché automobile, si friand de publicités et d’annonces spectaculaires, est un marché de raison, plutôt conservateur. La Suisse, pays à haut pouvoir d’achat, est aussi un de ceux dont le parc neuf émet, en moyenne, le plus de CO2, fortes puissances et SUV obligent.

C’est pourquoi la progression de la part des véhicules alternatifs au pétrole y représente un caractère emblématique au-delà du seul marché helvétique. En effet les émissions moyennes de CO2 des véhicules neufs se sont établies, en Suisse, à près de 134 grammes de CO2 par kilomètre en 2016, ce qui représente une baisse de 1,2% par rapport à l'année précédente (2015: 135 g/km) mais la plus faible baisse depuis 2006.

Les émissions moyennes de CO2 des véhicules à essence se sont situées, comme en 2015, à 136 g de CO2/km. Les émissions des véhicules diesel ont quant à elles baissé à 136 g de CO2/km (139 g/km en 2015). La part des véhicules électriques a engendré une diminution des émissions moyennes de plus de 2 g de CO2/km. La part des voitures de tourisme fonctionnant partiellement ou entièrement à l'électricité représentait 2% du parc de véhicules neufs en 2016 (1,9% en 2015). La part des véhicules diesel a légèrement progressé pour s'établir à 39,5%. La France, en 2016, enregistre un résultat largement plus positif avec seulement 110 g/km contre 176 g/km en 1995. Pendant 21 ans, la baisse des émissions des véhicules neufs vendus a été continue jusqu’en 2016, 2017 enregistrant une légère hausse pour passer à 111 g.

L’électrification du parc, une solution séduisante

Il est évident que la modernisation du parc et l’augmentation de la part des véhicules électriques sont une solution pour réduire massivement les émissions de CO2 et de polluants.  Le secteur des transports représente avec 27% la plus forte source d’émission de CO2 en Europe.

Selon une étude publiée en 2017 par le European Climate Foundation (ECF) il serait possible de réduire les émissions de CO2 des voitures d'ici à 2050, passant de 605 millions de tonnes en 2018 à 70 millions de tonnes en 2050 en adoptant massivement le véhicule électrique avec 71% de véhicules électriques à batteries et 26% de véhicules à piles à combustible.De même, les émissions d'oxydes d'azote (NOx) seraient considérablement réduites, passant de 1,3 million de tonnes par an actuellement à 70.000 tonnes. Quant aux émissions de particules fines, elles chuteraient de 28.000 à 750 tonnes par an.

La baisse du CO2 est une tendance de long terme. Depuis 1990, la circulation des véhicules français et étrangers sur le territoire français a augmenté de 43 % ; leurs émissions de CO 2 associées n’ont quant à elles crû que de 10 %.

Différents facteurs sont à l’origine de cette amélioration de l’efficacité́ énergétique. Ainsi, au niveau des voitures particulières immatriculées en France et en circulation, la baisse de leur consommation unitaire moyenne a été de plus de 22 % entre 1990 et 2016 sous l’effet d’une amélioration technique des véhicules et des mesures de politiques publiques décourageant les fortes cylindrées. D’autre part, la quantité́ de CO2  nécessaire pour le déplacement d’une tonne de marchandises sur un kilomètre par un véhicule industriel sur le territoire français a baissé́ de 29 % entre 1990 et 2016, malgré́ l’impact de la crise économique et financière qui a ralenti le renouvellement des flottes. Il y a donc un progrès de long terme qui doit néanmoins beaucoup à la diésélisation du marché. Or avec le Dieselgate et la prise de conscience que le seul critère CO2 ne suffisait pas à rendre l’automobile vertueuse, le reflux du diesel est très rapide ce qui a pour effet de remonter en moyenne le taux de CO2 du parc neuf ! Les constructeurs cherchent donc désespérément à baisser les émissions de CO2 tout en constatant une baisse brutale, mal anticipée, des ventes de leurs moteurs diesel. Même en Allemagne les moteurs diesel risquent bien de disparaître des centres villes, ce qui les condamne à terme.

Hybridation et électrification sont les seules solutions sur le papier car pour le moment les clients sont peu convaincus. La transformation est décidemment lente et complexe car on parle d’un marché de masse, travaillé depuis des décennies par un marketing qui a mis l’accent sur le plaisir de conduire et la performance et dont l’inertie du parc est fondée sur le fonctionnement du marché de l’occasion.

Le Salon de Genève 2018 s’inscrit dans une continuité

Les voitures électriques n’ont une part marginale dans les ventes mondiales. Il s’est vendu en 2017 1,223 million de voitures électriques à batteries et plug-ins rechargeables, dont 50% en Chine, sur une production mondiale 2017 de plus de 90 millions de véhicules. Dix ans après leur apparition, elles n’ont pas conquis un large public car la proposition de valeur qu’elles représentent n’est toujours pas claire pour les acquéreurs. D’une part, malgré les subventions, elles restent chères sauf quand les véhicules thermiques sont lourdement taxés comme en Norvège.  Le prix des batteries est le facteur déterminant et s’établit, mondialement, autour de 200 $ le kWh. On estime que pour déclencher un marché de masse il faudrait que ce prix tombe au-dessous de 100 $ le kWh, ce qui n’est pas attendu avant 2025, même si beaucoup d’annonces se font régulièrement sur de possibles ruptures techniques dans les batteries. Le passage industriel aux grands volumes reste problématique. De plus, leur autonomie reste un obstacle même si dans la vie quotidienne, les 250 à 300 kms d’autonomie réelle que proposent les derniers véhicules couvrent la quasi-totalité du spectre des besoins. Le rechargement apparait comme problématique, lent et difficile, même si partout les pouvoirs publics ont financé, sans espoir de retour rentable, une offre significative de bornes de recharge. Il y a ainsi en France, fin 2107, plus de 20000 bornes publiques et on estime à plus de 100000 les points de charge à domicile et sur les lieux de travail. Pour un parc roulant de 115 000 véhicules électriques, cet équipement semble raisonnable.

Si la crise de 2008 a brutalement cassé l’essor de l’industrie automobile mondiale, les espoirs d’une réflexion cohérente de l’ensemble des acteurs sur une utilisation raisonnée de l’automobile, que cette situation brutale a pu faire naître, se sont révélés vains. En effet les gouvernements ont continué à faire pression sur les constructeurs pour réduire les émissions de CO2, mais globalement l’usage de l’automobile n’a pas fondamentalement évolué. La conception des véhicules non plus. La puissance, et la vitesse de pointe restent des facteurs marketing majeurs. Sur une sélection des « cent véhicules de l’année 2017 » effectuée par l’hebdomadaire Auto plus, 53 voitures affichaient une puissance égale ou supérieure à 150 cv et une vitesse de pointe moyenne de 184 km/h. La réduction de la vitesse maximale de 10 km/h sur le réseau secondaire suscite ainsi en France une réaction virulente.

Globalement, les voitures sont plus puissantes, plus rapides et plus lourdes, dépassant 1500 kg. L’électrique ne représente que 1% du marché mondial et les hybrides 5%. En France en 2017 il s’est vendu 24904 voitures électriques, pour 20 modèles, sur un volume de ventes total de 2142704, soit 1,16% contre 1,08% en 2016. La seule Renault Zoe représente 61% des ventes. Ces chiffres ne progressent que très peu car l’offre reste marginale et peu soutenue par les réseaux. On voit plus de concepts cars que de véhicules attractifs pouvant déclencher une intention d’achat récurrente et générer un marché de l’occasion sain.

On peut dire que si les salons automobiles immédiatement post-crise laissaient une large part à la recherche de solutions alternatives, les salons de cette fin de décennie sont décevants car ils ne suscitent pas une offre à la fois utile et agréable.

L’offre présentée à Genève confirme l’orientation du marché

La voiture électrique inspire le haut de gamme élitiste. Que Porsche, avec sa Mission E, déclinée en break Cross, ou Jaguar, avec son SUV I-Pace présentent des voitures électriques ne changera pas l’état du marché. Ce sont des voitures d’exception surpuissantes, lourdes, avec une autonomie de 500 km, et très coûteuses. Volkswagen présente l’I.D. Vizzion, pour le moment un concept de voiture autonome de niveau 5 visant 650 km d’autonomie, annoncé pour 2025. Audi annonce également son grand SUV électrique, l’e-tron Quattro. La cible de ces marques est clairement Tesla qui avec son modèle 3 amorce une transition vers le marché de masse dès lors que les problèmes de production auront été maîtrisés.

Hyundai avec le SUV Kona vise des marchés plus larges avec des véhicules bien conçus, permettant une autonomie de l’ordre de 480 kilomètres selon le nouveau cycle de test WLTP. Ce véhicule devrait être vendu mi-2018. Mais la marque présente aussi la Nexo, un SUV à pile à combustible à hydrogène très abouti, de 800 km d’autonomie destiné à remplacer le ix35 Fuel Cell vendu à 1000 exemplaires dans le monde.

Toyota, pionnier de ces solutions, reste fidèle à son engagement dans l’hybride et l’hydrogène, mais annonce son engagement à produire aussi des véhicules électriques à batteries. Toyota rénove son modèle Auris et dévoile un Lexus SUV urbain, l’UX.

Plusieurs marques avancent des solutions hybrides rechargeables, plus rassurants pour le client en termes d’autonomie. C’est le cas de Mitsubishi qui annonce pour 2019 le rajeunissement de son modèle phare,  l’Outlander PHEV, vendu à plus de 100000 unités en Europe depuis 2013, à travers le concept e-Evolution. Skoda innove avec son concept Vision X, un SUV urbain hybride utilisant le gaz naturel

Mais à côté de ces véhicules plus vertueux, Genève exhibe les chevaux des traditionnelles BMW, Audi, Mercedes. PSA présente sa nouvelle berline haut de gamme 508, très riche en équipements électroniques. Les hypercars, dont les stands attirent toujours un public nourri, sont très présents avec une hypertrophie de chevaux. Lamborghini, McLaren avec sa Senna, Ferrari 4888 Pista, Bugatti Chiron rivalisent en performance et en prix.

Le marché automobile demeure conservateur. Clients et constructeurs bougent lentement malgré la pression constante des pouvoirs publics pour discipliner l’usage de l’automobile individuelle au profit d’une stratégie de mobilité multimodale. Cette partie de bras de fer, source d’incompréhensions et de frustrations, n’a pas de raison de cesser tant l’automobile reste pour la plupart un fort symbole de liberté individuelle au-delà de tout calcul économique et sociétal. La voiture électrique n’a pas encore conquis le cœur du marché et reste contestée tant pour son rapport coût/valeur que pour sa contribution réelle à l’environnement sur son cycle de vie complet. Mais si l’électrification a conquis en un siècle tous les marchés, sauf l’automobile, l’innovation du XXIe siècle sera sans nul doute un basculement technique de l’automobile vers l’électrique, l’omni-connectivité et l’autonomie que l’on peut imaginer à partir de 2030.


De la complexité, de l'échec et de la SNCF

Nous sommes dans un monde physique. Avec ses lois, ses contraintes, la masse, le temps, l'énergie, l'espace.  Tout s'y mesure. Mais nous avons inventé son double numérique. Et nous voulons que le jumeau physique du jumeau numérique se comporte sans défaut, sans délai. Nous mesurons chaque jour  que c'est une tâche immense, peut-être impossible.  Nous voulons que dans le monde physique tout fonctionne sans défaut, sans neige glissante les samedis de transhumance d'hiver, sans rats qui s'attaquent aux gaines des câbles électriques, sans gel qui fait éclater les canalisations, sans rivières qui débordent, gorgées  de pluie et entrainent des glissements de terrain. Nous sommes en colère parce que nous constatons que l'espérance de vie de la civilisation c'est en gros 24 h, la durée d'autonomie des batteries de nos téléphones portables. A Saint-Martin, un tempête nous a montré l'extrême vulnérabilité de la dimension physique du vaisseau spatial Terre. Et nous protestons contre cette terrible injustice, être menacés dans notre confort, dans notre survie même par le vent et l'eau.

Notre tentative rassurante de tout rationaliser, modéliser, construire de façon idéale se heurte aux adhérences de notre système industriel qui souffre d'être né il y a si longtemps que même le smartphone n'existait pas. Elle se heurte aux faiblesses de nos organisations, ballotée par les politiques, les dirigeants, les changements intempestifs de direction, les hésitations qui ont fait, par exemple, séparer la SNCF de son réseau physique pour ouvrir en 1997 la voie, au sens propre, de la concurrence. Et puis on s'est dit quand même que c'était pas si simple et on a refermé en 2015 cette parenthèse en réinventant un nouveau système artificiellement séparé en deux, le réseau physique et la circulation des trains, mais au sein d'une même entité juridique. Et tout ceci prend du temps, de l'argent, de l'attention. Pendant ce temps là, le temps poursuit son oeuvre corrosive. Et il faut réparer à marche forcée en faisant pression sur les hommes et les éléments, et les ressources... 

La SNCF c'est un réseau de 30000 km de rails, d'appareils de voie, d'outils de signalisation, de ballast et de caténaires. Du solide qui parfois casse. Défaut d'entretien dit-on. La réalité est complexe, l'homme démiurge veut la soumettre à son désir d'absolu. Le réseau, tout réseau, ce n'est pas une abstraction sur un bel écran. C'est vieux, compliqué, soumis à l'usure, au temps. L'aventure du rail a commencé en 1832 en France. Elle est essentielle pour nos territoire et notre prospérité. L'efficience du réseau, et sa sécurité sont des composants indissociables de notre vécu collectif. S'il est insupportable de laisser en rade les voyageurs du week-end, ce serait pire encore de prendre le risque d'un accident. 

Les pannes à la SNCF illustrent ce terrible conflit entre notre désir d'idéal épuré d'un monde lisse et sans incident et la réalité des cicatrices que le temps et la fatigue impriment sur les choses. Cette crise doit nous mettre en garde. Il y en aura d'autres. Tous les secteurs sont fragilisés par l'accroissement des attentes, l'impatience du résultat parfait dont nous sommes chacun porteurs. Aux effet plus graves, peut-être. Il est notre devoir de travailler pour éviter que cela survienne. Mais aussi de nous préparer à en minimiser l'impact. Il faut investir avec clairvoyance, renforcer les compétences, développer l'ingénierie car faire rouler des trains, mais aussi produire de l'électricté, des voitures , des soins, ce n'est pas du marketing, mais cela met en oeuvre une alliance subtile entre l'intelligence et la matière. Et dans la méthode il faut surtout  ne pas blâmer tous ceux qui font leur travail quotidien avec professionnalisme. Plutôt que des coupables, il faut chercher les causes et les remèdes. 

http://bfmbusiness.bfmtv.com/mediaplayer/video/sncf-a-quand-un-service-de-qualite-0412-1010179.html

Capture d’écran 2017-12-05 à 22.36.19

 


Le marché automobile évolue-t-il : le test des nouveautés 2017 ?

Il y a le discours officiel des constructeurs, la volonté des pouvoirs publics… et la réalité du terrain. Dans la presse économique, il n’est plus possible d’aborder la question du futur de l’automobile sans que soient détaillées les menaces qui pèsent sur ce produit emblématique du XXe siècle. Elles sont majeures. Car elles impliquent à court terme la réduction de l’espace qui lui sera consacré et le durcissement des conditions d’usage, surtout en ville. Plus radicalement, l’interdiction future des voitures à « gaz de pétrole » est inscrite dans la plupart des agendas politiques.

Pour autant, est-ce que ces nuages noirs influent sur l’offre disponible en concession, est-ce que le marché amorce une évolution sensible préparant ces échéances futures ? Qu’en pense la presse automobile, acteur majeur de l’opinion sur l’automobile ?

Ce passage de la vision stratégique à la réalité opérationnelle est au cœur de toute grande transformation. Comment mesurer cela ? Toute méthode ayant ses imperfections, il m’est difficile de prétendre que celle que j’ai choisie est la meilleure. J’ai simplement choisi un numéro d’un magazine[1] représentatif de la presse automobile, présentant un dossier « exceptionnel » sur 100 nouveautés à l’essai.

La lecture détaillée des fiches consacrées à ces essais et le traitement simple des données livre un panorama de l’offre de véhicules nouveaux de cette fin d’année 2017. Ce qui est intéressant c’est que les échéances dont parlent les maires des grandes villes et les ministres en charge de l’environnement dans les grands pays sont désormais inférieures à l’espérance de vie des modèles neufs qui seront vendus en 2018. Quand on évoque une interdiction en 2040, cela parait très loin. La réalité est qu’une bonne moitié des voitures en circulation sur la planète rouleront encore dans quinze ans. On a de sérieuses chances de retrouver encore en pleine forme sur les routes en 2032 les modèles illustrés dans ce panel de fin 2017. En effet, les voitures actuelles sont mieux conçues, mieux construites, sont plus fiables et roulent moins.

1920px-FoS20162016_0624_132444AA_(27785299372)

L'extravagante Bugatti Chiron peut-elle encore faire rêver ?

Cet inventaire des nouveautés met aussi en évidence ce que les rédacteurs de ce journal ont envie de mettre en avant dans leur propre vision du monde automobile comme ce que les lecteurs ont envie de lire. Il est évident que les 1500 chevaux et 420 km/h de la Bugatti Chiron ont peu de chances de peser sur l’atteinte des objectifs de la COP 21. Néanmoins, le fait qu’elle puisse exister et que l’on fasse rêver avec ce type de véhicule est signifiant.

Livrons-nous à un décryptage de ce dossier.

Sur les 100 véhicules choisis par la rédaction, 53 affichent une puissance égale ou supérieure à 150 cv. Mais pour donner encore plus de place à la frugalité, 26 dépassent 250 cv. Cette hyper représentation d’une catégorie de véhicules qui représente quelques pourcents du marché traduit un attachement de la presse automobile à la voiture puissante et statutaire dont la performance reste théorique car personne ne peut utiliser ces chevaux sur la route. Elle démontre aussi que les constructeurs restent attachés pour des raisons de prestige à la conception de véhicules hors normes qui leur assure auprès d’un public traditionnel une image forte et, quand ils vendent ces véhicules, ce qui est marginal, de robustes marges. Le marché français est en effet beaucoup moins centré sur la gamme supérieure que la moyenne européenne : 7% contre 13% en Union Européenne. A l’inverse la gamme économique et inférieure représente 52% des ventes, contre 41% en Union Européenne, la gamme moyenne supérieure étant à 13% contre 18% pour la moyenne européenne. De fait la puissance moyenen des véhicules neufs vendus en France ets de 86 kW contre 95 en UE,  108 en Allemagne, 122 en Suisse et 102 en Grande-Bratagne.

Dns ce panel de cent véhicules figurent toutefois six voitures électriques et dix hybrides dont  4 rechargeables, de même qu’un véhicule au GPL.

Les véhicules diesel sont désormais minoritaires : 36 contre 44 modèles essence et 10 hybrides essence.  Toutefois ce sont des véhicules puissants puisque les petites cylindrées ne sont plus équipées de motorisation diesel en raison du coût et de la complexité du dispositif de traitement Euro 6. Ce panel amplifie la baisse réelle de part de marché des véhicules diesel observée en 2017 par rapport à 2016. Le diesel représente désormais, avec 47,6% des immatriculations des voitures particulières, moins de la moitié des ventes. Cette baisse est rapide.

Sur le plan des performances affichées, la vitesse reste le critère de sélectivité le plus courant. La vitesse de pointe annoncée – hors voitures à haute performance – s’établit en moyenne à 184 km/h sur ce panel. 40 voitures affichent même une vitesse de pointe supérieure à 200 km/h. La consommation moyenne annoncée est de 6,8 l/100 et 22 modèles affichent plus de 8 l/100. La sobriété et la discrétion ne sont pas les critères privilégiés, même pour les hybrides rechargeables souvent surpuissantes.

Il faut aussi noter que le poids des véhicules essayés est rarement en baisse et dépasse allégrement 1500 kg. La consommation et les émissions en pâtissent naturellement, mais n’apparaissent pas dans l’article comme une préoccupation. Au contraire, le poids est mis en avant comme argument pour critiquer le manque de puissance des moteurs.

Certes ce panel hétéroclite est arbitraire, mais résulte néanmoins de choix conscients. Il renvoie, dans un magazine de grande diffusion, à une image traditionnelle de l’automobile qui laisse une part essentielle à la puissance, à la vitesse et au statut. Mais l’émergence des véhicules hybrides et électriques traduit une inflexion significative. Absents il y 5 ans, ils sont l’avant-garde d’une mutation automobile qui s’installe sans hâte mais devrait connaitre d’ici 2020 une accélération majeure annoncée par les plans produit des constructeurs.  En 2016 en France les véhicules électriques ont représenté 1,1% du marché et les hybrides 2,9%, soit au total 80000 unités.

Iu-2Automatique, électrique, la navette Transdev

A l’heure de la COP 23, comme du Smart City Expo World Congress, qui s’est tenu mi-novembre à Barcelone, où l’on prépare un monde sans carbone, on peut déduire de cette analyse que les vieilles recettes ont la vie dure car la résistance du moteur à essence et des « belles mécaniques » est vive, même si une autre histoire commence timidement à s’écrire.

 

[1] N° du 3 novembre 2017 d’Auto Plus


L'impossible consensus... ou comment malgré tout y parvenir !

Chaque individu abrite plusieurs personnages aux intérêts contradictoires. Nous jouons chacun de ces rôles alternativement avec conviction. Et nous nous attendons à être chaque fois pleinement satisfait sinon nous sommes furieux et frustrés. Cette colère devient rapidement, quand on est français, révolte. Forcément légitime. Et bien sûr nous attendons de nos gouvernants qu’ils satisfassent chacun de nos personnages avec un zèle égal.

Comme « fournisseur de service », que ce service soit une prestation intellectuelle, ou une prestation technique ou physique, soit simplement des heures de notre liberté qui nous sont prélevées par un patron, nous attendons, et si besoin, revendiquons une juste rémunération de notre contribution.

Comme « client », nous attendons, voire nous exigeons, d’avoir une qualité irréprochable pour le prix le plus bas possible, ceci au pied de notre porte et sans délai.

Comme « épargnant », même modeste, nous voulons que le sacrifice de notre non-consommation de revenu soit, d’une part, sécurisé contre les aléas économiques, et d’autre part justement rémunéré pour en tirer un revenu additionnel. Nous sommes allergiques aux risques mais friands d’une confortable sécurité.

Comme « contribuable », nous considérons que chaque centime arraché à notre poche et à notre libre arbitre pour être confié à des mains inexpertes de fonctionnaire anonyme est une pure spoliation, l’objectif de chaque contribuable étant de payer le moins possible pour lui en faisant payer les autres.

Comme « citoyen », nous exigeons des routes en parfait état, des écoles qui fassent de chacun de nos enfants des génies, des hôpitaux qui guérissent de tous les maux, une police exemplaire, une armée moderne, bien équipée, efficace pour nous protéger, une « vraie » politique familiale, une retraite confortable. Et tout ceci évidemment pour un coût tendant vers zéro…

Il y a donc en chacun d’entre nous, tout à tour, une montagne d’exigences qui doivent être satisfaites par… les autres. Car nous sommes hélas entourés d’incapables. Les patrons qui ne trouvent pas les bonnes commandes au bon moment, les enseignants qui font des fautes d’orthographe et bien sûr les transmettent à nos gamins, les salariés-du-public-en-grève, les syndicats, et au cœur de tout cela, deux responsables majeurs : le CAC 40, entité aveugle et anonyme, et les banques, cupides et prédatrices. Je pourrais ajouter, mais ce serait certainement excessif, que parmi les incapables majeurs qui nous nuisent avec acharnement il y a les étrangers, uniquement quand ils nous concurrencent comme fournisseurs de services, pas quand ils contribuent au paiement des factures collectives comme contribuables, et surtout le grand Satan coupable de tout cela, l’Europe. Certaines raffinent le modèle et les campagnes électorale sont un festival de vœux pour éliminer tous les obstacles à notre bonheur de citoyen, de contribuable, de fournisseur, de consommateur et d’épargnant…

Regardons de plus près le fonctionnement de ce modèle. Le fournisseur de service, de son temps, de son travail, de ses compétences, veut être mieux rémunéré de son effort. C’est légitime. Mais vu de l’entreprise qui intègre cette contribution dans le prix de revient total du produit ou du service qu’elle va mettre sur le marché, la rémunération devient un coût. Si ce coût de production ne permet pas de vendre le produit plus cher, il deviendra trop cher aux yeux du consommateur qui veut lui limiter les coûts de ses acquisitions. Donc le consommateur qui cherche les prix les plus bas nuit à son voisin de palier fournisseur qui veut les revenus les plus hauts. Le contribuable qui veut réduire sa facture d’impôt en cherchant à dissimuler des revenus ou acheter sans taxe, au noir ou en contrebande, nuit au citoyen qui veut les meilleurs services publics. On estime à une soixantaine de milliards le coût de la fraude fiscale directe. Toute fraude, même mineure, est une atteinte au partage de la contribution collective aux services que l’Etat fournit aux citoyens. L’épargnant qui exige les taux d’intérêt les plus élevés nuit à l’investisseur qui va créer des activités et des emplois par le financement de biens productifs et qui a besoin de payer le moins cher possible les capitaux dont il a besoin. Nous devons bien comprendre que l’économie est un jeu à somme nulle, les gains des uns étant les coûts des autres. La croissance, l’ouverture internationale et l’inflation, déforment cette mécanique de redistribution en augmentant les opportunités car le cadre devient plus large et les flux plus importants. Cette vision implique une compréhension de la difficulté des arbitrages. Chacun de nous sait par expérience qu’une dépense va accroître notre satisfaction immédiate au détriment de notre épargne. Mais l’épargne peut nous offrir une satisfaction différée et donc aléatoire car le long terme est un pari. Il en est de même pour une collectivité nationale qui va préférer donner immédiatement satisfaction aux électeurs-citoyens par une augmentation d’une prestation de rentrée scolaire, par exemple, plutôt que d’investir pour le long terme sur le développement du haut débit mobile. Mais ce ne sont pas les mêmes décideurs, les mêmes mécanismes, les mêmes budgets et les mêmes effets induits. Les arbitrages personnels, comme les arbitrages collectifs, sont donc des choix difficiles qui ne peuvent garantir à chacun le même niveau de satisfaction. Par ailleurs tout ceci se déforme dans le temps !

Cet impossible consensus, qui pourrait mener à des tensions inacceptables, et se traduit périodiquement par des crises, nécessite pour être toutefois résolu que les acteurs économiques acceptent des compromis. La transparence, le débat, la négociation et le respect des arbitrages sont donc indispensables dans une économie complexe. Le marché y pourvoie, pour partie seulement car le signal prix, s'il fonctionne bien, ne suffit pas à résoudre tous les problèmes. C'est bien parce que le consommateur tend à remporter sur le producteur que l'on transfère la fabrication de sèche-linge de France en Pologne.

Le débat collectif, documenté, le vote fréquent sur des questions précises doivent être largement exploités pour rendre les arbitrages et leur conférer une autorité forte pour éviter la remise en cause systématique des décisions prises. Ainsi écrivait Condorcet en 1794 : « Ainsi, l’on n’osa plus partager les hommes en deux races différentes, dont l’une est destinée à gouverner, l’autre à obéir ; l’une à mentir, l’autre à être trompée ; on fut obligé de reconnaître que tous ont un droit égal de s’éclairer sur tous leurs intérêts, de connaître toutes les vérités, et qu’aucun des pouvoirs établis par eux sur eux-mêmes, ne peut avoir le droit de leur en cacher aucune. » Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain.

Ce travail est encore loin d'être accompli. Il est pourtant la clef de la recherche de solutions collectives dont nous avons besoin pour continuer à progresser.


Drôle de campagne, vrais enjeux...

Beaucoup de scrutins, peu de débats de fond

Cette drôle de campagne électorale pour les vrais scrutins d’avril, mai et juin entretient un malaise qui dure depuis le démarrage  de cette  longue campagne pré-présidentielle qui nous a valu déjà quatre scrutins. Tout se passe comme si l’opinion, oubliant les enjeux réels, usée par ces débats, et ces scrutins dont on peut aujourd’hui douter de l’utilité, se laissait aller, apathique, assommée face aux scandales qui offrent une dramaturgie renouvelée à chaque instant. Par ailleurs, tétanisée par l’improbable show quotidien qu’offre Trump, qui démontre que tout est possible et tout est à craindre d’une machine politique devenue folle, l’opinion se met sérieusement à s’inquiéter sur l’issue opérationnelle du scrutin. Car même si ce théâtre peut passionner par ses rebondissements, nul n’ignore que pendant les travaux les ventes doivent continuer. Avec les primaires et la mise en place de la nouvelle équipe de l’exécutif, c’est plus d’une année d’incertitude que le pays s’offre.

Malgré cet état d’apesanteur et ces manœuvres dilatoires qui retardent le moment où le débat va devoir finalement se dérouler pour dessiner le futur des cinq prochaines années, il va bien falloir travailler, réfléchir et in fine décider. Or le temps presse car même si le pouvoir du Président de la République est beaucoup moins large que ne laissent entendre les candidats, il occupe une place essentielle dans le jeu politique de la Ve République.

Pour prendre le temps de la réflexion, ce qui est toujours difficile quand on vit les événements en temps réel, il faut se rappeler que nous sommes dans un régime mixte, présidentiel et parlementaire. Les décisions qui sont prises impliquent une forme de consensus entre des deux pouvoirs également issus du suffrage universel. La plupart des décisions de gestion sont du ressort du gouvernement, responsable devant l’Assemblée, comme l’ont démontré les cohabitations toujours possible même si l’alignement des calendriers des élections présidentielle et législative a pour but de les éviter. Parfois la cohabitation se déroule au sein du même camp. Si l’affrontement  présidentiel surmédiatisé agite les esprits depuis des mois par sa dramaturgie, il n’est qu’une pièce d’un système plus large qui va également nous occuper en juin 2017 et bien au-delà….

Ces précisions nous incitent à mieux comprendre que si les enjeux électoraux sont décisifs, ils ne sont pas exclusifs car la vie économique et sociale d’un pays ne dépend que pour partie des choix politiques. Les déterminants socio-techniques jouent un rôle beaucoup plus important car ils fixent des limites et ouvrent des opportunités aux intentions des gouvernants en dépassant le cadre territorial et temporel de l’action publique. Toutefois les dirigeants surestiment de façon récurrente leur capacité à comprendre ces mécanismes systémiques complexes et à intervenir pour infléchir le jeu des facteurs. Ils ont tous le sentiment que le volontarisme, martelé avec plus ou moins de vigueur, pourra faire revenir les fleuves à leur source. Ceci serait facilité par un « retour » aux frontières nationales, la souveraineté nationale étant proposée à l’opinion comme le cadre magique de la résolution de la plupart de nos problèmes. 

Pour la première fois dans un tel scrutin, la question du protectionnisme est en effet au cœur du débat. Une majorité de candidats en fait un axe central de leurs propositions. Cette audace dans un pays qui depuis la fin de la seconde guerre mondiale a fait de son ancrage dans une Europe économique, puis politique, l’invariant de sa stratégie internationale, surprend car l’opinion semble s’accoutumer d’une idée qui tourne résolument le dos a une culture qui a marqué plusieurs générations.

L'ancrage international de la France

Les attendus du Traité de Paris de 1951 créant la Communauté européenne du charbon et de l’acier, en 1951, ont en effet ouvert la voie à un effort continu et ambitieux  de coopération en Europe. L’Europe a été conçue à la fin de la seconde guerre comme l’outil indispensable de la paix et de la prospérité. La France a ainsi  toujours été motrice dans le processus d’élargissement de l’Union Européenne,  mais également sur le plan mondial avec une adhésion sans réserve à l’Organisation Mondiale du Commerce.

« CONSIDÉRANT que la paix mondiale ne peut être sauvegardée que par des efforts créateurs à la mesure des dangers qui la menacent;

CONVAINCUS que la contribution qu'une Europe organisée et vívante peut apporter à la civilisation est indispensable au maintien des relations pacifiques;

CONSCIENTS que l'Europe ne se construira que par des réalisations concrètes créant d'abord une solidarité de fait, et par l'établissement de bases communes de développement économique;

SOUCIEUX de concourir par l'expansion de leurs productions fondamentales au relèvement du niveau de vie et au progrès des oeuvres de paix;

RÉSOLUS à substituer aux rivalités séculaires une fusion de leurs intérêts essentiels, à fonder par l'instauration d'une communauté économique les premières assises d'une commumaulé plus large et plus profonde entre des peuples longtemps opposés par des divisions sanglantes, et à jeter les bases d'institutions capables d'orienter un destin désormais partagé »

Si ces principes forts ne font plus aujourd’hui l’unanimité, ils n'ont toutefois pas perdu leur sens et leur actualité. L’Europe comme construction volontariste a été mal comprise et mal aimée des peuples.  Les bénéfices de cette coopération apparaissent insuffisants au regard des contraintes que des gouvernants peu courageux ont fait porter sur une Europe qualifiée de désincarnée, et donc jugée bureaucratique. Or ce n’est pas la Commission qui gouverne l’Europe, mais le Conseil de l’Union européenne, composé des chefs de gouvernement des Etats que rassemble l’Europe. La complexité des institutions européennes, le manque de soutien populaire à cette construction difficile à appréhender et mal expliquée ont rendu l’idée européenne peu porteuse au cours des dernières années, même si le Parlement européen, élu au suffrage universel, apporte une indéniable dimension de transparence et de démocratie. Mais à 28 membres, la cohérence et la lisibilité de l’action sont difficiles à valoriser. Est-ce que face à la Chine, aux Etats-Unis, à la Russie, la France seule peut aborder la complexité systémique d'un monde multiple mais confronté aux mêmes problèmes : menaces climatiques, raréfaction des ressources naturelles, fragilisation des océans, dégradation de la biodiversité, migrations non désirées ? Les Etats sont trop grands pour les petits problèmes, mais certainement trop petits pour las grands problèmes. Le moment est-il bien bien choisi pour détricoter l'oeuvre de la construction européenne, certes incomplète et imparfaite, mais qui constitue un cadre de résolution de problèmes existant, démocratique et améliorable. 

Le sentiment de déclassement nourrit la colère 

Mais c’est surtout la crise de 2009 et la transformation rapide des équilibres économiques du monde avec l’émergence de la Chine et de l’Asie qui ont conduit plusieurs courants politiques à développer dans les pays matures l’idée que la mondialisation était la cause des problèmes rencontrés dans ces nations qui, ayant été à l’origine du développement économique mondial, souffraient de voir leur leadership contesté et leur économie ralentie. Cette montée d’un désir de protection contre la concurrence mondiale, jugée déloyale, s’est incarnée dans le vote de sortie du Royaume Uni de l’Union européenne et dans l’élection de Donal Trump aux Etats-Unis.  Les peuples frappés par la remise en cause de leur environnement professionnel et social se sentent abandonnés, trahis par leurs dirigeants qui eux s'en sortent bien. 

Friches
Le discours d’investiture de Donald Trump présente une théorisation de ce mouvement. Une analyse intéressante du Guardian de ce discours met bien en évidence qu’il s’agit d’une déclaration de guerre contre les compromis conduits depuis des décennies par la classe dirigeante américaine dans le concert mondial. C’est une promesse de redressement national fondé sur le retour au protectionnisme et une vision sans nuance et sans précaution du "America first" au profit des classes moyennes et populaires qui auraient été victimes de la mondialisation... Analyse sommaire, discours sans nuance, tout ceci est nouveau dans l'histoire contemporaine car, malgré ce volontarisme cinglant, les Etats-Unis restent une démocratie avec des contre-pouvoirs, comme les premiers mois du mandat de Trump le démontrent,  et doivent respecter les engagements internationaux. Il reste que cette vision repose sur une analyse aussi limpide que celle des populistes européens : le peuple a été trahi par la classe dirigeante qui s'est enrichie par la mondialisation, alors qu'elle transformait un pays prospère en champ de ruines industrielles et de dégénération morale. Le diagnostic est sans précaution, les réponses sont simples : droits de douane élevés, arrêt total de l'immigration, préférence nationale en matière d'emplois et d'investissements. Cette vision prend le contrepied exact de cinquante années de croissance et de relations internationales.

Aujourd'hui nul ne peut dire si cette rupture majeure voulue en 2016 aux Etats-Unis et en Grande-Bretagne, qui ont avec Ronald Reagan et Margaret Thatcher initié la vague de libéralisation économique des années quatre-vingt, va ouvrir une nouvelle page de l’histoire économique mondiale. Il est certain que ces positions ouvrent le débat sur les limites de la libéralisation de l’économie mondiale et sur les conditions de la transformation technique et sociale des économies matures. Mais on ne tue pas une idée, car c'est trop coûteux, on l'améliore ! 

Et pendant ce temps-là, rien n'arrête la révolution numérique 

Car indépendamment de l’émergence cette culture protectionniste, d’année en année se dessine, de façon systémique, un monde où le numérique revisite chaque secteur, chaque métier, chaque processus. Le numérique se joue des frontières. Sur toute la planète, ce sont des milliards d'humains de tous âges qui utilisent le téléphone mobile, désormais "intelligent", et accèdent aux savoirs et services du web.Il ne s’agit pas de louer candidement une « digitalisation » à tout crin de la société pilotée par quelques entreprises si habiles, qu’elles pourraient en devenir cyniques, mais d'en comprendre les ressorts, les enjeux, les risques. L'iconomie, ce n’est pas chanter les louanges d’une disruption ravageuse, mais chercher à construire une société plus efficiente dans la gestion des ressources naturelles et plus ambitieuse dans le respect des hommes et la stimulation de leurs infinies compétences cognitives. 

Robots

Pour y parvenir nous allons, comme les générations précédentes, exploiter la science et la technique, mais plus vite et à plus grande échelle puisqu’il s’agit de notre planète Terre et plus seulement de l'Occident ou de la Chine. Tout ce que nous voyons chaque année au CES de Las Vegas, de l’hygiène bucco-dentaire à la voiture autonome, des exo-squelettes pour handicapés aux imprimantes 3D pour fabriquer des voitures,  aux jeux pour apprendre à construire et programmer des robots dès le plus jeune âge fait sens par rapport à une perspective historique globale : l’amélioration de nos compétences et de notre discernement. Lucidement, en mesurant les conséquences et en trouvant des parades aux problèmes potentiels, nous pouvons construire un monde meilleur où le progrès retrouvera tout son sens : vivre mieux, plus longtemps et en bonne santé, rendre le travail stimulant et non épuisant grâce à la coopération avec les robots, se déplacer en toute sécurité avec des véhicules autonomes, anticiper  les tensions sur les ressources et le climat grâce au big data, apprendre toujours et encore pour donner à chaque habitant de la terre ses chances dans le respect le plus total et sans discrimination avec le concours de l’intelligence artificielle.

Transférer à des machines et à des logiciels des tâches pénibles et peu valorisantes est plutôt une bonne nouvelle. Mais ce sont des humains qui vont, au moins temporairement,  perdre ces emplois et ces revenus, et on ne peut contempler ce phénomène ne se croisant les bras. Ce tarissement progressif d'une source d'emploi faiblement qualifiés impose une réflexion lucide et des mesures d'accompagnement de long terme.

C'est un chantier complexe qui ne peut que se développer dans un esprit de co-construction pragmatique visant l’intérêt général, c’est à dire la prospérité et la sécurité.  Peut-on le faire isolément ? Peut-on le faire à partir d'une lecture partisane, idéologique, du monde et du progrès ? La France seule a-t-elle la taille critique pour concevoir et mettre en œuvre la politique nécessaire pour embrasser ces problèmes ?

De toute évidence, non… L'exercice de la souveraineté n'exclut pas la recherche de solutions mutualisées au niveau régional face aux grands ensembles qui sont constitués sur la planète. Il faut rechercher inlassablement le bon niveau d'exercice de cette orchestration dont nous avons besoin pour éviter que le destin des nations et des peuples soit décidé par les nouveaux maîtres de la technologie. 


CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..


La voiture autonome, utopie ou nouvelle frontière de l'automobile ?

Conservatrice, établie, ancienne, l’industrie automobile subit comme tous les secteurs économiques les pressions de la dynamique des firmes qui organisent la société numérique. Désormais vieille industrie, elle doit, pour garder son statut d’industrie majeure démontrer qu’elle est capable de renouvellement en assurant la fusion de ses compétences propres avec celles issues du monde informatique et numérique. C’est un enjeu d’image, pour continuer à attirer l’attention du public, notamment jeune, sur le produit automobile, et attirer les ingénieurs les plus innovants. L’innovation technique répond à cet impératif dans un monde d’ingénieurs qui ne peut accepter d’être détrôné. Mais dans le monde actuel, ce sont les entreprises numériques qui incarnent cette dynamique. Google, Apple, Amazon et beaucoup d’autres attirent l’intérêt collectif, les clients, les talents, les capitaux. Lorsque Google a annoncé être en mesure de réaliser une voiture autonome, en se présentant comme un concurrent potentiel, l’orgueil de l’industrie automobile a été atteint ce qui a entraîné une réaction unanime des constructeurs classiques.

Aussi, 2014 a vu soudain apparaître dans le paysage automobile une nouvelle tendance technologique : la voiture sans conducteur. Il n’est pas de constructeurs qui n’aient annoncé, dans une surprenante surenchère, qu’ils allaient mettre « prochainement » sur le marché une voiture qui pourrait rouler sans que son conducteur ne se préoccupe de cette tâche désormais futile, conduire. Volvo, Daimler, Nissan, Ford, General Motors, Audi, BMW, Tesla se sont tous risqué à annoncer des dates probables de commercialisation, d’ici 5 à 10 ans, de ces véhicules autonomes ou semi-autonomes sans toutefois préciser l’ampleur du service rendu. Des partenariats inattendus se font jour comme Volvo et Uber.

Le projet n’est pas nouveau. On en trouve des prémices dans les visons futuristes des constructeurs dès les années 1950. Cependant, la ruée actuelle vers ce concept est apparue comme une réponse aux ambitions de Google des constructeurs automobiles établis qui prétendait pouvoir mettre sur le marché non seulement une voiture sans conducteur, mais aussi sans poste de conduite. Il est d’ailleurs bien curieux que, soudain, ceux qui exaltent et embellissent ce fameux plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à un automate le soin de s’acquitter de cette tâche.

Il faut toutefois questionner sérieusement l’intérêt de cette technologie en dépassant la fascination qu’elle inspire. Car après la valse des annonces, la réalité s’impose.

Figure_1_-_vehicule_autonome_en_1956

Vue de la voiture autonome en 1956 (article de l'Association Québécoise des Transports, juin 2015)


Les voitures sont désormais très bien équipées en automatismes multiples qui assistent le conducteur dans sa tâche qui, dans les conditions réelles de circulation, est à la fois complexe et fastidieuse, mais aussi fatigante et dangereuse. Il n’y a que dans les publicités que l’on voit une voiture filer sur une route dégagée et sèche, sans aucun trafic. La réalité quotidienne de la route est bien éloignée de ces images du « plaisir de conduire » qui demeurent obstinément à la base du marketing de tous les constructeurs. Les glissements sémantiques des slogans, soigneusement calibrés, marquant l’identité de marque des constructeurs sont signifiants. Renault qui s’était illustré avec un slogan fédérateur des usages, « Des voitures à vivre » renvoyant à un univers familial, puis hésité entre « Créateur d’automobile » et « Changeons de vie, changeons l’automobile », a adopté en 2015 un slogan qui introduit clairement la passion et certainement une forme d’individualisme : « Passion for life ».

Les constructeurs ont tiré depuis longtemps profit des avancées de l’électronique pour équiper leurs véhicules d’outils d’aide à la conduite. De multiples capteurs et actionneurs ont été intégrés depuis l’apparition de l’antiblocage des roues au freinage, l’ABS, en 1978, pour aider à la conduite ou se substituer au conducteur en cas d’urgence. De fait, d’ores et déjà, une voiture moderne va prendre des décisions pour maintenir sa trajectoire avec l’ESP (Electronic Stability Program), assurer une vitesse constante avec le régulateur, améliorer l’adhérence en cas de pluie ou de neige, amplifier le freinage en cas d’urgence, avertir d’un franchissement de ligne ou de dépassement d’une vitesse autorisée, tout en pourvoyant le conducteur de multiples informations sur son itinéraire. La dernière Mercedes Classe S comprend une centaine de micro-processeurs pour s’acquitter de ces multiples tâches. Ces assistances ne se substituent pas au conducteur, même si elles corrigent, à la marge, ses décisions inappropriées.

En fait, le débat sur la voiture sans conducteur est parti de la volonté initiale de Google de valoriser la suprématie de son système de cartographie, élément fondamental d’un système de conduite autonome qui nécessite une précision de l’ordre du centimètre. Les constructeurs ont réagi en montrant qu’en équipant une voiture de capteurs, radars, scanners laser, outils de géolocalisation et servomoteurs, ils étaient également potentiellement en mesure de se passer du conducteur. Et on a vu ainsi quelques dirigeants se montrer au poste de pilotage de ces véhicules expérimentaux mais sans toucher le volant resté bien classique, position assez curieuse et très peu naturelle qui montre bien que le concept est encore plaqué sur des véhicules conventionnels… Plus encore, pour riposter à Google, les constructeurs automobiles ont décidé de se doter d’un accès direct aux technologies de cartographie de pointe. C’est pourquoi Daimler, BMW et Audi ont ensemble racheté en 2015 à Nokia sa filiale Here, l’ex-Navteq, pour 2,8 milliards €.

Est-ce utile ? Est-ce faisable ?

Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. L’inattention, l’utilisation d’un téléphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Plus d’1,3 millions de personnes dans le monde, selon l’OMS, perdent la vie dans un accident de la route chaque année. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement.

Dès lors mettre au volant un ordinateur doté de capacités sensorielles puissantes et dépourvu des limites biologiques de l’homme est tentant. La motivation est noble : tendre vers le zéro accident et le zéro mort. On attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages, un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. Mais pour atteindre ces résultats il faudrait que la machine elle-même soit exempte de failles, tant dans la conception que dans la gestion des décisions. Confier sa vie à des automates et des algorithmes impose le zéro défaut.

Soulignons d’abord qu’un nouveau vocabulaire est nécessaire pour rendre compte de cette nouvelle avancée technique. On ne devrait pas parler de « voiture autonome » mais de voiture à « délégation de conduite ». Une normalisation de ces niveaux de délégation de conduite a été élaborée. Ce terme de délégation de conduite à des ordinateurs, permet en effet de couvrir une large gamme de situations. Conduire un véhicule sur un parcours varié est une tâche complexe. Une voiture à conduite automatique qui se subsisterait aux véhicules actuels devrait remplir les missions polyvalentes d’un conducteur. Les obstacles sont multiples : emprunter un itinéraire varié, sur des routes hétérogènes, en milieu urbain dense ou en rase campagne, faire face aux aléas du trafic, aux comportements imprévisibles des piétons et autres usagers et aux conditions météorologiques, aux changements de la configuration de la route, en cas de travaux par exemple... Cette compétence du conducteur, ce serait aux ordinateurs du véhicule de l’assurer en s’appuyant sur les informations stockées et sur celles acquises en temps réel par dialogue avec les autres véhicules et les infrastructures au sol.

C’est là où le pari devient plus compliqué. S’il est relativement facile de faire rouler sans solliciter le conducteur une voiture sur autoroute dégagée, il faut que le véhicule soit en mesure d’atteindre une telle route par ses propres moyens et s’en dégager. Il faut donc définir à quel moment l’automatisme rend la main au conducteur s’il ne peut assurer en pleine sécurité une conduite en milieux variés. Il faut donc que le conducteur soit en permanence en situation de vigilance et que l’interface automatisme/humain soit parfaitement fiable. Même avec des pilotes expérimentés, et dans un espace dégagé, les pilotes automatiques des avions sont parfois sources de confusion aux conséquences fatales.

 La conduite automobile est en effet une tâche humaine complexe de plus en plus automatisée. Le travail du conducteur est assisté par de multiples copilotes prévenants. Ces outils vont de l’assistance à la tenue de trajectoire et au freinage, fonctions désormais largement déployées sur les véhicules neufs, à l’assistance au stationnement, à la régulation de vitesses liée au trafic et ultimement à la prise de contrôle totale dans les embouteillages. Ces assistances sont graduellement installées dans les véhicules de dernière génération, chaque nouveau modèle étant l’occasion de compléter l’équipement vers la prise en charge de fonctions nouvelles. Mercedes s’est fait une spécialité de ces équipements, aussi divers que coûteux, et sa Mercedes Classe S constitue un laboratoire roulant, et onéreux, de tous ces outils. Mais les véhicules de moyen de gamme ont aussi, parfois en dotation de base, des équipements qui auraient fait rêver il y a encore cinq ans. Il faut bien admettre que cette course en avant technologique ne fait pas mieux vendre les voitures et n’est plus entre constructeurs un élément suffisamment différenciant. C’est devenu un élément de confort et de sécurité auquel les automobilistes s’habituent et ne souhaitent pas payer.

Où en est la délégation de conduite totale ? Une expérimentation onéreuse.

Pour le moment la délégation de conduite totale, qui fait de la voiture un véhicule réellement autonome à qui il s’agit d’indiquer la destination, n’est qu’un rêve. Les voitures sont soumises à des conditions de fonctionnement bien plus difficiles que les avions, dont les conditions d’usage sont plus simples à modéliser et à programmer. Pour atteindre une telle fiabilité il faut multiplier les capteurs, les processeurs de traitement faisant appel à des algorithmes complexes et à l’intelligence artificielle («machine learning »), les automatismes pour se prémunir de la défaillance d’un composant ou d’un programme. Un tel équipement complexe ne peut qu’être très coûteux. Ainsi un laser 3D, ou lidar, coûte encore 50 000 € pièce. Chaque prototype de la Google Car est équipé de machines représentant plus de 100 000 $. Comment prévoir toutes les situations auxquelles un conducteur pourrait être confronté ?

ll faut donc revenir à une réalité opérationnelle qui ne fera certainement pas rêver mais qui a plus de chances de se concrétiser rapidement. Toyota prône une approche pragmatique et graduelle qui parle de voiture autonome, par couches successives d’avancées techniques, mais non sans conducteur. L’humain, pour Toyota, doit en effet rester en permanence en situation de contrôle. Cette piste est la plus vraisemblable. Les constructeurs vont "simplement" même si le travail est déjà considérable étendre progressivement le champ des automatismes déjà installés, en commençant par le très haut de gamme pour financer le coût de ces installations. Car un des aspects sous-estimés de la voiture autonome est son modèle d’affaire. Comment justifier un tel surcoût par véhicule, même si on peut penser que les progrès de l’électronique embarquée et des logiciels permettront d’en abaisser le coût ?

L’émergence d’un marché de véhicules professionnels ?

Il n’y a vraisemblablement que dans les usages professionnels que ces équipements pourront se justifier dans les prochaines années. Le projet CityMobil2, financé par l’Union Européenne, a permis de tester cinq expérimentations de transport urbain autonome (ARTS : Automated Road Transport Systems) entre 2014 et 2016. Ces expériences ont permis de valider positivement le concept auprès des usagers en termes de confort, service et sécurité, sans enthousiasme particulier, et de tester leur sensibilité par rapport aux voitures autonomes. On voit en 2016 se multiplier ce type d’expériences dans des environnements variés. Il s’agit généralement de navette de passagers autonome adaptée aux espaces sous contrôle comme les aéroports, les ports, les parcs d’attraction ou d’exposition. L’expérience menée par Keolis avec la firme française Navya porte ainsi sur deux navettes de 15 passagers sur une distance linéaire de 1,3 km à 20 km/h dans le quartier lyonnais de Confluence. Ces véhicules coûtent 200 000 €.

Il faut également suivre les travaux d’Uber pour valider un modèle de conduite automatique hautement sécurisée qui permettrait de fournir le service sans devoir gérer les chauffeurs. Ce n’est pas une expérience anodine car Uber emploie dans le monde un million de chauffeurs. Quelques SUV Volvo XC90 ont été équipés pour tester le service dans les rues de Pittsburg, avec toutefois un chauffeur à bord pour des raisons de sécurité et d’acclimatation des usagers. Il est prévu que la flotte comporte dès fin 2016 cent véhicules, ceci dans le cadre d’un plan d’investissement de 300 millions $ copiloté par Volvo et Uber pour commercialiser des voitures autonomes en 2021. Mais si on estime que le coût total d’un chauffeur Uber en France ne dépasse pas 60 000 € par an, il faudrait que le coût supplémentaire d’un véhicule autonome soit significativement intérieur pour prendre ce risque commercial. L’expérience de taxis autonomes de Singapour qui a démarré mi-2016, porte sur un test plus modeste de véhicules électriques rendus autonomes par une start-up, nuTonomy, spécialisée en robotique et intelligence artificielle. Il s’agit de six Renault Zoe et Mitusbishi i-MIEV qui opèrent à partir d’emplacements précis dans un quartier d’affaires de 200 hectares. Ces voitures ont toutefois un chauffeur prêt à prendre les commandes. L’objectif de la start-up est de réduire le nombre de voitures circulant à Singapour de 900 000 à 300 000.

Les véhicules lourds comme les engins de manutention, en site propre, et les poids lourds profiteront certainement de l’avancée de ces techniques.

Carlos Ghosn, parmi d’autres dirigeants, s’est risqué à annoncer en 2016 un plan précis en trois étapes pour Renault et Nissan: conduite automatique dans les bouchons en 2016, conduite automatique sur autoroute en 2018 et conduite en ville en 2020. La conduite automatisée en toutes circonstances ne pourrait être imaginée qu’à partir de 2025. Dans le concert des effets d’annonce que ne va pas manquer de susciter le Mondial de l’automobile de Paris il va être intéressant de distinguer les constructeurs sur le caractère réaliste sur le plan économique de leurs projets de voitures à délégation de conduiteLa voiture autonome, nouvelle frontière de l'automobile ? 

Ce texte est tiré d'une étude Fondapol-Sia Partners qui va paraître fin septembre 2016 sur les enjeux politiques du véhicule électrique


Uberisation, menace ou opportunité ?

« Uberisation », du nom désormais célèbre de la start-up née en Californie il n'y a que quatre ans, en 2012, "UberCab", est devenu en quelques mois un nom commun. C'est un privilège que les grandes marques mettent des décennies à acquérir. or le treme Uber et ses déclinaisons sont devenus sur toute la planète à la fois le symbole des vertus du web et un repoussoir absolu pour l’économie traditionnelle. Cette polarisation extrême des opinions illustre parfaitement  l’ampleur des bouleversements induits par Internet et le web. rappelons qu'entre quatre ans Uber s'est déjà installé dans 66 pays et 500 villes.

Uber dégage Uber-980x420Deux visions du monde s'affrontent

Nés seulement  à la fin du XXe siècle dans la sphère des usages domestiques,  l’infrastructure internet et les services du web ont bousculé le monde des entreprises qui ne considérait pas cette innovation grand public comme pertinente pour le monde professionnel. Douze ans après les premières apparitions du web, c’est l’iPhone qui allait en 2007 provoquer une nouvelle vague de mutations. En permettant l’accès mobile à toute l’information, en exploitant à large échelle le potentiel de la géolocalisation,  le smartphone mettait fin au règne de « l’informatique assise » qui servait de base à toutes les pratiques sociales de l’organisation du travail. Le traitement de l’information et de la connaissance, en situation de mobilité, casse les frontières et remet en cause les processus. En bousculant le temps et le lieu de travail, l’informatique nomade donne à celui qui est proche du terrain le moyen d’agir et d’interagir avec son environnement.

L’ubérisation, le rêve d’un marché efficace

Loin d’être achevée, cette révolution se traduit par une désintermédiation massive des métiers. Quand on peut trouver à travers une plateforme informatique agréable la solution à son problème, on ne cherche plus à utiliser les processus traditionnels, guichets, téléphone, intermédiaires obligés et coûteux. L’utilisateur va au plus simple et au plus agréable. Cette « ubérisation », redoutée par toutes les entreprises, est à l’œuvre partout au grand bénéfice du client, qui trouve dans ces outils le moyen de se libérer des carcans des processus bureaucratisés et de la mauvaise humeur des intermédiaires. A travers une interface ergonomique, il peut trouver, en toute transparence et sans stress, le meilleur outil de transport, le meilleur billet d’avion, le meilleur rapport coût/valeur pour un produit, le restaurant ou l’hébergement le mieux adapté à ses besoins, la référence de la pièce détachée qui lui manque.  La désintermédiation à travers une plate-forme répond à un vieux rêve : être capable de prendre lucidement la meilleure décision en temps réel et de façon contextuelle. La technologie le permet, les utilisateurs l’ont adopté.

L'agilité, plus qu'un outil, une culture

La généralisation de ce modèle et de ses dérivés nourries par l’évolution technique  est le moteur du changement que nous allons continuer à vivre dans le futur. Il sera graduel, continu, et va toucher tous les actes professionnels comme privés. L’informatique,  quittant le champ de l’industrialisation des processus répétitifs, est en marche pour conquérir tous les espaces de la conception, de la production, de la diffusion.  L’action se nourrit de l’information et de la connaissance, du rationnel comme des émotions. C’est la mise en relation, continue et riche, qui va donner à la décision, à tous les niveaux de l’organisation, une densité et une robustesse renforçant l’efficacité collective dès le niveau le plus fin, c’est à dire chaque personne.  

 Ce modèle d’organisation est agile et réduit la complexité pour s’adapter plus rapidement à un environnement changeant. L’agilité est une vision du travail basée sur l’idée de changement permanent, itératif et incrémental, où le produit final, matériel ou immatériel, doit pouvoir évoluer en s’adaptant au désir du client et aux conditions du marché. L’entreprise agile privilégie des cycles de développement courts, développe ses produits par itérations en fonction, en priorisant les évolutions identifiées,  se confronte très tôt au feedback du marché et des clients. Au besoin, elle peut « pivoter », c’est à dire changer radicalement son produit ou son business model si le marché l’exige. L’entreprise agile se nourrit de collaborations extérieures et remet en cause constamment, et sans drame, son modèle d’organisation. S’appuyant sur le réseau maillé collaboratif, l’entreprise agile est infiniment « scalable », c’est à dire qu’elle s’adapte au contexte sans délai ni rupture.

Revitaliser le sens du travail

Dans ce modèle, qui  n’a pas vocation à être marginal car il peut couvrir l’essentiel des activités, la personne est revenue au centre. Ceci peut apparaître comme scandaleux pour beucoup de tenants d'une économie plus stable et prédictive, plus administrée, telle qu'ils ont le sentiment de l'avoir vécue au cours des dernières décennies. Mais c'était une économie de rarété gérée au seul profit des productuers. Dans la mouvance du web, produire ou consommer ne sont plus des exercices frustrants imposés par d’autres, mais le moyen d’exprimer ses compétences, son talent, ses envies dans un cadre à la fois solide et fluide. Les tenants de l’économie conventionnelle peuvent se lamenter sur les conditions de travail des chauffeurs Uber, mais eux-mêmes considèrent que conduire une voiture et rendre des services est moins déshonorant que le chômage et génère un niveau de revenus satisfaisant dans un cadre plus libre que le salariat traditionnel. Uber affirme créer 20000 emplois dans le monde chaque mois.

Or pour beaucoup de gens aujorud'hui, ce n’est pas le travail qui pose problème mais la façon dont il s’exerce. La persistance de modèles autoritaires, inefficaces, prive beaucoup de collaborateurs du plaisir de la coopération, et alimente les dégâts du stress au travail. Uber n'est certes pas un modèle paradisiaque d'organisation du travail et de la gestion des compétences. Mais en existe-t-il vraiment ? Est-ce que le modèle de protection historique auquel est attaché nombre de salariés, en France, garantit, dans un monde qui bouge et avec une technologie qui ne cesse de rebattre les cartes, l'épanouissement, le développement des compétences, le sens de l'initiative et de l'innovation. La rigidté engendre la crise. Les exemples d'entreprises indestructibles qui ont fini par sombrer le démontrent.

Innover en matière de travail, c’est produire du sens et développer sans cesse la compréhension, le respect, la confiance et la formation, seuls moteurs de l’adhésion. Le numérique oblige à repenser le fonctionnement de  l’entreprise comme un réseau ouvert sur l’extérieur et non plus comme une pyramide fermée. L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, ne constituent pas des propriétés que l’on trouve à l’état naturel dans les entreprises. Il faut les fabriquer. C’est un travail de remise en cause des acquis. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. L’ubérisation n’est pas seulement un risque, c’est une opportunité pour la plupart des entreprises de se remettre en cause en relevant leur niveau d’exigence qualitative et leur capacité d’innovation pour séduire et fidéliser aussi bien les clients que les collaborateurs.


Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


L'économie collaborative est-elle fondée sur... le partage ?

La technologie avance, les grands acteurs se mettent en place et exploitent habilement leurs positions aux "postes de péage" de la société numérique. Faut-il craindre la construction de nouveaux monopole qui facilitant l'économie collaborative seraient les premiers à en tirer profit sans limite ? Le débat n'est pas simple alors que l'on s'interroge sur les emplois du futur et sur les mécanismes de financement des charges collectives mutualisées : fonctionnement de services publics, santé, prévoyance. Il faut inventer cette économie du XXIe siècle qui ne doit pas inquiéter mais faire réfléchir et agir sur des bases nouvelles. C'est le sens des travaux de l'Institut de l'Iconomie dont cet article est une production.

 

Article publié dans Le Monde du 4 février avec mes amis de l'Institut de l'Iconomie

 


Economie du partage ou hypercapitalisme ?
Les plates-formes numériques ne seront durables que si la rente qu'en tirent leurs propriétaires est redistribuée à leurs utilisateurs


Automatisation, robotisation, ubérisation : la révolution numérique porte la menace d'un chômage de masse. Il ne faudrait pas s'en plaindre, car la fin du travail ouvrirait, selon l'influent essayiste américain Jeremy Rifkin, une période d'activités bénévoles intenses. A l'image de Wikipédia, la connaissance, les images, les objets imprimables en 3D ne coûteront plus rien. L'énergie produite par chacun, le partage des objets et des services comme Vélib' ou Blablacar feront chuter les dépenses. L'économie du partage s'imposera ainsi jusqu'à éclipser le capitalisme et la nécessité de travailler.

Cette vision est séduisante, mais c'est un leurre. Cette nouvelle route du " communisme " conduit en réalité à l'hypercapitalisme. L'économie collaborative moissonne les richesses au profit d'une minorité, mais sans les redistribuer. Les contributeurs s'en indignent dès qu'ils en prennent conscience, ce qu'illustre le cas du Huffington Post aux Etats-Unis. Ce " Wikipédia du journalisme " faisait intervenir des milliers de chroniqueurs bénévoles, qui se sont révoltés le jour où le journal a été vendu pour 315 millions de dollars (plus de 288 millions d'euros) à AOL sans qu'ils reçoivent leur part.

Des milliers de crowdfunders (adhérant au financement participatif) se sont scandalisés quand Oculus, le développeur d'un système de réalité virtuelle auquel ils avaient apporté leur contribution,s'est vendu pour 2 milliards de dollars à Facebook. De plus, les grandes plates-formes de l'économie collaborative ne payent pas d'impôts. Sur ce point, cette économie ressemble à l'économie financiarisée, dans laquelle les plates-formes de trading à haute fréquence prélèvent leur dîme sans contrepartie. Dès lors, le cerveau, matière première du XXIe siècle, s'expose à la même surexploitation que les matières premières naturelles du XXe siècle. Dans sa forme actuelle, l'économie collaborative n'est pas durable.

Il faut donc introduire un nouveau mécanisme de partage des richesses. L'échec de la taxe Tobin nous a déjà montré que ce ne sera pas par l'impôt. Il vaut mieux s'inspirer des industries créatives, comme celles des jeux vidéo ou du cinéma, dont la production est monétisée par la propriété intellectuelle, ce que préconisait Maurice Lévy, le PDG de Publicis, dès 2006.

Innovations d'usage
Ce mécanisme doit intégrer une double détente, pour que le bénévolat initial puisse être rétribué équitablement dans le cas de sa monétisation indirecte, ce que recommande aujourd'hui le Conseil national du numérique. Il doit enfin s'adosser à des fonds souverains dont les actifs sont les brevets et les marques, sur le modèle déjà expérimenté de France Brevets, pour collecter des montants de redevances au lieu d'impôts.

Il faut aussi faciliter l'innovation d'usage, seule créatrice d'emplois, comme l'illustre la banque assurance. L'emploi de ce secteur était menacé par l'informatisation : le rapport Nora-Minc de 1978 anticipait 30 % de réduction d'effectifs à cause de l'automatisation du traitement des chèques, des distributeurs de billets, des relevés de compte, des virements, des prélèvements mensuels, de la comptabilité, etc. Mais, dans le même temps, les innovations d'usage apportées par l'informatique, comme la carte à puce ou la gestion personnalisée de portefeuilles de titres, ont plus que compensé ces réductions. Au final, les effectifs du secteur ont augmenté de 25 %. Aujourd'hui, le premier créateur d'emplois en France est de fait la société O2, dont l'innovation permet aux femmes de ménage de disposer de toute leur organisation dans leur smartphone.

La vision dominante de la révolution numérique est une menace. Quelques ajustements de partage des richesses et de doctrine économique permettraient d'en canaliser la puissance pour la rendre créatrice de nouveaux usages et de nouveaux emplois.

par Vincent Lorphelin, Jean-Pierre Corniou et Christian Saint-Etienne