Le marché automobile évolue-t-il : le test des nouveautés 2017 ?

Il y a le discours officiel des constructeurs, la volonté des pouvoirs publics… et la réalité du terrain. Dans la presse économique, il n’est plus possible d’aborder la question du futur de l’automobile sans que soient détaillées les menaces qui pèsent sur ce produit emblématique du XXe siècle. Elles sont majeures. Car elles impliquent à court terme la réduction de l’espace qui lui sera consacré et le durcissement des conditions d’usage, surtout en ville. Plus radicalement, l’interdiction future des voitures à « gaz de pétrole » est inscrite dans la plupart des agendas politiques.

Pour autant, est-ce que ces nuages noirs influent sur l’offre disponible en concession, est-ce que le marché amorce une évolution sensible préparant ces échéances futures ? Qu’en pense la presse automobile, acteur majeur de l’opinion sur l’automobile ?

Ce passage de la vision stratégique à la réalité opérationnelle est au cœur de toute grande transformation. Comment mesurer cela ? Toute méthode ayant ses imperfections, il m’est difficile de prétendre que celle que j’ai choisie est la meilleure. J’ai simplement choisi un numéro d’un magazine[1] représentatif de la presse automobile, présentant un dossier « exceptionnel » sur 100 nouveautés à l’essai.

La lecture détaillée des fiches consacrées à ces essais et le traitement simple des données livre un panorama de l’offre de véhicules nouveaux de cette fin d’année 2017. Ce qui est intéressant c’est que les échéances dont parlent les maires des grandes villes et les ministres en charge de l’environnement dans les grands pays sont désormais inférieures à l’espérance de vie des modèles neufs qui seront vendus en 2018. Quand on évoque une interdiction en 2040, cela parait très loin. La réalité est qu’une bonne moitié des voitures en circulation sur la planète rouleront encore dans quinze ans. On a de sérieuses chances de retrouver encore en pleine forme sur les routes en 2032 les modèles illustrés dans ce panel de fin 2017. En effet, les voitures actuelles sont mieux conçues, mieux construites, sont plus fiables et roulent moins.

1920px-FoS20162016_0624_132444AA_(27785299372)

L'extravagante Bugatti Chiron peut-elle encore faire rêver ?

Cet inventaire des nouveautés met aussi en évidence ce que les rédacteurs de ce journal ont envie de mettre en avant dans leur propre vision du monde automobile comme ce que les lecteurs ont envie de lire. Il est évident que les 1500 chevaux et 420 km/h de la Bugatti Chiron ont peu de chances de peser sur l’atteinte des objectifs de la COP 21. Néanmoins, le fait qu’elle puisse exister et que l’on fasse rêver avec ce type de véhicule est signifiant.

Livrons-nous à un décryptage de ce dossier.

Sur les 100 véhicules choisis par la rédaction, 53 affichent une puissance égale ou supérieure à 150 cv. Mais pour donner encore plus de place à la frugalité, 26 dépassent 250 cv. Cette hyper représentation d’une catégorie de véhicules qui représente quelques pourcents du marché traduit un attachement de la presse automobile à la voiture puissante et statutaire dont la performance reste théorique car personne ne peut utiliser ces chevaux sur la route. Elle démontre aussi que les constructeurs restent attachés pour des raisons de prestige à la conception de véhicules hors normes qui leur assure auprès d’un public traditionnel une image forte et, quand ils vendent ces véhicules, ce qui est marginal, de robustes marges. Le marché français est en effet beaucoup moins centré sur la gamme supérieure que la moyenne européenne : 7% contre 13% en Union Européenne. A l’inverse la gamme économique et inférieure représente 52% des ventes, contre 41% en Union Européenne, la gamme moyenne supérieure étant à 13% contre 18% pour la moyenne européenne. De fait la puissance moyenen des véhicules neufs vendus en France ets de 86 kW contre 95 en UE,  108 en Allemagne, 122 en Suisse et 102 en Grande-Bratagne.

Dns ce panel de cent véhicules figurent toutefois six voitures électriques et dix hybrides dont  4 rechargeables, de même qu’un véhicule au GPL.

Les véhicules diesel sont désormais minoritaires : 36 contre 44 modèles essence et 10 hybrides essence.  Toutefois ce sont des véhicules puissants puisque les petites cylindrées ne sont plus équipées de motorisation diesel en raison du coût et de la complexité du dispositif de traitement Euro 6. Ce panel amplifie la baisse réelle de part de marché des véhicules diesel observée en 2017 par rapport à 2016. Le diesel représente désormais, avec 47,6% des immatriculations des voitures particulières, moins de la moitié des ventes. Cette baisse est rapide.

Sur le plan des performances affichées, la vitesse reste le critère de sélectivité le plus courant. La vitesse de pointe annoncée – hors voitures à haute performance – s’établit en moyenne à 184 km/h sur ce panel. 40 voitures affichent même une vitesse de pointe supérieure à 200 km/h. La consommation moyenne annoncée est de 6,8 l/100 et 22 modèles affichent plus de 8 l/100. La sobriété et la discrétion ne sont pas les critères privilégiés, même pour les hybrides rechargeables souvent surpuissantes.

Il faut aussi noter que le poids des véhicules essayés est rarement en baisse et dépasse allégrement 1500 kg. La consommation et les émissions en pâtissent naturellement, mais n’apparaissent pas dans l’article comme une préoccupation. Au contraire, le poids est mis en avant comme argument pour critiquer le manque de puissance des moteurs.

Certes ce panel hétéroclite est arbitraire, mais résulte néanmoins de choix conscients. Il renvoie, dans un magazine de grande diffusion, à une image traditionnelle de l’automobile qui laisse une part essentielle à la puissance, à la vitesse et au statut. Mais l’émergence des véhicules hybrides et électriques traduit une inflexion significative. Absents il y 5 ans, ils sont l’avant-garde d’une mutation automobile qui s’installe sans hâte mais devrait connaitre d’ici 2020 une accélération majeure annoncée par les plans produit des constructeurs.  En 2016 en France les véhicules électriques ont représenté 1,1% du marché et les hybrides 2,9%, soit au total 80000 unités.

Iu-2Automatique, électrique, la navette Transdev

A l’heure de la COP 23, comme du Smart City Expo World Congress, qui s’est tenu mi-novembre à Barcelone, où l’on prépare un monde sans carbone, on peut déduire de cette analyse que les vieilles recettes ont la vie dure car la résistance du moteur à essence et des « belles mécaniques » est vive, même si une autre histoire commence timidement à s’écrire.

 

[1] N° du 3 novembre 2017 d’Auto Plus


La voiture sans essence va révolutionner la ville

Les annonces se multiplient. Lassés d'investir dans les infrastructures routières sans réduire les encombrements ni les émissions toxiques et de gaz à effet de serre, les dirigeants de la planète ont décidé de changer drastiquement les règles du jeu. Si la voiture est un symbole de liberté individuelle et a largement contribué au XXe siècle à libérer les individus en leur offrant la faculté de découvrir les grands espaces sans contrainte, elle se révèle contre-productive en ville où la liberté de se mouvoir ne peut être garantie à chacun avec un véhicule individuel. Les contraintes foncières, le réchauffement qu'induit la circulation automobile massive dans un espace limité, l'allongement des temps de transport individuel condamnent l'usage de la voiture individuelle en pleine propriété. La toxicité de l'automobile, notamment diesel, est désormais prouvée et les industriels qui ont tardé à le reconnaître et tentés par des manoeuvres frauduleuses de cacher leur impossibilité de faire face aux problèmes liées aux courtes distances sont aujourd'hui sur la sellette.

Iu

Les transports publics, qui ont partout dans le monde progressé en efficacité et en confort sont la seule solution de transit de masse acceptable. Ils doivent être complétés par des solutions individualisées, comme le taxi, l'autopartage les navettes automatiques et le co-voiturage, et bien évidemment avec des modes de propulsion sans rejet local. Cette transformation de la ville est désormais un choix politique assumé par les plus grandes villes du monde. Les Etats ont fixé une date : 2040. A partir de ce moment-là il n devrait plus être possible de commercialiser des voitures à "gaz de pétrole". Les industriels, les utilisateurs, les flottes ont le temps de s'adapter. Mais cette annonce concomitante partout dans le monde laisse furieux les amateurs de grosses cylindrées. Qui regrette les 11000 fiacres parisiens de 1907 et leurs cargaisons de crottins ?  Il est possible de gérer cette mutation nous en en avons le temps, nous en avons besoin et surtout les villes deviendront des lieux de vie et de travail confortables. L'innovation que cette mutation va induire est multiforme et sera source d'emplois et de compétences nouvelles. C'est un enjeu majeur de civilisation.

Si les débats sur les causes sont aujourd'hui clairement établis, les solutions vont faire l'objet dans les années à venir d'âpres controverses. or il faut que le débat soit documenté pour être serein, démocratique et permettre à chacun, collectivités, industriels, urbains, citoyens de trouver des réponses appropriées.

https://www.franceinter.fr/emissions/le-telephone-sonne/le-telephone-sonne-17-octobre-2017

https://www.lesechos.fr/idees-debats/cercle/030699740970-jean-pierre-corniou-lautomobile-nest-plus-une-solution-pour-les-villes-2121718.php


Science et usage, la dialectique de la transformation

1/ Le monde est bouleversé, hier comme aujourd'hui, par l'ingéniosité, la curiosité et l'instinct de survie des hommes qui les poussent à découvrir sans cesse de nouvelles réponses aux questions qu'ils se posent et aux problèmes qu'ils génèrent. Pour cela ils inventent des concepts, des outils, des méthodes qui repoussent les limites antérieures, défient les pouvoirs, mettent à bas les croyances... et font émerger de nouveaux problèmes, de nouvelles questions. Cela s'appelle le "progrès". Mais si l'humanité a toujours été secouée périodiquement par une remise en cause brutale de ses acquis, ce que nous vivons au XXIe siècle  est marqué par l'accélération sans précédent des savoirs.

Capture d’écran 2017-09-13 à 11.06.51

2/ Nous sommes les premiers terriens à vivre une révolution scientifique et technique, planétaire, qui nous permet de construire un "modèle artificiel "de notre existence, à travers des capteurs, des réseaux, des mémoires, des processeurs qui multiplient dans des propositions extraordinaires (c'est à dire imprévisibles) notre capacité de modélisation antérieure. Si Pic de la Mirandole avait connu Google, si Einstein avait eu accès au calcul à haute performance, si Leonardo avait connu la modélisation en 3D ! Avec ce modèle, nous pouvons mieux comprendre comment nous fonctionnons, nous pouvons mieux prévoir et agir sur notre environnement, et donc le modifier. Il est même devenu envisageable de propulser les terriens hors de notre planète. Nous sommes passés d'un progrès incrémental, avec des périodes de fortes poussées, comme la fin du XVIIIe siècle, ou les années 1890-1914, à un progrès exponentiel. Cela nous met ans une situation enviable par rapport aux 115 milliards de terriens qui nous ont précédé. Mais cela provoque aussi de nouvelles angoisses car nous touchons à l'essentiel de notre condition humaine, notre relation avec la mort. Nous commençons à considérer la mort non plus comme une fatalité, attachée à notre destin, et compensée par nos croyances religieuses, mais comme un accident technique évitable.

3/ Cette immense source de savoir  disponible est un défi considérable pour tous ceux qui faisaient commerce (lucratif) d'une fraction infime du savoir actuel, et parmi mille, les notaires, médecins, prêtres, politiciens, enseignants, contrôleurs de gestion et surtout les dirigeants politiques et économique qui avaient inventé le système hiérarchique pyramidal pour se mettre au sommet et cadenasser l'accès... ! Leur source de revenu et de pouvoir, la rareté de la connaissance, est tarie. Rendre facile l'accès au savoir et à la capacité de faire que cela apporte à chacun les fait frémir. Cette source de mépris et d'humiliation qui créait un fossé infranchissable entre les sachants et les ignorants n'a plus de raison être. Le cerveau d'œuvre fonctionne en réseau maillé collaboratif, sa capacité de reprogrammation est illimitée car elle s'appuie sur l'intelligence collective qui n'est plus verrouillée par une petite minorité.. 

4/ Cette situation révolutionnaire conduit à des violentes résistances, à de retours sanglants à la barbarie (Daesch prétend régler tous les détails de notre vie en fonction des pensées primaires d'un soldat du VIIe siècle) , au culte de l'ignorance (dont Trump est un grand prêtre). Les dirigeants les plus obscurs s'attaquent à la science, veulent remettre en cause les théories scientifiques comme celles de l'évolution au profit des croyances religieuses ... Bien sûr la technique qui est à l'origine de notre capacité actuelle doit être connue, enseignée à tous, pour être exploitée par tous à la source, le code, et démystifiée. Mais c'est bien l'usage qui est révolutionnaire, en sachant bien que sans Pascal, Babbage, von Neumann, Turing, et Vint Cerf , et quelques autres, nous n'en serions pas là. C'est dans l'usage quotidien d'outils de transports, de communication, de gestion de notre santé, de nos relations avec les autres que s'incarnent les avancées scientifiques, rapidement métabolisées par nos pratiques quotidiennes au point même que nous oublions les prouesses scientifiques qui ont rendu possible cette banalisation de l'usage.

C'est cela le système socio-technique, le ying et le yang de la science et de l'usage.

Capture d’écran 2017-09-13 à 11.12.18


Cybersécurité, l'enjeu industriel

Fullsizeoutput_2720

L'économie numérique a engendré son double maléfique, le monde sombre de la cyber criminalité. Les attaques se suivent. Et vont continuer. Cette situation n'est pas surprenante, elle est vieille comme l'humanité. Les compétences développées pour mettre en place en moins de trente ans une économie fluide, mondiale, fondée sur l'échange d'informations et de connaissance, sont aussi utilisées pour développer la criminalité et poursuivre par des moyens violents la compétition séculaire entre nations et groupes sociaux. La cyber criminalité s'est installée durablement comme une branche du crime organisé et des politiques d’intimidation entre états. 

L'enjeu de la sécurité se joue donc sur deux plans distincts : 

- celui des individus et des entreprises dont l'intégrité physique peut être engagée par des offensives criminelles opérées depuis internet

- celui des États, confrontés au traitement d'une nouvelle forme d'insécurité qui menace leurs intérêts vitaux et leur souveraineté, et où ils se retrouvent aussi bien prédateurs que proies.

Identifier en permanence les menaces, comprendre les faiblesses, se mettre en situation de réagir pour diminuer les dommages causés, puis organiser la riposte sont autant de techniques éprouvées dans l'histoire qui doivent aujourd’hui se déployer dans l'univers numérique. La puissance publique, garante de la sécurité des citoyens, et de la stabilité du cadre économique, ne peut durablement laisser le privilège de l'offensive aux forces de déstabilisation et de destruction de l’ordre. Comme pour chaque évolution technique, les forces criminelles savent capter l'innovation au service de leurs intérêts plus rapidement que la société ne se met en situation de gérer ces menaces nouvelles, tant par la réglementation que par la répression.

Mais l'ampleur des enjeux dans une économie mondialisée et sur le chemin d'une numérisation totale n'a plus rien à voir avec la menace que pouvait faire peser sur les banques à la fin de la guerre « la bande des tractions »,  gangsters technophiles, avec leurs Citroën traction avant plus rapides que les voitures de la police. La menace est omniprésente et protéiforme, l’ingéniosité des cyber attaquants sans limite. Ils n’ont pas de règles, de processus, de budgets à respecter. Leur agilité est totale, ce qui les rend totalement dangereux.

Il ne faut donc plus considérer la sécurité comme une activité marginale car elle s'insère désormais au cœur de la conception des systèmes et doit être présente dans chacun des usages. Tout étant désormais numérisé et connecté, tout devient vulnérable. Cette politique de sécurité change de nature. Elle sort du périmètre des organisations, limité à quelques règles simples gérées par des spécialistes. Elle est désormais centrale, systémique, cohérente et a pour objectif d'assurer une continuité totale des opérations tout au long de la chaîne de valeur. Elle implique chacun au quotidien tout en devenant une discipline à part entière, hautement technique.

Si tous les États s'équipent pour faire face à ces nouvelles menaces, l'Etat d'Israël, compte tenu de son histoire, de sa taille et de sa vulnérabilité a été un des premiers à mettre en place une organisation puissante dès 2002, la NISA, National Information Security Authority, couvrant aussi bien les acteurs privés que les autorités publiques. Mais, c’est dès 1952 que l’armée israélienne avait constitué une unité spécialisée dans le renseignement électronique, l’unité 8200, qui est considérée comme le creuset de toute la pensée de l’Etat israélien en matière de cyber défense. Ses membres ont essaimé dans toute l’industrie et constituent une élite aux postes de responsabilité publics comme privés. 

Depuis 2011 la structure centrale, au cœur du système public et privé de défense contre la cybercriminalité, se nomme Cyber Bureau et dépend du Premier ministre.

Autour de ce rôle fédérateur de l'Etat, s'est développé un écosystème complet qui est reconnu pour sa créativité et joue un rôle de leader dans le monde. On estime que 25% des dépenses de R&D mondiales consacrées à la cyber sécurité sont effectués en Israël. Et les sociétés israéliennes, dans le secteur militaire comme dans le civil ont atteint un haut degré de performance et sont actives dans le monde entier, et principalement aux Etats-Unis avec lesquels se sont tissés des liens étroits. La plupart des grands entreprises mondiales du secteur disposent d'un centre de recherche en Israël dédié à la cybersécurité. L’Etat a encouragé la création d’un pôle spécialisé dans la cybersécurité dans le désert du Néguev à Beer’Sheva.

La sécurité prend une dimension nouvelle avec le déploiement du contrôle numérique des infrastructures et des installations industrielles. Même isolés du réseau internet, ces équipements dépendent aujourd'hui d'un fonctionnement numérique. 80 % des systèmes industriels sont de fait connectés à internet par l'intermédiaire de certains de leurs composants. Les grandes infrastructures vitales, comme les réseaux ferrés, les aéroports, la distribution électrique, les systèmes d’approvisionnement, dépendant pour leurs performances de logiciels et d’outils informatisés. Leur sécurité de fonctionnement dépend de multiples facteurs qu’il faut inventorier et monitorer sans relâche. Ce sont précisément ces fonctions que les nouveaux outils de cyberdéfense instrumentent. Dans le domaine grand public, les produits connectés, conçus aujourd'hui, sont eux la plupart du temps connectés directement au réseau IP par Wi-Fi. Cette facilité d’usage présente aussi une grande vulnérabilité.

Les bénéfices clients de cette connexion sont devenus vitaux. L'Internet des objets est fondé sur les avantages que donne la connexion de tous les composants d’un système, permettant la collecte des données et l'intervention à distance, tissant un système dont les bénéfices ne sont liés qu'à l’interopérabilité et au traitement des données connectées.  Les futurs réseaux intelligents, avec les véhicules autonomes, ne pourront livrer leurs promesses qu’au prix d’une sécurité sans aucune faille.

Ce besoin de connectivité bilatérale, fiable, impose de conférer au traitement des problèmes de vulnérabilité des réseaux connectés une place centrale. Le premier facteur de protection est de connaître les composants de ces nouveaux ensembles, en identifiant leurs propriétés, c’est-à-dire les paramètres de leur fonctionnement nominal, mais également leurs vulnérabilités. Mettre en place des outils de traitement des seules vulnérabilités aux frontières de l’entreprise - comme la gestion des identifiants et des pare-feux - ne suffit plus. Il faut identifier les composants du système global et mettre en œuvre les règles de sécurité adaptées à chaque composant. Il n'est plus possible d'additionner des outils dans des architectures de plus en plus complexes sans les connaître et les comprendre.

Le seul moyen de gérer cet ensemble composite est de développer l’automatisation en confiant à des robots et à des logiciels de soin de gérer les tâches quotidiennes d’authentification, de suivi, de mesure et d’analyse des flux pour en tirer une vision dynamique et identifier les situations anormales. L’accent est désormais mis dans la recherche de l’anticipation des attaques en comprenant les comportements de leurs auteurs, en anticipant les cheminements des logiciels infectants, en multipliant les pièges pour les traquer avant qu’ils ne deviennent actifs. Les spécialistes de sécurité ont en charge, dans ce modèle, l’architecture générale de la cybersécurité, l’analyse des comportements, l’anticipation et la veille technique. Ils ont également un grand rôle de sensibilisation et de formation. Les opérationnels doivent désormais intégrer dans leurs missions la responsabilité du suivi en temps réel du système.

De fait, la montée de l’insécurité numérique oblige à considérer que si qu'internet a été conçu de façon brillante, il est sorti depuis longtemps de son objet initial. C'est un outil qui se trouve désormais au cœur de l'économie mondiale et attire toutes les convoitises. Il doit subir un sérieux lifting et être enrichi pour intégrer la sécurité "by design".  A court terme, il est impératif de donner aux professionnels de la cybersécurité les outils et les moyens nécessaires, et développer massivement la formation. Pour fixer le niveau d’effort, il faut mentionner que, dans les administrations israéliennes, le budget de cybersécurité doit être fixé à 8% du budget informatique…


L'impossible consensus... ou comment malgré tout y parvenir !

Chaque individu abrite plusieurs personnages aux intérêts contradictoires. Nous jouons chacun de ces rôles alternativement avec conviction. Et nous nous attendons à être chaque fois pleinement satisfait sinon nous sommes furieux et frustrés. Cette colère devient rapidement, quand on est français, révolte. Forcément légitime. Et bien sûr nous attendons de nos gouvernants qu’ils satisfassent chacun de nos personnages avec un zèle égal.

Comme « fournisseur de service », que ce service soit une prestation intellectuelle, ou une prestation technique ou physique, soit simplement des heures de notre liberté qui nous sont prélevées par un patron, nous attendons, et si besoin, revendiquons une juste rémunération de notre contribution.

Comme « client », nous attendons, voire nous exigeons, d’avoir une qualité irréprochable pour le prix le plus bas possible, ceci au pied de notre porte et sans délai.

Comme « épargnant », même modeste, nous voulons que le sacrifice de notre non-consommation de revenu soit, d’une part, sécurisé contre les aléas économiques, et d’autre part justement rémunéré pour en tirer un revenu additionnel. Nous sommes allergiques aux risques mais friands d’une confortable sécurité.

Comme « contribuable », nous considérons que chaque centime arraché à notre poche et à notre libre arbitre pour être confié à des mains inexpertes de fonctionnaire anonyme est une pure spoliation, l’objectif de chaque contribuable étant de payer le moins possible pour lui en faisant payer les autres.

Comme « citoyen », nous exigeons des routes en parfait état, des écoles qui fassent de chacun de nos enfants des génies, des hôpitaux qui guérissent de tous les maux, une police exemplaire, une armée moderne, bien équipée, efficace pour nous protéger, une « vraie » politique familiale, une retraite confortable. Et tout ceci évidemment pour un coût tendant vers zéro…

Il y a donc en chacun d’entre nous, tout à tour, une montagne d’exigences qui doivent être satisfaites par… les autres. Car nous sommes hélas entourés d’incapables. Les patrons qui ne trouvent pas les bonnes commandes au bon moment, les enseignants qui font des fautes d’orthographe et bien sûr les transmettent à nos gamins, les salariés-du-public-en-grève, les syndicats, et au cœur de tout cela, deux responsables majeurs : le CAC 40, entité aveugle et anonyme, et les banques, cupides et prédatrices. Je pourrais ajouter, mais ce serait certainement excessif, que parmi les incapables majeurs qui nous nuisent avec acharnement il y a les étrangers, uniquement quand ils nous concurrencent comme fournisseurs de services, pas quand ils contribuent au paiement des factures collectives comme contribuables, et surtout le grand Satan coupable de tout cela, l’Europe. Certaines raffinent le modèle et les campagnes électorale sont un festival de vœux pour éliminer tous les obstacles à notre bonheur de citoyen, de contribuable, de fournisseur, de consommateur et d’épargnant…

Regardons de plus près le fonctionnement de ce modèle. Le fournisseur de service, de son temps, de son travail, de ses compétences, veut être mieux rémunéré de son effort. C’est légitime. Mais vu de l’entreprise qui intègre cette contribution dans le prix de revient total du produit ou du service qu’elle va mettre sur le marché, la rémunération devient un coût. Si ce coût de production ne permet pas de vendre le produit plus cher, il deviendra trop cher aux yeux du consommateur qui veut lui limiter les coûts de ses acquisitions. Donc le consommateur qui cherche les prix les plus bas nuit à son voisin de palier fournisseur qui veut les revenus les plus hauts. Le contribuable qui veut réduire sa facture d’impôt en cherchant à dissimuler des revenus ou acheter sans taxe, au noir ou en contrebande, nuit au citoyen qui veut les meilleurs services publics. On estime à une soixantaine de milliards le coût de la fraude fiscale directe. Toute fraude, même mineure, est une atteinte au partage de la contribution collective aux services que l’Etat fournit aux citoyens. L’épargnant qui exige les taux d’intérêt les plus élevés nuit à l’investisseur qui va créer des activités et des emplois par le financement de biens productifs et qui a besoin de payer le moins cher possible les capitaux dont il a besoin. Nous devons bien comprendre que l’économie est un jeu à somme nulle, les gains des uns étant les coûts des autres. La croissance, l’ouverture internationale et l’inflation, déforment cette mécanique de redistribution en augmentant les opportunités car le cadre devient plus large et les flux plus importants. Cette vision implique une compréhension de la difficulté des arbitrages. Chacun de nous sait par expérience qu’une dépense va accroître notre satisfaction immédiate au détriment de notre épargne. Mais l’épargne peut nous offrir une satisfaction différée et donc aléatoire car le long terme est un pari. Il en est de même pour une collectivité nationale qui va préférer donner immédiatement satisfaction aux électeurs-citoyens par une augmentation d’une prestation de rentrée scolaire, par exemple, plutôt que d’investir pour le long terme sur le développement du haut débit mobile. Mais ce ne sont pas les mêmes décideurs, les mêmes mécanismes, les mêmes budgets et les mêmes effets induits. Les arbitrages personnels, comme les arbitrages collectifs, sont donc des choix difficiles qui ne peuvent garantir à chacun le même niveau de satisfaction. Par ailleurs tout ceci se déforme dans le temps !

Cet impossible consensus, qui pourrait mener à des tensions inacceptables, et se traduit périodiquement par des crises, nécessite pour être toutefois résolu que les acteurs économiques acceptent des compromis. La transparence, le débat, la négociation et le respect des arbitrages sont donc indispensables dans une économie complexe. Le marché y pourvoie, pour partie seulement car le signal prix, s'il fonctionne bien, ne suffit pas à résoudre tous les problèmes. C'est bien parce que le consommateur tend à remporter sur le producteur que l'on transfère la fabrication de sèche-linge de France en Pologne.

Le débat collectif, documenté, le vote fréquent sur des questions précises doivent être largement exploités pour rendre les arbitrages et leur conférer une autorité forte pour éviter la remise en cause systématique des décisions prises. Ainsi écrivait Condorcet en 1794 : « Ainsi, l’on n’osa plus partager les hommes en deux races différentes, dont l’une est destinée à gouverner, l’autre à obéir ; l’une à mentir, l’autre à être trompée ; on fut obligé de reconnaître que tous ont un droit égal de s’éclairer sur tous leurs intérêts, de connaître toutes les vérités, et qu’aucun des pouvoirs établis par eux sur eux-mêmes, ne peut avoir le droit de leur en cacher aucune. » Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain.

Ce travail est encore loin d'être accompli. Il est pourtant la clef de la recherche de solutions collectives dont nous avons besoin pour continuer à progresser.


Tesla dans la cour des grands

L'industrie reine du XXe siècle, l'automobile, est en train de vivre une mutation sans précédent. Elle est bousculée par les trois vecteurs de la révolution numérique :

  • la généralisation de l'information mobile et géolocalisée,
  • la mutation de l'énergie, centralisée et carbonée, désormais en passe de devenir renouvelable et décentralisée,
  • la transformation de l'économie des transports, individuels ou collectifs, désormais dans une continuité systémique.

 

L'automobile va devenir connectée, électrique et autonome.

Capture d’écran 2017-03-22 à 23.32.05

Présentation de Carlos Ghosn au CES 2017


Chaque véhicule sera en mesure d'entrer en interaction dynamique avec son environnement, l'infrastructure et les autres utilisateurs de cet espace collectif qu'est la route. Les modèles d'affaires vont évoluer, de la possession vers l'usage, de l'individualisation des comportements, parfois agressive, vers la mise en synergie de tous les moyens de transports dans une continuité fluide.

 

B_1_q_0_p_0


S'il ne fallait choisir qu'un indice de l'ampleur de cette transformation, il faut saluer la performance de Tesla qui a dépassé 300 $ par action le 4 avril, portant la valeur de l'entreprise à 49,57 milliards $. Il a suffit que Tesla annonce avoir produit 25000 véhicules au premier trimestre 2017 pour embraser la bourse et tangente le symbole General Motors qui ne vaut que 51,34 M $. Si les résultats en volume de Tesla sont marginaux au regard d'un marché mondial de l'ordre de 90 millions de véhicules, Tesla symbolise le renouveau de l'industrie automobile par son audace dans l'innovation et la qualité du service.

Tesla n'est certes pas seul à porter cette transformation. Si longtemps l'Alliance Nissan-Renault a pu apparaître comme visionnaire sur le véhicule électrique et conserve le leadership des volumes, les autres constructeurs sont tous venus apporter leur proposition de voiture électrique et connectée. La compétition vers l'autonomie est aussi intense, complexe et aléatoire comme en témoignent les quelques difficultés qu'ont pu rencontrer les premiers véhicules autonomes dans la circulation. Mais ils apprennent, inlassablement, jour après jour, et cette innovation majeure trouvera une place légitime.

Ce qui frappe chez Tesla c'est cette aptitude issue de la culture de la Silicon Valley à poursuivre imperturbablement son projet même en accumulant les pertes opérationnelles, ce que tout constructeur "normal" est incapable de faire. Tesla apporte à une vénérable industrie centenaire les méthodes et les outils de la disruption numérique. C'est cette impertinence qui frappe et même si les critiques ne manquent pas face à ce trublion, attendu au tournant de l'industrialisation de la Tesla 3, force est de reconnaître que le marché financier y croit...


Drôle de campagne, vrais enjeux...

Beaucoup de scrutins, peu de débats de fond

Cette drôle de campagne électorale pour les vrais scrutins d’avril, mai et juin entretient un malaise qui dure depuis le démarrage  de cette  longue campagne pré-présidentielle qui nous a valu déjà quatre scrutins. Tout se passe comme si l’opinion, oubliant les enjeux réels, usée par ces débats, et ces scrutins dont on peut aujourd’hui douter de l’utilité, se laissait aller, apathique, assommée face aux scandales qui offrent une dramaturgie renouvelée à chaque instant. Par ailleurs, tétanisée par l’improbable show quotidien qu’offre Trump, qui démontre que tout est possible et tout est à craindre d’une machine politique devenue folle, l’opinion se met sérieusement à s’inquiéter sur l’issue opérationnelle du scrutin. Car même si ce théâtre peut passionner par ses rebondissements, nul n’ignore que pendant les travaux les ventes doivent continuer. Avec les primaires et la mise en place de la nouvelle équipe de l’exécutif, c’est plus d’une année d’incertitude que le pays s’offre.

Malgré cet état d’apesanteur et ces manœuvres dilatoires qui retardent le moment où le débat va devoir finalement se dérouler pour dessiner le futur des cinq prochaines années, il va bien falloir travailler, réfléchir et in fine décider. Or le temps presse car même si le pouvoir du Président de la République est beaucoup moins large que ne laissent entendre les candidats, il occupe une place essentielle dans le jeu politique de la Ve République.

Pour prendre le temps de la réflexion, ce qui est toujours difficile quand on vit les événements en temps réel, il faut se rappeler que nous sommes dans un régime mixte, présidentiel et parlementaire. Les décisions qui sont prises impliquent une forme de consensus entre des deux pouvoirs également issus du suffrage universel. La plupart des décisions de gestion sont du ressort du gouvernement, responsable devant l’Assemblée, comme l’ont démontré les cohabitations toujours possible même si l’alignement des calendriers des élections présidentielle et législative a pour but de les éviter. Parfois la cohabitation se déroule au sein du même camp. Si l’affrontement  présidentiel surmédiatisé agite les esprits depuis des mois par sa dramaturgie, il n’est qu’une pièce d’un système plus large qui va également nous occuper en juin 2017 et bien au-delà….

Ces précisions nous incitent à mieux comprendre que si les enjeux électoraux sont décisifs, ils ne sont pas exclusifs car la vie économique et sociale d’un pays ne dépend que pour partie des choix politiques. Les déterminants socio-techniques jouent un rôle beaucoup plus important car ils fixent des limites et ouvrent des opportunités aux intentions des gouvernants en dépassant le cadre territorial et temporel de l’action publique. Toutefois les dirigeants surestiment de façon récurrente leur capacité à comprendre ces mécanismes systémiques complexes et à intervenir pour infléchir le jeu des facteurs. Ils ont tous le sentiment que le volontarisme, martelé avec plus ou moins de vigueur, pourra faire revenir les fleuves à leur source. Ceci serait facilité par un « retour » aux frontières nationales, la souveraineté nationale étant proposée à l’opinion comme le cadre magique de la résolution de la plupart de nos problèmes. 

Pour la première fois dans un tel scrutin, la question du protectionnisme est en effet au cœur du débat. Une majorité de candidats en fait un axe central de leurs propositions. Cette audace dans un pays qui depuis la fin de la seconde guerre mondiale a fait de son ancrage dans une Europe économique, puis politique, l’invariant de sa stratégie internationale, surprend car l’opinion semble s’accoutumer d’une idée qui tourne résolument le dos a une culture qui a marqué plusieurs générations.

L'ancrage international de la France

Les attendus du Traité de Paris de 1951 créant la Communauté européenne du charbon et de l’acier, en 1951, ont en effet ouvert la voie à un effort continu et ambitieux  de coopération en Europe. L’Europe a été conçue à la fin de la seconde guerre comme l’outil indispensable de la paix et de la prospérité. La France a ainsi  toujours été motrice dans le processus d’élargissement de l’Union Européenne,  mais également sur le plan mondial avec une adhésion sans réserve à l’Organisation Mondiale du Commerce.

« CONSIDÉRANT que la paix mondiale ne peut être sauvegardée que par des efforts créateurs à la mesure des dangers qui la menacent;

CONVAINCUS que la contribution qu'une Europe organisée et vívante peut apporter à la civilisation est indispensable au maintien des relations pacifiques;

CONSCIENTS que l'Europe ne se construira que par des réalisations concrètes créant d'abord une solidarité de fait, et par l'établissement de bases communes de développement économique;

SOUCIEUX de concourir par l'expansion de leurs productions fondamentales au relèvement du niveau de vie et au progrès des oeuvres de paix;

RÉSOLUS à substituer aux rivalités séculaires une fusion de leurs intérêts essentiels, à fonder par l'instauration d'une communauté économique les premières assises d'une commumaulé plus large et plus profonde entre des peuples longtemps opposés par des divisions sanglantes, et à jeter les bases d'institutions capables d'orienter un destin désormais partagé »

Si ces principes forts ne font plus aujourd’hui l’unanimité, ils n'ont toutefois pas perdu leur sens et leur actualité. L’Europe comme construction volontariste a été mal comprise et mal aimée des peuples.  Les bénéfices de cette coopération apparaissent insuffisants au regard des contraintes que des gouvernants peu courageux ont fait porter sur une Europe qualifiée de désincarnée, et donc jugée bureaucratique. Or ce n’est pas la Commission qui gouverne l’Europe, mais le Conseil de l’Union européenne, composé des chefs de gouvernement des Etats que rassemble l’Europe. La complexité des institutions européennes, le manque de soutien populaire à cette construction difficile à appréhender et mal expliquée ont rendu l’idée européenne peu porteuse au cours des dernières années, même si le Parlement européen, élu au suffrage universel, apporte une indéniable dimension de transparence et de démocratie. Mais à 28 membres, la cohérence et la lisibilité de l’action sont difficiles à valoriser. Est-ce que face à la Chine, aux Etats-Unis, à la Russie, la France seule peut aborder la complexité systémique d'un monde multiple mais confronté aux mêmes problèmes : menaces climatiques, raréfaction des ressources naturelles, fragilisation des océans, dégradation de la biodiversité, migrations non désirées ? Les Etats sont trop grands pour les petits problèmes, mais certainement trop petits pour las grands problèmes. Le moment est-il bien bien choisi pour détricoter l'oeuvre de la construction européenne, certes incomplète et imparfaite, mais qui constitue un cadre de résolution de problèmes existant, démocratique et améliorable. 

Le sentiment de déclassement nourrit la colère 

Mais c’est surtout la crise de 2009 et la transformation rapide des équilibres économiques du monde avec l’émergence de la Chine et de l’Asie qui ont conduit plusieurs courants politiques à développer dans les pays matures l’idée que la mondialisation était la cause des problèmes rencontrés dans ces nations qui, ayant été à l’origine du développement économique mondial, souffraient de voir leur leadership contesté et leur économie ralentie. Cette montée d’un désir de protection contre la concurrence mondiale, jugée déloyale, s’est incarnée dans le vote de sortie du Royaume Uni de l’Union européenne et dans l’élection de Donal Trump aux Etats-Unis.  Les peuples frappés par la remise en cause de leur environnement professionnel et social se sentent abandonnés, trahis par leurs dirigeants qui eux s'en sortent bien. 

Friches
Le discours d’investiture de Donald Trump présente une théorisation de ce mouvement. Une analyse intéressante du Guardian de ce discours met bien en évidence qu’il s’agit d’une déclaration de guerre contre les compromis conduits depuis des décennies par la classe dirigeante américaine dans le concert mondial. C’est une promesse de redressement national fondé sur le retour au protectionnisme et une vision sans nuance et sans précaution du "America first" au profit des classes moyennes et populaires qui auraient été victimes de la mondialisation... Analyse sommaire, discours sans nuance, tout ceci est nouveau dans l'histoire contemporaine car, malgré ce volontarisme cinglant, les Etats-Unis restent une démocratie avec des contre-pouvoirs, comme les premiers mois du mandat de Trump le démontrent,  et doivent respecter les engagements internationaux. Il reste que cette vision repose sur une analyse aussi limpide que celle des populistes européens : le peuple a été trahi par la classe dirigeante qui s'est enrichie par la mondialisation, alors qu'elle transformait un pays prospère en champ de ruines industrielles et de dégénération morale. Le diagnostic est sans précaution, les réponses sont simples : droits de douane élevés, arrêt total de l'immigration, préférence nationale en matière d'emplois et d'investissements. Cette vision prend le contrepied exact de cinquante années de croissance et de relations internationales.

Aujourd'hui nul ne peut dire si cette rupture majeure voulue en 2016 aux Etats-Unis et en Grande-Bretagne, qui ont avec Ronald Reagan et Margaret Thatcher initié la vague de libéralisation économique des années quatre-vingt, va ouvrir une nouvelle page de l’histoire économique mondiale. Il est certain que ces positions ouvrent le débat sur les limites de la libéralisation de l’économie mondiale et sur les conditions de la transformation technique et sociale des économies matures. Mais on ne tue pas une idée, car c'est trop coûteux, on l'améliore ! 

Et pendant ce temps-là, rien n'arrête la révolution numérique 

Car indépendamment de l’émergence cette culture protectionniste, d’année en année se dessine, de façon systémique, un monde où le numérique revisite chaque secteur, chaque métier, chaque processus. Le numérique se joue des frontières. Sur toute la planète, ce sont des milliards d'humains de tous âges qui utilisent le téléphone mobile, désormais "intelligent", et accèdent aux savoirs et services du web.Il ne s’agit pas de louer candidement une « digitalisation » à tout crin de la société pilotée par quelques entreprises si habiles, qu’elles pourraient en devenir cyniques, mais d'en comprendre les ressorts, les enjeux, les risques. L'iconomie, ce n’est pas chanter les louanges d’une disruption ravageuse, mais chercher à construire une société plus efficiente dans la gestion des ressources naturelles et plus ambitieuse dans le respect des hommes et la stimulation de leurs infinies compétences cognitives. 

Robots

Pour y parvenir nous allons, comme les générations précédentes, exploiter la science et la technique, mais plus vite et à plus grande échelle puisqu’il s’agit de notre planète Terre et plus seulement de l'Occident ou de la Chine. Tout ce que nous voyons chaque année au CES de Las Vegas, de l’hygiène bucco-dentaire à la voiture autonome, des exo-squelettes pour handicapés aux imprimantes 3D pour fabriquer des voitures,  aux jeux pour apprendre à construire et programmer des robots dès le plus jeune âge fait sens par rapport à une perspective historique globale : l’amélioration de nos compétences et de notre discernement. Lucidement, en mesurant les conséquences et en trouvant des parades aux problèmes potentiels, nous pouvons construire un monde meilleur où le progrès retrouvera tout son sens : vivre mieux, plus longtemps et en bonne santé, rendre le travail stimulant et non épuisant grâce à la coopération avec les robots, se déplacer en toute sécurité avec des véhicules autonomes, anticiper  les tensions sur les ressources et le climat grâce au big data, apprendre toujours et encore pour donner à chaque habitant de la terre ses chances dans le respect le plus total et sans discrimination avec le concours de l’intelligence artificielle.

Transférer à des machines et à des logiciels des tâches pénibles et peu valorisantes est plutôt une bonne nouvelle. Mais ce sont des humains qui vont, au moins temporairement,  perdre ces emplois et ces revenus, et on ne peut contempler ce phénomène ne se croisant les bras. Ce tarissement progressif d'une source d'emploi faiblement qualifiés impose une réflexion lucide et des mesures d'accompagnement de long terme.

C'est un chantier complexe qui ne peut que se développer dans un esprit de co-construction pragmatique visant l’intérêt général, c’est à dire la prospérité et la sécurité.  Peut-on le faire isolément ? Peut-on le faire à partir d'une lecture partisane, idéologique, du monde et du progrès ? La France seule a-t-elle la taille critique pour concevoir et mettre en œuvre la politique nécessaire pour embrasser ces problèmes ?

De toute évidence, non… L'exercice de la souveraineté n'exclut pas la recherche de solutions mutualisées au niveau régional face aux grands ensembles qui sont constitués sur la planète. Il faut rechercher inlassablement le bon niveau d'exercice de cette orchestration dont nous avons besoin pour éviter que le destin des nations et des peuples soit décidé par les nouveaux maîtres de la technologie. 


CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..


La voiture autonome, utopie ou nouvelle frontière de l'automobile ?

Conservatrice, établie, ancienne, l’industrie automobile subit comme tous les secteurs économiques les pressions de la dynamique des firmes qui organisent la société numérique. Désormais vieille industrie, elle doit, pour garder son statut d’industrie majeure démontrer qu’elle est capable de renouvellement en assurant la fusion de ses compétences propres avec celles issues du monde informatique et numérique. C’est un enjeu d’image, pour continuer à attirer l’attention du public, notamment jeune, sur le produit automobile, et attirer les ingénieurs les plus innovants. L’innovation technique répond à cet impératif dans un monde d’ingénieurs qui ne peut accepter d’être détrôné. Mais dans le monde actuel, ce sont les entreprises numériques qui incarnent cette dynamique. Google, Apple, Amazon et beaucoup d’autres attirent l’intérêt collectif, les clients, les talents, les capitaux. Lorsque Google a annoncé être en mesure de réaliser une voiture autonome, en se présentant comme un concurrent potentiel, l’orgueil de l’industrie automobile a été atteint ce qui a entraîné une réaction unanime des constructeurs classiques.

Aussi, 2014 a vu soudain apparaître dans le paysage automobile une nouvelle tendance technologique : la voiture sans conducteur. Il n’est pas de constructeurs qui n’aient annoncé, dans une surprenante surenchère, qu’ils allaient mettre « prochainement » sur le marché une voiture qui pourrait rouler sans que son conducteur ne se préoccupe de cette tâche désormais futile, conduire. Volvo, Daimler, Nissan, Ford, General Motors, Audi, BMW, Tesla se sont tous risqué à annoncer des dates probables de commercialisation, d’ici 5 à 10 ans, de ces véhicules autonomes ou semi-autonomes sans toutefois préciser l’ampleur du service rendu. Des partenariats inattendus se font jour comme Volvo et Uber.

Le projet n’est pas nouveau. On en trouve des prémices dans les visons futuristes des constructeurs dès les années 1950. Cependant, la ruée actuelle vers ce concept est apparue comme une réponse aux ambitions de Google des constructeurs automobiles établis qui prétendait pouvoir mettre sur le marché non seulement une voiture sans conducteur, mais aussi sans poste de conduite. Il est d’ailleurs bien curieux que, soudain, ceux qui exaltent et embellissent ce fameux plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à un automate le soin de s’acquitter de cette tâche.

Il faut toutefois questionner sérieusement l’intérêt de cette technologie en dépassant la fascination qu’elle inspire. Car après la valse des annonces, la réalité s’impose.

Figure_1_-_vehicule_autonome_en_1956

Vue de la voiture autonome en 1956 (article de l'Association Québécoise des Transports, juin 2015)


Les voitures sont désormais très bien équipées en automatismes multiples qui assistent le conducteur dans sa tâche qui, dans les conditions réelles de circulation, est à la fois complexe et fastidieuse, mais aussi fatigante et dangereuse. Il n’y a que dans les publicités que l’on voit une voiture filer sur une route dégagée et sèche, sans aucun trafic. La réalité quotidienne de la route est bien éloignée de ces images du « plaisir de conduire » qui demeurent obstinément à la base du marketing de tous les constructeurs. Les glissements sémantiques des slogans, soigneusement calibrés, marquant l’identité de marque des constructeurs sont signifiants. Renault qui s’était illustré avec un slogan fédérateur des usages, « Des voitures à vivre » renvoyant à un univers familial, puis hésité entre « Créateur d’automobile » et « Changeons de vie, changeons l’automobile », a adopté en 2015 un slogan qui introduit clairement la passion et certainement une forme d’individualisme : « Passion for life ».

Les constructeurs ont tiré depuis longtemps profit des avancées de l’électronique pour équiper leurs véhicules d’outils d’aide à la conduite. De multiples capteurs et actionneurs ont été intégrés depuis l’apparition de l’antiblocage des roues au freinage, l’ABS, en 1978, pour aider à la conduite ou se substituer au conducteur en cas d’urgence. De fait, d’ores et déjà, une voiture moderne va prendre des décisions pour maintenir sa trajectoire avec l’ESP (Electronic Stability Program), assurer une vitesse constante avec le régulateur, améliorer l’adhérence en cas de pluie ou de neige, amplifier le freinage en cas d’urgence, avertir d’un franchissement de ligne ou de dépassement d’une vitesse autorisée, tout en pourvoyant le conducteur de multiples informations sur son itinéraire. La dernière Mercedes Classe S comprend une centaine de micro-processeurs pour s’acquitter de ces multiples tâches. Ces assistances ne se substituent pas au conducteur, même si elles corrigent, à la marge, ses décisions inappropriées.

En fait, le débat sur la voiture sans conducteur est parti de la volonté initiale de Google de valoriser la suprématie de son système de cartographie, élément fondamental d’un système de conduite autonome qui nécessite une précision de l’ordre du centimètre. Les constructeurs ont réagi en montrant qu’en équipant une voiture de capteurs, radars, scanners laser, outils de géolocalisation et servomoteurs, ils étaient également potentiellement en mesure de se passer du conducteur. Et on a vu ainsi quelques dirigeants se montrer au poste de pilotage de ces véhicules expérimentaux mais sans toucher le volant resté bien classique, position assez curieuse et très peu naturelle qui montre bien que le concept est encore plaqué sur des véhicules conventionnels… Plus encore, pour riposter à Google, les constructeurs automobiles ont décidé de se doter d’un accès direct aux technologies de cartographie de pointe. C’est pourquoi Daimler, BMW et Audi ont ensemble racheté en 2015 à Nokia sa filiale Here, l’ex-Navteq, pour 2,8 milliards €.

Est-ce utile ? Est-ce faisable ?

Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. L’inattention, l’utilisation d’un téléphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Plus d’1,3 millions de personnes dans le monde, selon l’OMS, perdent la vie dans un accident de la route chaque année. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement.

Dès lors mettre au volant un ordinateur doté de capacités sensorielles puissantes et dépourvu des limites biologiques de l’homme est tentant. La motivation est noble : tendre vers le zéro accident et le zéro mort. On attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages, un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. Mais pour atteindre ces résultats il faudrait que la machine elle-même soit exempte de failles, tant dans la conception que dans la gestion des décisions. Confier sa vie à des automates et des algorithmes impose le zéro défaut.

Soulignons d’abord qu’un nouveau vocabulaire est nécessaire pour rendre compte de cette nouvelle avancée technique. On ne devrait pas parler de « voiture autonome » mais de voiture à « délégation de conduite ». Une normalisation de ces niveaux de délégation de conduite a été élaborée. Ce terme de délégation de conduite à des ordinateurs, permet en effet de couvrir une large gamme de situations. Conduire un véhicule sur un parcours varié est une tâche complexe. Une voiture à conduite automatique qui se subsisterait aux véhicules actuels devrait remplir les missions polyvalentes d’un conducteur. Les obstacles sont multiples : emprunter un itinéraire varié, sur des routes hétérogènes, en milieu urbain dense ou en rase campagne, faire face aux aléas du trafic, aux comportements imprévisibles des piétons et autres usagers et aux conditions météorologiques, aux changements de la configuration de la route, en cas de travaux par exemple... Cette compétence du conducteur, ce serait aux ordinateurs du véhicule de l’assurer en s’appuyant sur les informations stockées et sur celles acquises en temps réel par dialogue avec les autres véhicules et les infrastructures au sol.

C’est là où le pari devient plus compliqué. S’il est relativement facile de faire rouler sans solliciter le conducteur une voiture sur autoroute dégagée, il faut que le véhicule soit en mesure d’atteindre une telle route par ses propres moyens et s’en dégager. Il faut donc définir à quel moment l’automatisme rend la main au conducteur s’il ne peut assurer en pleine sécurité une conduite en milieux variés. Il faut donc que le conducteur soit en permanence en situation de vigilance et que l’interface automatisme/humain soit parfaitement fiable. Même avec des pilotes expérimentés, et dans un espace dégagé, les pilotes automatiques des avions sont parfois sources de confusion aux conséquences fatales.

 La conduite automobile est en effet une tâche humaine complexe de plus en plus automatisée. Le travail du conducteur est assisté par de multiples copilotes prévenants. Ces outils vont de l’assistance à la tenue de trajectoire et au freinage, fonctions désormais largement déployées sur les véhicules neufs, à l’assistance au stationnement, à la régulation de vitesses liée au trafic et ultimement à la prise de contrôle totale dans les embouteillages. Ces assistances sont graduellement installées dans les véhicules de dernière génération, chaque nouveau modèle étant l’occasion de compléter l’équipement vers la prise en charge de fonctions nouvelles. Mercedes s’est fait une spécialité de ces équipements, aussi divers que coûteux, et sa Mercedes Classe S constitue un laboratoire roulant, et onéreux, de tous ces outils. Mais les véhicules de moyen de gamme ont aussi, parfois en dotation de base, des équipements qui auraient fait rêver il y a encore cinq ans. Il faut bien admettre que cette course en avant technologique ne fait pas mieux vendre les voitures et n’est plus entre constructeurs un élément suffisamment différenciant. C’est devenu un élément de confort et de sécurité auquel les automobilistes s’habituent et ne souhaitent pas payer.

Où en est la délégation de conduite totale ? Une expérimentation onéreuse.

Pour le moment la délégation de conduite totale, qui fait de la voiture un véhicule réellement autonome à qui il s’agit d’indiquer la destination, n’est qu’un rêve. Les voitures sont soumises à des conditions de fonctionnement bien plus difficiles que les avions, dont les conditions d’usage sont plus simples à modéliser et à programmer. Pour atteindre une telle fiabilité il faut multiplier les capteurs, les processeurs de traitement faisant appel à des algorithmes complexes et à l’intelligence artificielle («machine learning »), les automatismes pour se prémunir de la défaillance d’un composant ou d’un programme. Un tel équipement complexe ne peut qu’être très coûteux. Ainsi un laser 3D, ou lidar, coûte encore 50 000 € pièce. Chaque prototype de la Google Car est équipé de machines représentant plus de 100 000 $. Comment prévoir toutes les situations auxquelles un conducteur pourrait être confronté ?

ll faut donc revenir à une réalité opérationnelle qui ne fera certainement pas rêver mais qui a plus de chances de se concrétiser rapidement. Toyota prône une approche pragmatique et graduelle qui parle de voiture autonome, par couches successives d’avancées techniques, mais non sans conducteur. L’humain, pour Toyota, doit en effet rester en permanence en situation de contrôle. Cette piste est la plus vraisemblable. Les constructeurs vont "simplement" même si le travail est déjà considérable étendre progressivement le champ des automatismes déjà installés, en commençant par le très haut de gamme pour financer le coût de ces installations. Car un des aspects sous-estimés de la voiture autonome est son modèle d’affaire. Comment justifier un tel surcoût par véhicule, même si on peut penser que les progrès de l’électronique embarquée et des logiciels permettront d’en abaisser le coût ?

L’émergence d’un marché de véhicules professionnels ?

Il n’y a vraisemblablement que dans les usages professionnels que ces équipements pourront se justifier dans les prochaines années. Le projet CityMobil2, financé par l’Union Européenne, a permis de tester cinq expérimentations de transport urbain autonome (ARTS : Automated Road Transport Systems) entre 2014 et 2016. Ces expériences ont permis de valider positivement le concept auprès des usagers en termes de confort, service et sécurité, sans enthousiasme particulier, et de tester leur sensibilité par rapport aux voitures autonomes. On voit en 2016 se multiplier ce type d’expériences dans des environnements variés. Il s’agit généralement de navette de passagers autonome adaptée aux espaces sous contrôle comme les aéroports, les ports, les parcs d’attraction ou d’exposition. L’expérience menée par Keolis avec la firme française Navya porte ainsi sur deux navettes de 15 passagers sur une distance linéaire de 1,3 km à 20 km/h dans le quartier lyonnais de Confluence. Ces véhicules coûtent 200 000 €.

Il faut également suivre les travaux d’Uber pour valider un modèle de conduite automatique hautement sécurisée qui permettrait de fournir le service sans devoir gérer les chauffeurs. Ce n’est pas une expérience anodine car Uber emploie dans le monde un million de chauffeurs. Quelques SUV Volvo XC90 ont été équipés pour tester le service dans les rues de Pittsburg, avec toutefois un chauffeur à bord pour des raisons de sécurité et d’acclimatation des usagers. Il est prévu que la flotte comporte dès fin 2016 cent véhicules, ceci dans le cadre d’un plan d’investissement de 300 millions $ copiloté par Volvo et Uber pour commercialiser des voitures autonomes en 2021. Mais si on estime que le coût total d’un chauffeur Uber en France ne dépasse pas 60 000 € par an, il faudrait que le coût supplémentaire d’un véhicule autonome soit significativement intérieur pour prendre ce risque commercial. L’expérience de taxis autonomes de Singapour qui a démarré mi-2016, porte sur un test plus modeste de véhicules électriques rendus autonomes par une start-up, nuTonomy, spécialisée en robotique et intelligence artificielle. Il s’agit de six Renault Zoe et Mitusbishi i-MIEV qui opèrent à partir d’emplacements précis dans un quartier d’affaires de 200 hectares. Ces voitures ont toutefois un chauffeur prêt à prendre les commandes. L’objectif de la start-up est de réduire le nombre de voitures circulant à Singapour de 900 000 à 300 000.

Les véhicules lourds comme les engins de manutention, en site propre, et les poids lourds profiteront certainement de l’avancée de ces techniques.

Carlos Ghosn, parmi d’autres dirigeants, s’est risqué à annoncer en 2016 un plan précis en trois étapes pour Renault et Nissan: conduite automatique dans les bouchons en 2016, conduite automatique sur autoroute en 2018 et conduite en ville en 2020. La conduite automatisée en toutes circonstances ne pourrait être imaginée qu’à partir de 2025. Dans le concert des effets d’annonce que ne va pas manquer de susciter le Mondial de l’automobile de Paris il va être intéressant de distinguer les constructeurs sur le caractère réaliste sur le plan économique de leurs projets de voitures à délégation de conduiteLa voiture autonome, nouvelle frontière de l'automobile ? 

Ce texte est tiré d'une étude Fondapol-Sia Partners qui va paraître fin septembre 2016 sur les enjeux politiques du véhicule électrique


Uberisation, menace ou opportunité ?

« Uberisation », du nom désormais célèbre de la start-up née en Californie il n'y a que quatre ans, en 2012, "UberCab", est devenu en quelques mois un nom commun. C'est un privilège que les grandes marques mettent des décennies à acquérir. or le treme Uber et ses déclinaisons sont devenus sur toute la planète à la fois le symbole des vertus du web et un repoussoir absolu pour l’économie traditionnelle. Cette polarisation extrême des opinions illustre parfaitement  l’ampleur des bouleversements induits par Internet et le web. rappelons qu'entre quatre ans Uber s'est déjà installé dans 66 pays et 500 villes.

Uber dégage Uber-980x420Deux visions du monde s'affrontent

Nés seulement  à la fin du XXe siècle dans la sphère des usages domestiques,  l’infrastructure internet et les services du web ont bousculé le monde des entreprises qui ne considérait pas cette innovation grand public comme pertinente pour le monde professionnel. Douze ans après les premières apparitions du web, c’est l’iPhone qui allait en 2007 provoquer une nouvelle vague de mutations. En permettant l’accès mobile à toute l’information, en exploitant à large échelle le potentiel de la géolocalisation,  le smartphone mettait fin au règne de « l’informatique assise » qui servait de base à toutes les pratiques sociales de l’organisation du travail. Le traitement de l’information et de la connaissance, en situation de mobilité, casse les frontières et remet en cause les processus. En bousculant le temps et le lieu de travail, l’informatique nomade donne à celui qui est proche du terrain le moyen d’agir et d’interagir avec son environnement.

L’ubérisation, le rêve d’un marché efficace

Loin d’être achevée, cette révolution se traduit par une désintermédiation massive des métiers. Quand on peut trouver à travers une plateforme informatique agréable la solution à son problème, on ne cherche plus à utiliser les processus traditionnels, guichets, téléphone, intermédiaires obligés et coûteux. L’utilisateur va au plus simple et au plus agréable. Cette « ubérisation », redoutée par toutes les entreprises, est à l’œuvre partout au grand bénéfice du client, qui trouve dans ces outils le moyen de se libérer des carcans des processus bureaucratisés et de la mauvaise humeur des intermédiaires. A travers une interface ergonomique, il peut trouver, en toute transparence et sans stress, le meilleur outil de transport, le meilleur billet d’avion, le meilleur rapport coût/valeur pour un produit, le restaurant ou l’hébergement le mieux adapté à ses besoins, la référence de la pièce détachée qui lui manque.  La désintermédiation à travers une plate-forme répond à un vieux rêve : être capable de prendre lucidement la meilleure décision en temps réel et de façon contextuelle. La technologie le permet, les utilisateurs l’ont adopté.

L'agilité, plus qu'un outil, une culture

La généralisation de ce modèle et de ses dérivés nourries par l’évolution technique  est le moteur du changement que nous allons continuer à vivre dans le futur. Il sera graduel, continu, et va toucher tous les actes professionnels comme privés. L’informatique,  quittant le champ de l’industrialisation des processus répétitifs, est en marche pour conquérir tous les espaces de la conception, de la production, de la diffusion.  L’action se nourrit de l’information et de la connaissance, du rationnel comme des émotions. C’est la mise en relation, continue et riche, qui va donner à la décision, à tous les niveaux de l’organisation, une densité et une robustesse renforçant l’efficacité collective dès le niveau le plus fin, c’est à dire chaque personne.  

 Ce modèle d’organisation est agile et réduit la complexité pour s’adapter plus rapidement à un environnement changeant. L’agilité est une vision du travail basée sur l’idée de changement permanent, itératif et incrémental, où le produit final, matériel ou immatériel, doit pouvoir évoluer en s’adaptant au désir du client et aux conditions du marché. L’entreprise agile privilégie des cycles de développement courts, développe ses produits par itérations en fonction, en priorisant les évolutions identifiées,  se confronte très tôt au feedback du marché et des clients. Au besoin, elle peut « pivoter », c’est à dire changer radicalement son produit ou son business model si le marché l’exige. L’entreprise agile se nourrit de collaborations extérieures et remet en cause constamment, et sans drame, son modèle d’organisation. S’appuyant sur le réseau maillé collaboratif, l’entreprise agile est infiniment « scalable », c’est à dire qu’elle s’adapte au contexte sans délai ni rupture.

Revitaliser le sens du travail

Dans ce modèle, qui  n’a pas vocation à être marginal car il peut couvrir l’essentiel des activités, la personne est revenue au centre. Ceci peut apparaître comme scandaleux pour beucoup de tenants d'une économie plus stable et prédictive, plus administrée, telle qu'ils ont le sentiment de l'avoir vécue au cours des dernières décennies. Mais c'était une économie de rarété gérée au seul profit des productuers. Dans la mouvance du web, produire ou consommer ne sont plus des exercices frustrants imposés par d’autres, mais le moyen d’exprimer ses compétences, son talent, ses envies dans un cadre à la fois solide et fluide. Les tenants de l’économie conventionnelle peuvent se lamenter sur les conditions de travail des chauffeurs Uber, mais eux-mêmes considèrent que conduire une voiture et rendre des services est moins déshonorant que le chômage et génère un niveau de revenus satisfaisant dans un cadre plus libre que le salariat traditionnel. Uber affirme créer 20000 emplois dans le monde chaque mois.

Or pour beaucoup de gens aujorud'hui, ce n’est pas le travail qui pose problème mais la façon dont il s’exerce. La persistance de modèles autoritaires, inefficaces, prive beaucoup de collaborateurs du plaisir de la coopération, et alimente les dégâts du stress au travail. Uber n'est certes pas un modèle paradisiaque d'organisation du travail et de la gestion des compétences. Mais en existe-t-il vraiment ? Est-ce que le modèle de protection historique auquel est attaché nombre de salariés, en France, garantit, dans un monde qui bouge et avec une technologie qui ne cesse de rebattre les cartes, l'épanouissement, le développement des compétences, le sens de l'initiative et de l'innovation. La rigidté engendre la crise. Les exemples d'entreprises indestructibles qui ont fini par sombrer le démontrent.

Innover en matière de travail, c’est produire du sens et développer sans cesse la compréhension, le respect, la confiance et la formation, seuls moteurs de l’adhésion. Le numérique oblige à repenser le fonctionnement de  l’entreprise comme un réseau ouvert sur l’extérieur et non plus comme une pyramide fermée. L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, ne constituent pas des propriétés que l’on trouve à l’état naturel dans les entreprises. Il faut les fabriquer. C’est un travail de remise en cause des acquis. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. L’ubérisation n’est pas seulement un risque, c’est une opportunité pour la plupart des entreprises de se remettre en cause en relevant leur niveau d’exigence qualitative et leur capacité d’innovation pour séduire et fidéliser aussi bien les clients que les collaborateurs.