Electric Road 2018 à Nantes, entre futurisme et pragmatisme

Chaque utilisateur de moyens de transport, public ou privé, a pu mesurer à quel point l’innovation numérique, concrétisée par le smartphone et la géolocalisation, avait apporté une qualité d’informations permettant de prendre de meilleures décisions de choix de services, d’itinéraires et de coût. En revanche, les objets du transport, voiture, train, avaient peu évolué. C’est dire à quel point la vague d’innovation qui saisit depuis dix ans le monde automobile, après 120 ans de progrès incrémentaux, a été accueillie avec curiosité et intérêt. Elle émanait en effet d’acteurs nouveaux, comme Tesla ou Google, issus du monde des technologies de l’information habitué aux bouleversements. C’est pourquoi, depuis le début de la décennie, la voiture électrique a fait l’objet de beaucoup d’engouement dans le milieu de la mobilité. Entre l’offre des acteurs nouveaux, et la riposte des constructeurs traditionnels, le monde de la mobilité s’est brutalement mis à bouger. Face à l’extrême complexité des problèmes à résoudre, l’innovation automobile de rupture était devenue le symbole attendu par les commentateurs et dirigeants politiques pour reparler d’un futur rêvé en échappant au poids traditionnel des questions quotidiennes de mobilité. La voiture électrique et connectée remplit, dans l’imaginaire collectif, une place privilégiée car elle apparait comme un outil attractif, propre, silencieux, incarnant la modernité. Mais elle se voit d’ailleurs déjà contester ce statut flatteur par la voiture autonome, encore plus complexe, encore plus lointaine, encore plus fantasmée.

Malheureusement, les données de marché ne donnent pas raison à cette vision euphorique. Avec 1% du marché mondial de l’automobile le véhicule électrique n’est pas, à court terme, la solution de masse attendue. La voiture autonome, celle qui se passera vraiment de présence humaine responsable à bord, est pour un futur lointain. Quand la réalité a tort, c’est que le discours est inapproprié. Le discours doit donc muter et se transformer en une analyse multifactorielle de la mobilité afin de permettre l’élaboration de réponses efficientes et pragmatiques. Le véhicule électrique est une des solutions, ni la seule, ni la meilleure sur tous les critères.

Le colloque Electric Road qui s’est tenu à Nantes les 18 et 19 juin a présenté, dans cet esprit d’objectivité systémique, un panorama complet de la situation à travers les tables rondes plénières, les ateliers et les présentations de matériels et de solutions, sans céder ni au rêve ni au pessimisme.

Il y a un consensus clair : il faut se résoudre à considérer que la mobilité est une question concrète et terriblement complexe qui touche chaque jour des milliards d’êtres humains et pour laquelle il n’existe pas de solution miracle. Transporter des humains, des produits ou des informations exige de l’énergie, de la place et du temps. La récente floraison de recherches et d’idées en rupture est utile et permettra de faire émerger des solutions à long terme. A court terme, il faut néanmoins agir. La confusion entre les deux plans temporels peut conduire à de graves contre-sens. La voiture autonome est un bon exemple de machine à fantasmer. L’identifier comme une solution de court terme fait naitre des espoirs vains. Penser que l’on peut réduire rapidement la mortalité automobile mondiale de 90% avec la voiture autonome peut conduire à différer des mesures plus efficaces, mais d’intérêt immédiat, alors même qu’on ne sait rien du calendrier de mise au point et de diffusion de la voiture autonome et encore moins de son impact quantitatif.

Pour sortir de l’optatif, mode du souhait et d’un militantisme clivant, il faut conjuguer l’indicatif présent et le futur immédiat. Les rencontres d’Electric Road ont permis de nourrir le dossier et d’approfondir les questions techniques, économiques, sociétales. Cette abondante matière permet d’aborder avec prudence et réalisme deux champs d’action :

-       Simplifier et faciliter immédiatement les services de mobilité

-       Identifier et tester des solutions nouvelles

  1. Simplifier et faciliter immédiatement les services de mobilité

L’attente du public est de disposer d’un système de mobilité point à point prédictible, fiable, simple, confortable et économique. La responsabilité de l’autorité publique est de fournir une infrastructure et un cadre réglementaire permettant d’atteindre ces objectifs de la façon la plus compatible avec l’intérêt général. La responsabilité de l’offre de solutions est de répondre à ce cahier des charges explicite, mais souvent aussi fantasque. Il n’y a pas de demande technologique propre, c’est un marché « technology push », le seul objectif est l’efficience.  L’utilisateur, instruit par l’expérience, admet qu’il devra transiger sur certains de ses critères pour remplir son objectif de transport.

C’est un modèle d’une complexité infinie car aux demandes individuelles de mobilité l’industrie et les pouvoirs publics répondent par un cadre de solutions qui ont été élaborées au fil du temps et qui n’a pas de souplesse. Les investissements d’infrastructure sont coûteux, complexes à mettre en œuvre pour des raisons d’environnement et de foncier, et lents à déployer. L’offre d’infrastructure est inerte, alors que la demande et variable. L’expérimentation à l’échelle est risquée.

Il fut un temps où deux solutions concurrentes s’offraient au « voyageur » : le transport public ou la voiture individuelle en plein propriété. L’arbitrage était économique. Quand on en avait les moyens, on prenait sa voiture, gage de service de bout en bout et d’autonomie, dans la plupart des cas. Aujourd’hui, le choix est plus vaste et devient contextuel et multi-critères. Cette complexité du choix offre en contrepartie une gamme foisonnante de services différenciés, entre les solutions éprouvées et les solutions expérimentales. Les micro-arbitrages se font sur la base d’informations partielles, où l’appréciation du client se fonde sur  sa perception, personnelle et instantanée, du meilleur rapport coût /valeur. Mais la somme des décisions individuelles ne procure pas un équilibre global optimal. Il suffit de prendre sa voiture le vendredi soir à la sortie des villes pour en faire l’amère expérience. La complexité de la gestion de la mobilité tient à ce choc imprévisible entre des décisions individuelles et un cadre collectif capacitaire et normatif.

On comprend facilement que les arbitrages sont complexes. Comment alors décider lucidement en étant pragmatique et opérationnel pour fournir des solutions de masse sans condamner l’innovation qui ne peut être que partielle ?  Comment, dans cet équilibre délicat, concilier la liberté individuelle et l’efficacité collective ?

C’est là que l’analyse des points de vue de chacun des acteurs illustre la difficulté de mettre en œuvre une politique de mobilité consensuelle. L’usager est court-termiste et veut résoudre au mieux son problème et s’interroge peu sur les conséquences de ses décisions. IL n’a qu’une notion floue de la réalité des coûts. L’organisation régulatrice comme le fournisseur de services s’inscrit dans le moyen et long terme mais ne peut ignorer les soucis du quotidien aux conséquences politiques ravageuses.

Il faut également être capable de s’entendre sur un modèle d’analyse de la performance. Les objectifs sont multiples, coût, temps, contraintes foncières, impact environnemental. Ces objectifs peuvent être contradictoires et la recherche du compromis acrobatique.  Dans une même préoccupation environnementaliste, c’est la lutte contre les émissions de CO2 qui a conduit à privilégier le diesel et c’est la lutte contre les particules et les NOx qui poussent à s’en débarrasser !  De fait, le repli du diesel a pour conséquence d’accroître les émissions de CO2 ! La qualification du véhicule électrique comme « zéro émission », ce qui est vrai au lieu d’usage, néglige le cycle de vie du véhicule et le mix énergétique qui l’alimente en électricité.

Une politique de mobilité doit intégrer la palette des solutions qui résulte de la combinatoire des différents composants de base : marche à pied, deux-roues motorisé ou non, voiture individuelle en pleine propriété, voiture individuelle en usage mutualisé, transport public routier, transport public ferré, et transport aérien. L’approche contemporaine privilégie la logique de parcours à celle de l’outil.

2.Expérimenter et mettre en place de nouvelles solutions techniques

Les solutions sont multiples. Elles concernent aussi bien les véhicules que les réseaux, les modes opératoires que les financements. L’intérêt d’Electric Road est d’avoir embrassé la quasi-totalité des solutions immédiates et des projets futurs.

La vision consensuelle qui se dégage de ces travaux est que la mobilité du futur ne peut être que le résultat d’une collaboration multi-modale et multi-acteurs. La qualité du système de mobilité résulte de la conception et du déploiement coordonnés d’un système unifié de mobilité métropolitaine et inter-métropolitaine, gérant aussi bien les personnes, que les biens et l’information.  L’efficience énergétique est un des objectifs majeurs de ce modèle intégrateur, qui vise, corrélativement, à garantir des objectifs de santé publique. Mais l’objectif économique est aussi majeur : irriguer le territoire de réseaux de transport performant est un élément majeur de l’attractivité économique et donc de l’emploi. La qualité de la gouvernance en est la condition.

Le nombre d’acteurs s’accroit. Ainsi la route et les infrastructures physiques, qui ont pu être négligées dans le passé, apparaissent aujourd’hui clairement comme des éléments majeurs de la performance globale. Avec 1 million km, 20000 km de routes principales et 400000 de routes secondaires, et 30000 gestionnaires de routes le réseau routier français, plus important que ceux de l’Allemagne et de l’Italie réunis, est estimé en valeur de remplacement à 2000 milliards. Le réseau ferré ne comprend que 30000 km de lignes. Les services potentiels apportés par la route moderne, connectée et éventuellement à énergie positive, implique une nouvelle vision de la route, qui n’est plus ouverte, gratuite et généraliste, mais va délivrer des services « RAAS : road as a service ».  Il est clair que les véhicules les plus sophistiqués auront besoin de ces services dont on comprend qu’ils ne peuvent irriguer l’ensemble du territoire.

Le nombre de solutions énergétiques est aussi en pleine expansion. Les énergies fossiles sont encore totalement dominantes. Elles alimentent 94,8% des voitures particulières vendues en France en 2017 et al quasi-totalité des véhicules industriels et de transport collectif. Toutefois, l’électrification du transport, qui a conquis le transport collectif ferré depuis l’abandon de la vapeur dans les années soixante, est en train de gagner le transport routier. L’électrification du parc automobile progresse lentement, mais aux 26000 voitures électriques vendues en France en 2017 il faut ajouter les 81000 hybrides, dont 12000, dites plug-ins, disposent de quelques dizaines de kilomètres d’autonomie en mode électrique pur. Les VEB (véhicules électriques à batteries) ne sont pas la seule solution puisque les véhicules à pile à combustible à hydrogène se profilent comme alternative intéressante tant pour l’autonomie (600 à 700 km) que pour le temps de remplissage (3 minutes).

Les autobus sont en passe d’être également convertis à l’électricité et la décennie 2020 verra le nombre d’autobus électriques dans les villes européennes s’accroître. La Chine en a déjà mis 350000 en circulation. Ils peuvent aussi exploiter les avantages du Biogaz et de l’hydrogène pour lesquelles des solutions sont en cours de déploiement, comme à Pau.

Il faut aussi aborder l’évolution des deux roues motorisées. Si le vélo a retrouvé dans les politiques publiques et les choix individuels une place majeure, l’Europe n’a pas opté massivement comme en Chine pour les deux roues motorisés électriques. Il y a en effet plus de 250 millions de deux roues électriques en Chine. Les avantages sont les mêmes que pour les voitures, absence d’émission et de bruit.

Par ailleurs l’autonomie des batteries est encore limitée, et pour prolonger l’autonomie il faut augmenter le nombre des cellules de batteries, donc le coût et le poids. Les solutions nouvelles sont nombreuses et vont de la multiplication des bornes rapides au développement de la recharge intelligente et de la charge par induction, qui sort du stade du laboratoire pour entrer dans celui de l’expérimentation.

Mais ces innovations, si elles apportent une solution réelle à la pollution urbaine, ne règlent pas le problème crucial de la décarbonation du transport car la qualité de l’électricité qu’elle utilisent dépend du mix énergétique fossile/nucléaire/renouvelable. S’il n’y a pas d’inquiétude majeure sur la capacité de production électrique en France, car un million de véhicules électriques représente une consommation de 2 TWh sur 520 TWh de production, le problème est la simultanéité des charges qui peut surcharger le réseau. Il faut donc développer une approche des réseaux intelligents qui s’inscrit également dans une réflexion sur le stockage de l’énergie électrique.

Pour apporter une réponse à un autre problème crucial de la circulation automobile, la congestion urbaine, il faut également réduire le nombre de véhicules individuels en circulation, soit par les contraintes (péages urbains, interdiction de circulation) soit par les incitations à l’autopartage et à la rationalisation des déplacements.

  IMG_1809

Pour progresser encore dans la lutte contre les émissions carbonées et polluantes, il faut travailler sur toutes les sources de consommation d’énergie, lutter contre le poids et les frottements aérodynamiques, mais aussi, et c’est une source majeure de réduction de consommation et d’encombrement, diminuer les déplacement inutiles. C’est un enjeu particulier de la logistique urbaine, ou le e-commerce tend à multiplier les flux. Là encore, les innovations sont nombreuses pour développer une conteneurisation intelligente des marchandises, mutualiser les flux, gérer des stocks urbains et pour cela exploiter de nouveaux véhicules inventifs et développer des logiciels de tracking de plus en plus fins. La Poste a ainsi présenté un chariot autonome pour la distribution de petits colis et Man annoncé une gamme de camions électriques pour la livraison urbaine.

Electric Road 2018 a permis d’échanger et d’approfondir ces questions dans un cadre apaisé de spécialistes. Mais la conséquence de ces analyses est aussi simple que pratique : la voiture individuelle, fusse-t-elle électrique, n’offre qu’une réponse partielle à la mobilité, le transport collectif est adapté au transit de masse et ne peut couvrir tous les territoires, les innovations ne répondent que très partiellement aux problèmes de masse et de consommation énergétique. Il faut donc largement partager ces réflexions pour qu’elles sortent du cadre limité des experts pour devenir un sujet majeur de culture collective et de démocratie participative. Car s’il n’y a pas de solution technique universelle, il faut développer une prise de conscience individuelle, documentée et lucide, qui permette de faire progresser les meilleures pratiques et de créer un consensus acceptable tout en continuant à travailler d’arrache-pied sur les innovations.


Guerre commerciale et automobile mondiale : quels risques ?

(Article également publié sur Atlantico.fr 7 juin 2018)

L’industrie automobile européenne sort d’une période particulièrement euphorique qui a vu les volumes et les marges flamber pour reconstituer la rentabilité d’une industrie fortement ébranlée sur ses fondamentaux par la crise de 2008.

Toutefois, l’industrie automobile est cyclique et chacun sait que les volumes, qui font les marges, pourraient décliner en 2018. Mais les signaux sont assez confus. En Europe, la Grande-Bretagne connait une baisse continue des ventes depuis le début 2017, sauf en avril 2018. D’ailleurs après un premier trimestre incertain, avril a été très actif en Europe avec une croissance de 10%. Les États-Unis, comme le Japon connaissent un début d’année 2018 moins serein. Comme toujours les causes sont multiples. Le prix du pétrole remonte depuis 12 mois, ce qui freine toujours les automobilistes dans leurs intentions d’achat. Le baril de Brent est passé de 51 dollars en mai 2017 à 77 dollars fin mai 2018. Alors que le stock de véhicules en circulation vient d’être largement renouvelé avec des véhicules neufs, les voitures actuelles étant fiables et pouvant être conservées plus longtemps alors que les authentiques innovations sont rares, il est peu probable que la demande continue à se situer à un niveau élevé sur les marchés matures.

 Mais l’industrie automobile reste le moteur de l’industrie mondiale. L’évolution de la géographie des marchés vers l’Asie profite largement aux constructeurs allemands qui y ont pris des positions massives, sans renoncer au lucratif marché américain. C’est sur ce fond de menaces de ralentissement que les bruits de retour au protectionnisme et à la guerre commerciale se font pressants. Le président Trump est prêt à tout pour relancer l’emploi américain dans l’industrie automobile et il sait que c’est en soutenant les marques américaines qu’il y parviendra. Les élections de mi-mandat, le 8 novembre 2018, ne sont pas étrangères à cette surenchère. L’Europe a tout à perdre d’une guerre commerciale compte de la position dominante de l’industrie allemande aussi bien aux Etats-Unis qu’en Chine.

1-​Alors que le G7 débutera ce 8 juin dans un climat tendu ​de début de guerre commerciale mondiale, Donald Trump fait peser une menace sur l'Europe qui pourrait être bien plus lourde de conséquences pour les européens. Une enquête menée par Wilbur Ross, secrétaire d'Etat au Commerce, pourrait ainsi mener à l'imposition de droits de douanes de 20 à 25% sur les automobiles européennes -et sur les pièces détachées exportées vers les Etats-Unis. Si une telle menace était mise en application, quelles en seraient les conséquences économiques pour l'Europe ? Alors que l'Allemagne contrôlerait 90% du marché "premium" américain, quelles en seraient les conséquences pour ses constructeurs, mais également pour ceux des autres pays comme la France ou l'Italie ?

 Les États-Unis, patrie de l’industrie automobile depuis le milieu du XXe siècle, se voient contestée leur suprématie au cœur même de leur territoire. L'industrie automobile américaine est de plus en plus dominée par les concurrents étrangers. La construction d'une nouvelle usine conjointe de Toyota et Mazda en Alabama , apportant 4000 emplois, démontre la volonté des constructeurs automobiles asiatiques d’être présents aux Etats-Unis, où ils ont réussi à s’affranchir des pressions syndicales.

Mais l’industrie automobile américaine – Ford, General Motors et FDA US ( Fiat Chrysler) demeure un contributeur majeur de l’économie américaine avec 245000 salariés  directs, 609000 employés chez les concessionnaires et 18 milliards $ de dépenses de recherche développement. Elle représente 3% du PIB. 70% des véhicules vendus aux États-Unis y sont produits. Mais si 82% des véhicules vendus par les marques américaines aux Etats-Unis y sont fabriqués, ce pourcentage n’est que 58% pour les autres constructeurs. Le contenu américain des véhicules étrangers assemblés aux USA est également plus faible. Un million de véhicules de marques américaines ont été exportés des Etats-Unis en 2016. L’argument utilisé par Trump de la sécurité nationale est moins anecdotique s’il parait quand on se souvient du rôle majeur qu’a joué l’industrie automobile dans la suprématie mécanique des États-Unis pendant la seconde guerre mondiale et au-delà. Il y a une fibre patriotique dans la maitrise de cette industrie dont le film de Clint Eastwood, Gran Torino, est un symbole éclatant.

Toutefois, durant le premier trimestre 2018, les constructeurs automobiles étrangers devraient avoir produit 1,4 million de voitures aux Etats-Unis. Cette performance leur permettrait pour la première fois dans l'histoire d'égaler la production des constructeurs automobiles américains. En 2017, les constructeurs américains n’avaient produit que 100.000 voitures de plus que leurs concurrents étrangers. Ce recul des constructeurs américains est préoccupant compte tenu de leur poids dans l’économie américaine qui est plus fort que les constructeurs étrangers.

En revanche si les constructeurs français ont depuis longtemps renoncé à revenir aux États-Unis après leurs coûteux déboires, les allemands y sont présents commercialement et industriellement. Les menaces de Trump, qui veut chasser jusqu’à la dernière Mercedes de la 5eAvenue, visent depuis longtemps les industriels allemands, symboles d’une concurrence déloyale, « puisqu’on ne voit pas de Chevrolet en Allemagne ». Bien évidemment l’attractivité propre des marques de luxe allemandes, qui représentent 70% des ventes de véhicules premium dans le monde, explique cet engouement que les constructeurs ont su accompagner par une politique continue d’investissements aux États-Unis.

Capture d’écran 2018-06-07 à 17.47.47

Mercedes sur la 5e Avenue à New-York

La production des constructeurs allemands aux États-Unis en 2017 s’est élevée à 811000 véhicules, dont  421000 pour BMW, 303000 pour Daimler et 87000 pour Volkswagen. Les exportations des constructeurs allemands vers les États-Unis se sont élevées, quant à elles, à 493000 véhicules en 2017 contre seulement 258000 vers la Chine, où les industriels allemands ont produit près de quatre millions de voitures.

L’industrie automobile allemande surclasse l’industrie américaine. Sur un chiffre d’affaires total en 2017 de 334 milliards €, elle exporte pour 236 milliards € et emploie 480000 salariés. Les ventes de pièces détachées et accessoires s’élèvent à 80 milliards €, les dépenses de R&D s’élèvent à 22 milliards €. Les enjeux de la libre circulation sont donc considérables pour l’industrie allemande.

2- Dans ses relations avec la Chine, on a pu voir l'administration Trump desserrée son étreinte au moment ou Pékin s'avançait vers des promesses de relance de ses importations en provenance des Etats Unis. De tels tarifs douaniers peuvent-ils être considérés comme des moyens de pression sur les européens dans une même optique ? 

Les objectifs de la Chine et des Etats-Unis ne sont pas identiques. Pour le Président Trump, conformément à ses engagement électoraux, il s’agit de reconstituer la force industrielle de l’industrie automobile américaine pour des raisons d’emploi mais aussi symboliques. Pour le gouvernement chinois, qui coopère depuis plusieurs décennies avec les constructeurs étrangers, il s’agit de s’affranchir de la dépendance technique pour édifier une industrie compétitive, innovante et moderne, donnant à la Chine une indépendance technique conforme à son ambition de long terme. C’est pourquoi les co-entreprises ne seront plus obligatoires à partir de 2021 et que la priorité est mise sur les investissement nécessaires à la mise en place d’une industrie de véhicules électriques innovants. Si la Chine produit une voiture fabriquée dans le monde sur trois, c’est d’ores et déjà une voiture électrique sur deux. La Chine n’a aucun intérêt à encourager toute forme de guerre commerciale compte de sa compétitivité prix, mais aussi de la monté en gamme de ses exportations.

3- Alors que le secteur automobile européen est déjà sous pression de la Chine tout en venant de perdre sa capacité de se développer sur le marché iranien, quels sont les risques plus globaux pour les constructeurs européens ? Quels sont ceux qui sont les plus à risque ? Dans une telle situation, entre conciliation et affrontement, comment doivent réagir les autorités européennes face aux Etats Unis ?

 Il est certain que les constructeurs européens ont beaucoup à perdre d’une contraction du marché mondial que ce soit à travers les droits sur les véhicules exportés assemblés que sur les véhicules destinés à être montés sur place (CKD ou Complete Knock Down)  et sur les pièces détachées. Les constructeurs allemands ont une position dominante mondiale auxquels ils ne peuvent renoncer. Si PSA vient de décider de se retirer de son historique marché iranien sous la pression américaine, les enjeux de l’Europe qui s’est construite comme champion de la liberté du commerce, vont bien au-delà d’une partie de bras de fer que l’administration américaine souhaite engager. L’industrie européenne, c’est aussi l’aéronautique, les industries agro-alimentaires et donc beaucoup à perdre dans des affrontements durs.

L’Europe est plus fragile politiquement que la Chine et les États-Unis. Son fractionnement idéologique actuel, avec la montée des populismes, l’instabilité en Italie et en Espagne et la sortie de la Grande-Bretagne, plaide pour une attitude prudente de la Commission européenne qui manque de moyens pour mener un combat incertain avec les États-Unis. Serait-ce pour les Européens atlantistes une occasion de réviser de façon déchirante 70 ans de positions pro-américaines dans un monde où les équilibres se déplacent vers l’Est ?

Capture d’écran 2018-06-07 à 17.51.43

Gran Torino


La tectonique des plaques informatiques

L’informatique est en grande mutation, nous dit-on chaque jour. Nous sommes entrés dans le monde digital. Certes, si l’on mesure la puissance des objets que nous avons dans notre poche, la rupture avec le passé proche est radicale. Mais qui n’a pas été étonné de la persistance d’applications anciennes supportant des processus qui paraissent aujourd’hui archaïques. La liste est longue : demander une copie « originale » d’un document, écrire à la main « lu et approuvé », exiger, alors qu’on s’est entendu par courriel, un « courrier » de confirmation, attendre derrière un guichet pour reprendre des informations déjà partagées par le web… Qui n’a pas entendu une personne courroucée derrière son bureau pester contre la lenteur de son ordinateur et s’en prendre à un maléfique « réseau » ? Autant de petites choses du quotidien qui trahissent la rémanence de fonctionnements anciens, vestiges tenaces du monde ancien du papier, d’inadéquations persistantes entre le monde léger et instantané du « zéro délai, zéro défaut », que nous exigeons, et la réalité glaiseuse de la routine.

Une des causes de ces agacements réside dans la vétusté des systèmes informatiques, et donc des processus qu’ils supportent, face au sentiment de facilité, de légèreté et d’ergonomie qu’apportent les solutions issues du web.

Essayons de comprendre cette coexistence entre des applications modernes hautement pratiques et fonctionnelles et l’informatique des processus qui renvoie parfois à Courteline et incarne la bureaucratie.

En géologie, la dérive des continents , découverte par Alfred Wegener au début du XXe siècle, théorie démontrée et renforcée dans les années soixante par la compréhension de la tectonique des plaques, permet d’expliquer comment se forment les chaînes de montagne, les fosses océaniques et les éruptions volcaniques.  Dans ce modèle, les douze plaques qui constituent la croute terrestre, ou lithosphère, glissent les unes sur les autres mues par la chaleur du centre de la terre. Les plus denses s’enfoncent sous les plus légères, c’est le phénomène de subduction. Si chaque plaque conserve sa morphologie, ce sont dans les zones de contact que les chocs se produisent. Ce processus est générateur de nombreux phénomènes violents, explosions volcaniques, tremblements de terre… Des roches anciennes disparaissent, de nouvelles structures se développent. C’est un processus très lent, mais cette fabrication du nouveau engendre des réactions de l’ordre ancien qui résiste, puis finit par céder.

L’informatique est ainsi. C’est une plaque historique qui s’est formée à la fin du XIXe siècle et a poussé au cours du XXe siècle. On lui doit de multiples innovations qui ont été totalement métabolisées par le corps social, après avoir été violemment rejetées. L’informatisation des processus a permis de construire des systèmes efficients dont les exemples les plus anciens et les plus accomplis sont la circulation aérienne ou la banque de détail qui ont permis à ces industries de connaître une expansion remarquable. L’informatisation des entreprises s’est développée tout au long de la seconde partie du XXe siècle, en couvrant de processus automatisés la plupart des fonctions, par cercles concentriques du noyau comptable vers les fonctions de production, logistique, conception, design. Mais ces processus automatisés préexistaient à l’informatique, ils étaient mesurables et prédictibles, et compris par les professionnels qui en avaient la charge.

Le système informatique qui s’est construit grâce à une ingénierie méthodique et rigoureuse - gestion de projet, cycle en V - est désormais bousculé par une plaque émergente, le monde de l’internet et du web, qui embarque avec elle des innovations radicales comme l’informatique mobile, le monde de la donnée, l’exploitation des outils de l’intelligence artificielle par l’usage de nouveaux algorithmes, la connexion des objets…

En s’éloignant constamment des contraintes physiques de la machine, l’informatique s’est centrée sur la performance fonctionnelle à travers les progrès de l’architecture et du développement. Simultanément, les progrès opérés sur les processeurs, les réseaux et les mémoires étendent constamment l’horizon de la programmation. Ce rapport dialectique entre le processeur et le code transforme structurellement le champ de l’informatisation qui, naguère concentrée sur les processus stables et les données structurées, embrasse désormais tout type d’information, structurée ou non structurée, sur tout support, fixe ou mobile, textuel ou graphique.

Toutefois, si la plaque de l’informatique structurée s’enfonce graduellement, elle ne disparait pas pour autant ! Ce qu’on appelle « numérique » ou « digital », et qui s’incarne dans la pluralité des applications, ou « apps », accessibles à partir de l’ordinateur mobile que les Québécois appellent « téléphone intelligent » et les Français « smartphone », s’appuie sur une ingénierie informatique de haut niveau qui est le résultat de décennies de recherche et développement et d’industrialisation. Car la mutation du vocabulaire qui a consisté à oublier l’informatique pour ne retenir que le mot digital, n’est qu’un leurre.

Capture d’écran 2018-06-07 à 12.00.08

Source : INSU CNRS

Ces deux plaques informatiques sont composées des mêmes matériaux : des données, des algorithmes, des machines, avec leurs langages de programmation, et des interfaces.  Reprenons la tentative de définition que donne Gérard Berry[1]pour solder ce débat parasite sur le vocabulaire.

  1. Le mot « informatique » désignera spécifiquement la science et la technique du traitement de l’information, et, par extension, l’industrie directement dédiée à ces sujets.
  2. L’adjectif « numérique » peut être accolé à toute activité fondée sur la numérisation et le traitement de l’information : photographie numérique, son numérique, édition numérique, sciences numériques, art numérique, etc.

L’informatique est le moteur du traitement des informations numérisées. Toute réflexion sur le monde numérique inclut donc une réflexion sur les outils informatiques indispensables au traitement des données numérisées. Le schisme informatique/numérique étant dépassé, il reste à comprendre ce qui a vraiment changé dans ce nouveau monde numérisé.

La plaque « numérique » est différente par ses apports plus qu’elle ne l’est par sa nature. La généralisation de la numérisation de l’information – transformée en données binaires – permet une extension infinie des usages. La plaque « numérique » est donc avant tout marquée par la totale démocratisation du traitement numérique de l’information qui, avant 1995, était l’apanage des grandes organisations, entreprises et états. Aujourd’hui, chacun peut s’essayer à comprendre la programmation, sans pour autant devenir programmeur, avec des outils et des tutoriaux largement disponibles, mais surtout exploiter les millions d’applications quasi-gratuites accessibles dans les magasins d’application. Le numérique, c’est avant tout un champ immense ouvert à la créativité, à l’imagination et à l’échange. Chacun peut s’autoproduire dans la création musicale, vidéo ou littéraire, sans frein, sans délai. On peut puiser de partout dans l’immense réservoir de savoir qu’est le web et son vaisseau amiral, Wikipédia. Cette profonde transformation de l’accès aux ressources de connaissance, de production et de diffusion est la marque de notre époque. Elle porte de formidables transformations culturelles et sociologiques, en effaçant la barrière tenace entre la caste auto-proclamée des sachants et le monde oublié des ignorants. Elle force chacun à hisser son niveau d’exigence dans l’accès à la connaissance et ne permet plus de trouver des prétextes à l’ignorance. Certes, on peut brocarder les excès, les dérives, les tentations de détournement fabriqués par les trolls de toutes obédiences. Là où la liberté jaillit, le totalitarisme menace et ce n’est pas nouveau. Mais l’élan vital est plus fort que les scories. L’éducation ne peut ignorer aujourd’hui que le décryptage de l’information est un des outils les plus précieux de l’accès à la connaissance. L’éducation au discernement passe par la compréhension maîtrisée de moteurs de recherche... et le décryptage des onglets des articles de Wikipédia. La démocratie ne se fabrique plus seulement dans les préaux d’école et dans les urnes, mais aussi sur les réseaux sociaux qui doivent acclimater l’éthique indispensable.

Mais l’informatique du XXIe siècle continue à s’appuyer pour atteindre ses performances sur une ingénierie de haut niveau. Le numérique n’est ni facile, ni gratuit, ni instantané.  Pour être fiable, sûre, et livrer en temps réel toutes ses promesses, l’informatique du XXIe siècle est exigeante et rigoureuse. Elle couvre un champ immense d’activités humaines et doit donc atteindre à chaque instant l’excellence. Or l’informatique est une œuvre humaine, donc faillible. La fiabilité est le résultat d’un processus continu de gestion proactive de la qualité qui implique de la compétence, de la rigueur à chaque étape : spécification, design, architecture, conception, programmation, exploitation, surveillance. Cette maîtrise va devenir un des éléments centraux de la performance des systèmes complexes. Elle implique de travailler en profondeur sur la dimension humaine de l’informatique et englobe une vision systémique de la compétence informatique : des formations appropriées, dès le plus jeune âge, des carrières attractives, une reconnaissance collective pour les professionnels de l’informatique et, aussi, une vraie compréhension des coûts. Il est en effet futile de considérer que l’informatique est encore un centre de coût. C’est un ensemble de disciplines qui doivent être traitées avec compétence et respect par les dirigeants des organisations, ses projets et son mode de fonctionnement justifiant une authentique éducation pour permettre une prise de décision informée.

On ne peut que conseiller la lecture de cet ouvrage fondamental à la compréhension de l’usine informatique du XXI siècle « Accelerate »[2]dont la conclusion est claire et fait de l’informatique un des cadres organisationnels les plus cruciaux pour le bon fonctionnement de notre société. “In all of our research, one thing has proved consistently true: since nearly every company relies on software, delivery performance is critical to any organization doing business today. And software delivery performance is affected by many factors, including leadership, tools, automation, and a culture of continuous learning and improvement.”

 

 

 

 

[1]Berry, Gérard. L' Hyperpuissance de l'informatique: Algorithmes, données, machines, réseaux (OJ.SCIENCES) Odile Jacob, 2017

[2]Nicole Forsgren, Jez Humble, Gene Kim, Accelerate: The Science of Lean Software and DevOps: Building and Scaling High Performing Technology Organizations. IT Revolution Press,2018.

 


La voiture autonome face à ses responsabilités

Pour les conducteurs pris dans les embouteillages quotidiens de toutes les villes de la planète, conduire, loin d'être un plaisir, se transforme en corvée fatigante et dangereuse. Le rêve de confier cette charge à un automate se rapproche mais est encore loin de pouvoir se concrétiser facilement.

Le chemin à parcourir est d'abord technique, mais aussi réglementaire. Il est plus encore comportemental car la voiture touche au coeur même de la modernité. La circulation routière de plus d’un milliard de véhicules n’est pas une activité banale. Elle est encadrée par une convention internationale conclue à Vienne le 8 novembre 1968 qui remplace les textes antérieurs de 1926, 1943 et 1949. C’est un document central qui rend la circulation possible sur l’ensemble de la planète avec des règles communes. Son article 8 définit le rôle particulier du conducteur que la technique promet d’éloigner prochainement du volant.

La modification de cette convention sera un chantier est complexe car les recherches sur la voiture autonome mettent en évidence ce qui avait finalement été banalisé par plus d’un siècle d’usage, c’est que la conduite automobile est une activité multitâche exigeante, nécessitant le recours à de multiples mécanismes cérébraux et musculaires, stimulés en temps réel. L’homme, au terme d’un apprentissage initial souvent sommaire, finit par en venir à bout de façon assez performante même si c’est un processus coûteux en vies humaines. Selon l’OMS, c’est en effet plus d’un million de personnes qui meurent en effet chaque année dans un accident automobile sur la planète.

Confier cette mission périlleuse à une machine suppose que l’on soit capable d’obtenir en toutes circonstances, de façon fiable et répétitive, moins coûteuse en temps, en énergie et en erreurs un résultat performant supérieur à celui atteint par l’homme. Et ceci pour un coût acceptable !

Capture d’écran 2018-05-15 à 11.55.19

Au CES de Las Vegas 2018, présentation d'une approche de transformation de l'interface homme/machine par Valeo

La longue marche de la voiture autonome : quelle échéance crédible ?

L’ambition qui n’est pas nouvelle puisque dès 1939 General Motors avait imaginé pour la Foire internationale de New York, « The World of Tomorrow », des autoroutes où circuleraient des voitures dont la vitesse et l’espacement étaient régulés.

Depuis 1980, les expériences, isolées, ont stimulé la recherche et le fameux challenge du DARPA, agence de recherche du Ministère de la Défense des États-Unis, a mis en concurrence plusieurs équipes pour faire circuler, laborieusement, un véhicule autonome entre 2003 et 2007. C’est l’équipe gagnante du défi 2005, issue de Stanford, qui est à l’origine du projet de Google. Cependant, la ruée actuelle vers ce concept est apparue en sortie de la crise de 2009 comme une réponse de l’industrie automobile au besoin ressenti de renouvellement et d’imaginaire, incarné de façon dominante par l’industrie numérique. Quand Google a annoncé en 2010, de façon très prématurée, être capable de produire une voiture autonome, les constructeurs automobiles ont été piqués au vif. Il est paradoxal que, soudain, ceux qui exaltent le plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à une cohorte de robots le soin de s’acquitter de cette tâche.

Mais quelle est la finalité d’une voiture autonome ? Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. La motivation est noble : tendre vers le zéro accident et le zéro mort. Plus d’un million de personnes meurent dans un accident de la route sur la planète chaque année. Au CES 2018, les intervenants ne parlaient que des 35000 morts sur les routes américaines pour justifier la voiture autonome.

L’inattention, l’utilisation d’un téléphone ou d’un smartphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement. Mais on attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages et un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. A plus long terme, il suffira d’une flotte limitée de voitures sans conducteur, roulant en permanence, pour assurer un service personnalisé à domicile. Les perspectives sont séduisantes et emballent le milieu automobile même si des voix prudentes, comme celle du responsable de la recherche de BMW, expliquent que la technologie est loin d’être en mesure de résoudre sans risque tous les problèmes de la conduite.

Une voiture autonome n’est qu’un robot aveugle et ignorant auquel on chercher à donner une intelligence contextuelle pour sentir, planifier et agir. Il faut donc apprendre à ces robots à prendre des décisions saines dans un contexte varié où les risques potentiels sont très différents. Une autoroute du Nevada n’est pas une petite route enneigée de l’Ardèche ni la place de l’Etoile. Comme il est impossible de modéliser a priori la diversité de situations possibles, on éduque les logiciels en leur faisant absorber le plus grand nombre possible de données et de règles de conduite. Le travail du conducteur est dans les voitures modernes assisté par de multiples copilotes prévenants. Or il faut infuser dans les ordinateurs de bord l’expertise du conducteur. C’est le pari de l’intelligence artificielle qui va permettre aux véhicules d’apprendre la complexité de la conduite par l’expérience. Ceci prendra donc des années et l’apparition de la voiture autonome sera graduelle, limitée à certains sites et cas d’usage.

Dans l’état actuel des connaissances, il n’est pas envisageable d’en imaginer un développement de masse avant au moins une décennie. Mais les véhicules commercialisés dans les prochaines années bénéficieront des retombées de ces recherches, apportant au conducteur une assistance à la conduite de plus en plus riche. Les constructeurs travaillent, pragmatiquement, sur un éventail de solutions qui vont instiller au sein du véhicule un nombre croissant d'outils de conduite assistée qui vont faire évoluer le confort et la sécurité d'utilisation des véhicules par les humains avant d'en confier, dans certains cas, la responsabilité à des outils automatique. On va passer du niveau 3 au niveau 5 par touches successives et la modernisation du parc automobile va permettre cette familiarisation.

Une réglementation complexe à faire évoluer

Mais le problème n’est pas que technique, il touche la responsabilité et donc la réglementation. Un changement majeur dans la réglementation mondiale Il est important de citer quelques extraits du texte de l’article 8 de la convention de Vienne.

1. Tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur.

3. Tout conducteur doit posséder les qualités physiques et psychiques nécessaires et être en état physique et mental de conduire.

4. Tout conducteur de véhicule à moteur doit avoir les connaissances et l'habileté nécessaires à la conduite du véhicule ; cette disposition ne fait pas obstacle, toutefois, à l'apprentissage de la conduite selon la législation nationale.

5.2 Tout conducteur doit constamment avoir le contrôle de son véhicule …/….

5bis. Les systèmes embarqués ayant une incidence sur la conduite du véhicule sont réputés conformes au par. 5 du présent article et au premier paragraphe de l'art. 13 s'ils sont conformes aux prescriptions en matière de construction, de montage et d'utilisation énoncées dans les instruments juridiques internationaux relatifs aux véhicules à roues et aux équipements et pièces susceptibles d'être montés et/ou utilisés sur un véhicule à roues.

6. Les systèmes embarqués ayant une incidence sur la conduite d'un véhicule qui ne sont pas conformes aux prescriptions en matière de construction, de montage et d'utilisation susmentionnées sont réputés conformes .../...pour autant qu'ils puissent être neutralisés ou désactivés par  le conducteur.

7. Le conducteur d'un véhicule doit éviter toute activité autre que la conduite. La législation nationale devrait prescrire des règles sur l'utilisation des téléphones par les conducteurs de véhicules. En tout cas, la législation doit interdire l'utilisation par le conducteur d'un véhicule à moteur ou d'un cyclomoteur d'un téléphone tenu à la main lorsque le véhicule est en mouvement

Cette énumération contraignante éclaire le champ de la rupture qu’implique la mise sur le marché de véhicules autonomes. Il faut en effet détricoter cette réglementation qui supporte des textes d’application partout dans le monde. Le marché de l’automobile étant international, il faut pour vendre ces voitures, qu’elles puissent être utilisées partout. Plus encore, l’annexe 5 de la convention de 1968 définit les prescriptions techniques détaillées auxquelles doivent satisfaire les véhicules pour obtenir leur immatriculation.

C’est aussi un élément majeur de définition de la responsabilité, les autorités devant s’assurer que les règles nouvelles de conformité seront respectées par les constructeurs. C’est pourquoi ne circulent aujourd’hui dans le monde que des véhicules autonomes supervisés par des conducteurs humains, les États ayant délivré des autorisations provisoires de circulation. Il n’y a donc pas de « vraie » voiture autonome sur route ouverte. Toutefois des véhicules autonomes peuvent circuler sur des sites protégés, à petite vitesse, comme la navette Navya sur le site de la Défense ou à Lyon. La législation française -loi Badinter de 1985- prévoit l’indemnisation de la victime d’un accident impliquant un véhicule motorisé par l’assurance de ce véhicule. Mais se pose alors la question de la responsabilité : est-ce une défaillance du véhicule, du propriétaire, de l’occupant ? Or en droit actuel les machines ne peuvent être tenues pour responsables. Ce vide juridique implique de nombreux travaux regroupant juristes, compagnies d’assurance et autorités de réglementation et de certification.

La voiture autonome objet de toutes les attentions

Quelles sont les motivations qui explique cet engouement du gouvernement et de certains politiques et acteurs économiques pour la voiture autonome ? La rationalité de cette démarche n’est pas, a priori, évidente : la technique n’est pas au point, le coût inconnu, la demande ignorée et donc le modèle économique aléatoire. Mais l’automobile est le plus sophistiqué des marchés de masse. C’est une industrie capable de produire cent millions de véhicules par an qui génère un chiffre d’affaires et des dépenses récurrentes considérables. Ignorer que cette industrie puisse connaitre une révolution majeure sans en faire partie serait, pour les constructeurs comme pour les grands pays qui les abritent, suicidaire.

La motivation est bien d’abord d’embarquer dans une aventure humaine qui touche la vie au quotidien et a donc des conséquences environnementales, économiques et sociales considérables. C’est un changement majeur du modèle de mobilité qui ferait clairement de la voiture un composant d’un système collectif de transport. C’est de plus une transformation radicale du modèle d’affaires de l’industrie automobile qui passerait de la possession à l’usage, les voitures autonomes ayant vocation à être partagées car leurs capacités leur permettraient de circuler constamment.

C’est enfin un pari technique qui embarque constructeurs et les équipementiers de l’industrie automobile, mais aussi tous les acteurs de la filière numérique et de la recherche puisque le défi porte plus sur les logiciels que sur la technique automobile. Il est estimé qu’un véhicule autonome exploitera 4000 Gbits de données par jour, entre les caméras, radars, sonars, lidars, GPS dont il sera équipé.

Confier sa vie à des automates et des algorithmes impose le zéro défaut, donc une validation du code informatique et des modèles de décision comme la protection des données personnelles et la robustesse contre les cyberattaques. C’est la condition majeure de l’acceptabilité du véhicule autonome qui est la base de la démarche préconisée par Anne-Marie Idrac et qui implique du temps, de l’expérimentation et un travail coopératif entre tous les acteurs impliqués, dont l’État.


Genève 2018 : entre conformisme du marché et audace de l'image

Capture d’écran 2018-03-08 à 09.24.03

Renault Zoe, la star européenne des voitures électriques abordables, désormais dotée de 400 km d'autonomie

Genève est un salon automobile à part. Sur un des marchés les plus haut-de-gamme de la planète et sans constructeur national, c’est une enceinte où la compétition bat son plein à armes égales. Les halls d’exposition sont à taille humaine. On peut, en quelques heures, embrasser du regard la production mondiale et sentir les frémissements annonciateurs de changements. Les constructeurs y soignent particulièrement leurs stands et polissent leurs annonces en ce début d’année automobile qui pourrait annoncer quelques nuages après le sans faute de 2017.

Car le marché automobile, si friand de publicités et d’annonces spectaculaires, est un marché de raison, plutôt conservateur. La Suisse, pays à haut pouvoir d’achat, est aussi un de ceux dont le parc neuf émet, en moyenne, le plus de CO2, fortes puissances et SUV obligent.

C’est pourquoi la progression de la part des véhicules alternatifs au pétrole y représente un caractère emblématique au-delà du seul marché helvétique. En effet les émissions moyennes de CO2 des véhicules neufs se sont établies, en Suisse, à près de 134 grammes de CO2 par kilomètre en 2016, ce qui représente une baisse de 1,2% par rapport à l'année précédente (2015: 135 g/km) mais la plus faible baisse depuis 2006.

Les émissions moyennes de CO2 des véhicules à essence se sont situées, comme en 2015, à 136 g de CO2/km. Les émissions des véhicules diesel ont quant à elles baissé à 136 g de CO2/km (139 g/km en 2015). La part des véhicules électriques a engendré une diminution des émissions moyennes de plus de 2 g de CO2/km. La part des voitures de tourisme fonctionnant partiellement ou entièrement à l'électricité représentait 2% du parc de véhicules neufs en 2016 (1,9% en 2015). La part des véhicules diesel a légèrement progressé pour s'établir à 39,5%. La France, en 2016, enregistre un résultat largement plus positif avec seulement 110 g/km contre 176 g/km en 1995. Pendant 21 ans, la baisse des émissions des véhicules neufs vendus a été continue jusqu’en 2016, 2017 enregistrant une légère hausse pour passer à 111 g.

L’électrification du parc, une solution séduisante

Il est évident que la modernisation du parc et l’augmentation de la part des véhicules électriques sont une solution pour réduire massivement les émissions de CO2 et de polluants.  Le secteur des transports représente avec 27% la plus forte source d’émission de CO2 en Europe.

Selon une étude publiée en 2017 par le European Climate Foundation (ECF) il serait possible de réduire les émissions de CO2 des voitures d'ici à 2050, passant de 605 millions de tonnes en 2018 à 70 millions de tonnes en 2050 en adoptant massivement le véhicule électrique avec 71% de véhicules électriques à batteries et 26% de véhicules à piles à combustible.De même, les émissions d'oxydes d'azote (NOx) seraient considérablement réduites, passant de 1,3 million de tonnes par an actuellement à 70.000 tonnes. Quant aux émissions de particules fines, elles chuteraient de 28.000 à 750 tonnes par an.

La baisse du CO2 est une tendance de long terme. Depuis 1990, la circulation des véhicules français et étrangers sur le territoire français a augmenté de 43 % ; leurs émissions de CO 2 associées n’ont quant à elles crû que de 10 %.

Différents facteurs sont à l’origine de cette amélioration de l’efficacité́ énergétique. Ainsi, au niveau des voitures particulières immatriculées en France et en circulation, la baisse de leur consommation unitaire moyenne a été de plus de 22 % entre 1990 et 2016 sous l’effet d’une amélioration technique des véhicules et des mesures de politiques publiques décourageant les fortes cylindrées. D’autre part, la quantité́ de CO2  nécessaire pour le déplacement d’une tonne de marchandises sur un kilomètre par un véhicule industriel sur le territoire français a baissé́ de 29 % entre 1990 et 2016, malgré́ l’impact de la crise économique et financière qui a ralenti le renouvellement des flottes. Il y a donc un progrès de long terme qui doit néanmoins beaucoup à la diésélisation du marché. Or avec le Dieselgate et la prise de conscience que le seul critère CO2 ne suffisait pas à rendre l’automobile vertueuse, le reflux du diesel est très rapide ce qui a pour effet de remonter en moyenne le taux de CO2 du parc neuf ! Les constructeurs cherchent donc désespérément à baisser les émissions de CO2 tout en constatant une baisse brutale, mal anticipée, des ventes de leurs moteurs diesel. Même en Allemagne les moteurs diesel risquent bien de disparaître des centres villes, ce qui les condamne à terme.

Hybridation et électrification sont les seules solutions sur le papier car pour le moment les clients sont peu convaincus. La transformation est décidemment lente et complexe car on parle d’un marché de masse, travaillé depuis des décennies par un marketing qui a mis l’accent sur le plaisir de conduire et la performance et dont l’inertie du parc est fondée sur le fonctionnement du marché de l’occasion.

Le Salon de Genève 2018 s’inscrit dans une continuité

Les voitures électriques n’ont une part marginale dans les ventes mondiales. Il s’est vendu en 2017 1,223 million de voitures électriques à batteries et plug-ins rechargeables, dont 50% en Chine, sur une production mondiale 2017 de plus de 90 millions de véhicules. Dix ans après leur apparition, elles n’ont pas conquis un large public car la proposition de valeur qu’elles représentent n’est toujours pas claire pour les acquéreurs. D’une part, malgré les subventions, elles restent chères sauf quand les véhicules thermiques sont lourdement taxés comme en Norvège.  Le prix des batteries est le facteur déterminant et s’établit, mondialement, autour de 200 $ le kWh. On estime que pour déclencher un marché de masse il faudrait que ce prix tombe au-dessous de 100 $ le kWh, ce qui n’est pas attendu avant 2025, même si beaucoup d’annonces se font régulièrement sur de possibles ruptures techniques dans les batteries. Le passage industriel aux grands volumes reste problématique. De plus, leur autonomie reste un obstacle même si dans la vie quotidienne, les 250 à 300 kms d’autonomie réelle que proposent les derniers véhicules couvrent la quasi-totalité du spectre des besoins. Le rechargement apparait comme problématique, lent et difficile, même si partout les pouvoirs publics ont financé, sans espoir de retour rentable, une offre significative de bornes de recharge. Il y a ainsi en France, fin 2107, plus de 20000 bornes publiques et on estime à plus de 100000 les points de charge à domicile et sur les lieux de travail. Pour un parc roulant de 115 000 véhicules électriques, cet équipement semble raisonnable.

Si la crise de 2008 a brutalement cassé l’essor de l’industrie automobile mondiale, les espoirs d’une réflexion cohérente de l’ensemble des acteurs sur une utilisation raisonnée de l’automobile, que cette situation brutale a pu faire naître, se sont révélés vains. En effet les gouvernements ont continué à faire pression sur les constructeurs pour réduire les émissions de CO2, mais globalement l’usage de l’automobile n’a pas fondamentalement évolué. La conception des véhicules non plus. La puissance, et la vitesse de pointe restent des facteurs marketing majeurs. Sur une sélection des « cent véhicules de l’année 2017 » effectuée par l’hebdomadaire Auto plus, 53 voitures affichaient une puissance égale ou supérieure à 150 cv et une vitesse de pointe moyenne de 184 km/h. La réduction de la vitesse maximale de 10 km/h sur le réseau secondaire suscite ainsi en France une réaction virulente.

Globalement, les voitures sont plus puissantes, plus rapides et plus lourdes, dépassant 1500 kg. L’électrique ne représente que 1% du marché mondial et les hybrides 5%. En France en 2017 il s’est vendu 24904 voitures électriques, pour 20 modèles, sur un volume de ventes total de 2142704, soit 1,16% contre 1,08% en 2016. La seule Renault Zoe représente 61% des ventes. Ces chiffres ne progressent que très peu car l’offre reste marginale et peu soutenue par les réseaux. On voit plus de concepts cars que de véhicules attractifs pouvant déclencher une intention d’achat récurrente et générer un marché de l’occasion sain.

On peut dire que si les salons automobiles immédiatement post-crise laissaient une large part à la recherche de solutions alternatives, les salons de cette fin de décennie sont décevants car ils ne suscitent pas une offre à la fois utile et agréable.

L’offre présentée à Genève confirme l’orientation du marché

La voiture électrique inspire le haut de gamme élitiste. Que Porsche, avec sa Mission E, déclinée en break Cross, ou Jaguar, avec son SUV I-Pace présentent des voitures électriques ne changera pas l’état du marché. Ce sont des voitures d’exception surpuissantes, lourdes, avec une autonomie de 500 km, et très coûteuses. Volkswagen présente l’I.D. Vizzion, pour le moment un concept de voiture autonome de niveau 5 visant 650 km d’autonomie, annoncé pour 2025. Audi annonce également son grand SUV électrique, l’e-tron Quattro. La cible de ces marques est clairement Tesla qui avec son modèle 3 amorce une transition vers le marché de masse dès lors que les problèmes de production auront été maîtrisés.

Hyundai avec le SUV Kona vise des marchés plus larges avec des véhicules bien conçus, permettant une autonomie de l’ordre de 480 kilomètres selon le nouveau cycle de test WLTP. Ce véhicule devrait être vendu mi-2018. Mais la marque présente aussi la Nexo, un SUV à pile à combustible à hydrogène très abouti, de 800 km d’autonomie destiné à remplacer le ix35 Fuel Cell vendu à 1000 exemplaires dans le monde.

Toyota, pionnier de ces solutions, reste fidèle à son engagement dans l’hybride et l’hydrogène, mais annonce son engagement à produire aussi des véhicules électriques à batteries. Toyota rénove son modèle Auris et dévoile un Lexus SUV urbain, l’UX.

Plusieurs marques avancent des solutions hybrides rechargeables, plus rassurants pour le client en termes d’autonomie. C’est le cas de Mitsubishi qui annonce pour 2019 le rajeunissement de son modèle phare,  l’Outlander PHEV, vendu à plus de 100000 unités en Europe depuis 2013, à travers le concept e-Evolution. Skoda innove avec son concept Vision X, un SUV urbain hybride utilisant le gaz naturel

Mais à côté de ces véhicules plus vertueux, Genève exhibe les chevaux des traditionnelles BMW, Audi, Mercedes. PSA présente sa nouvelle berline haut de gamme 508, très riche en équipements électroniques. Les hypercars, dont les stands attirent toujours un public nourri, sont très présents avec une hypertrophie de chevaux. Lamborghini, McLaren avec sa Senna, Ferrari 4888 Pista, Bugatti Chiron rivalisent en performance et en prix.

Le marché automobile demeure conservateur. Clients et constructeurs bougent lentement malgré la pression constante des pouvoirs publics pour discipliner l’usage de l’automobile individuelle au profit d’une stratégie de mobilité multimodale. Cette partie de bras de fer, source d’incompréhensions et de frustrations, n’a pas de raison de cesser tant l’automobile reste pour la plupart un fort symbole de liberté individuelle au-delà de tout calcul économique et sociétal. La voiture électrique n’a pas encore conquis le cœur du marché et reste contestée tant pour son rapport coût/valeur que pour sa contribution réelle à l’environnement sur son cycle de vie complet. Mais si l’électrification a conquis en un siècle tous les marchés, sauf l’automobile, l’innovation du XXIe siècle sera sans nul doute un basculement technique de l’automobile vers l’électrique, l’omni-connectivité et l’autonomie que l’on peut imaginer à partir de 2030.


Osons l'Europe !

UE en 2018
 
Que faire de l’Europe ? Cette question qui a beaucoup occupé le champ politique pendant la campagne présidentielle de 2017 est retombée dans l’oubli avant de réémerger pour les élections de 2019. De fait, et c'est symptomatique, on ne parle d’Europe que dans des situations de tensions sans se donner la peine de comprendre la réalité du fonctionnement des institutions européennes et leur apport face aux périls techniques et économiques qui menaçent la prospérité de nos vieux pays... Le paysage européen est malmené. Au lendemain des élections allemandes et italiennes, en plein Brexit, difficile, avec des pays d'Europe centrale qui après avoir bénéficié de l'aubaine vivent très mal un ancrage démocratique dans cette vaste zone ouverte au monde, le sentiment de vivre une régression de l'idée européenne et un repli identitaire ne peut être que vif tant les signaux sont au rouge. Beaucoup toutefois s'en réjouissent. Il faut comprendre cette allergie à un fait européen souvent incompréhensible, des institutions complexes et illisibles, un libéralisme qui a fait office de doctrine obstinée pour pousser, seuls au monde, la logique de la concurrence pure et non faussée qui a coupé la tête des champions industriels européens.
 
C’est dire que le livre de Christian Saint-Etienne “Osons l’Europe des nations” doit étre abordé avec la même rigueur d’analyse que celle que l’auteur déploie depuis des années pour expliquer les enjeux enropéens pour nos économie. Il faut tourner la page des poncifs sur l’Europe. L’aimer, ou ne pas l’aimer, sur un mode incantatoire, n’est plus la question. Face à la Chine et à l’Asie, et aux États-Unis, l’Europe à 27 États est devenue simplement inopérante car elle n’a pas été conçue pour le monde actuel mais pour celui du début des années cinquante... Or tout a changé. La Chine s’est éveillée, autour d’elle 3,5 milliards d’habitants sont avides de pouvoir d’achat et de qualité de vie et ont compris que cela ne se décrétait pas, mais ne pouvait être que le résultat d’une conquête scientifique et technique. Les États-Unis qui ne craignent plus le bloc soviétique ne se passionnent pas pour l’Europe qui doit compter sur ses propres forces. La Russie renoue sans complexe avec la volonté de puissance qui fut celle de l'URSS. L'Europe, sans projet, sans gouvernement stratégique ni économique, ne peut que regarder le monde nouveau se faire sans elle. Sa population ne représente que 444 millions d'habitants, sans la Grande-Bretagne et fatalement son poids économique se réduit dans le monde. 
 
Que faire ?
 
Profitons du départ suicidaire de la Grande-Bretagne pour lever toutes les ambiguïtés de ce modèle bizarre d’une relation entre États souverains arbitrée par une commission technocratique. Or précisément c’est là où le livre de Christian aborde frontalement le sujet de l’impuissance européenne, c’est que l’Europe de l’Union européenne a été fabriquée pour ne pas être une puissance, mais un marché ouvert à tous les vents. Ce n’est pas simplement de la candeur, c’est le résultat de l’histoire de notre allégeance à la Pax Americana. Changer cela avec les traités actuels est impossible. Il faut donc inventer une Europe de puissance, fédérale, musclée autour d’un appareil militaro-industriel fort tirant la nouvelle étape de la transformation numérique qui va rebattre les cartes géostratégiques du XXIe siècle. En effet, le coeur de l'avenir de l'Europe est de retrouver une place dans l'iconomie, ce monde fluide de l'intelligence collective qu'ont su préempter les grandes firmes technologiques américaines, le fameux GAFAM, et que les Chinois ont imité pour tenter, avec talent, de les dépasser avec le BATX ( Baidu, Alibaba, Tencent, Xiami) .
 
La thèse de Christian Saint-Etienne est convaincante, le processus de construction fort bien étudié, la documentation et le raisonnement économique rigoureusement déployés.
 
Bien sûr les thèses de Christian Saint-Etienne pourraient être un excellent thème de campagne électorale 2019. 
 
En effet, les élections de 2019 ne doivent pas se jouer sur l'échiquier politique français mais en fonction seulement d'une vision de ce que doit devenir l'Europe comme puissance stratégique dans un monde en recomposition. Il y a un immense travail en amont car personne ne comprend vraiment comment marche l'Union européenne et à qui elle sert. On va nous ressortir les vieux arguments souverainistes auxquels il faudra répondre par un projet sérieux et non pas des incantations européistes vides de sens . La Grande-Bretagne a depuis le XVIIIe siècle une politique européenne constante et simple : faire en sorte que jamais aucune puissance continentale ne vienne faire ombrage aux intérêts britanniques. Ayant sciemment torpillé l'Europe politique de l'intérieur, l'objectif des dirigeants britanniques est de conserver l'avantage commercial en jouant une carte politique autonome par des traités bilatéraux et en lançant une vaste politique de dumping social et fiscal. Une Europe à 27, sans colonne vertébrale solide, ne fera rien pour empêcher cela. Seule une Europe fédérale, resserrée et unie autour de principes forts comme une convergence monétaire, fiscale et sociale est de nature à représenter un pôle compétitif pour relever les défis du XXIe siècle. Le départ de la Grande-Bretagne est une opportunité pour repenser l'Europe non pas en fonction des années cinquante où elle est née mais en fonction des intérêts du XXIe siècle qui n'a plus rien à voir. A Emmanuel Macron en bon stratège de prendre cette initiative
 
Cselivre
 
Lire ce livre brillant ne peut être que salutaire à la consistance d’un débat qui ne peut plus être théorique ou sentimental, mais doit poser la question existentielle de l’avenir du modèle socio-technique européen.Osons l’Europe fédérale autour d’un noyau dur volontaire, harmonisé socialement et fiscalement sur la base de minima consentis, et doté d’un budget fédéral !

Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/


Au CES 2018, la donnée est au coeur de la révolution numérique

Rendre compte simplement du CES devient une tâche impossible tant cet événement mondial couvre désormais tous les aspects de la vie contemporaine. Y détecter les innovations les plus frappantes est complexe car l’évolution de la société numérique ne se fait plus par des percées sur les objets, mais par nappes d’interactions. On peut aussi tenter d’appréhender l’ampleur du CES par des chiffres sur des paramètres physiques : probablement cette année, autour de 180 000 visiteurs, 250 000 m2 de surfaces d’exposition, 4 000 produits nouveaux, 7 000 journalistes, des centaines de conférences. Mais cette abondance de chiffres impressionnants ne suffit pas à illustrer ce qu’est vraiment devenu le CES. A l’origine marché consacré à l’électronique grand public aux Etats-Unis, le CES, qui a perdu en 2016 l’appellation « consumer », est en effet devenu au fil des ans la plus grande manifestation mondiale dédiée au cœur de l’économie du XXIe siècle, c’est-à-dire la production et l’exploitation des données.

Capture d’écran 2018-01-15 à 10.40.25

D’année en année, l’organisation des stands des exposants, comme les thématiques des conférences et fameux keynotes, délaissent le strict champ du produit pour se concentrer sur l’analyse et les conséquences de la généralisation du traitement des données. Certes, on peut encore voir des produits spectaculaires qui dans 5 ans seront largement diffusés, comme les écrans 8K. Ou échouer comme la télévision en 3D. Mais si le CTA, qui organise le CES, a choisi comme thème fédérateur « Let’s go humans », c’est pour tenter d’apporter une réponse à la question de la place de l’humain dans un avenir où tout ce que nous produisons, pensons et vivons génère une empreinte numérique. Homo sapiens a vécu depuis ses origines dans un univers physique qu’il cherchait à comprendre avec ses moyens limités. Il en construit désormais une image numérique, un double de plus en plus fidèle, sur lequel il peut agir.  La cohabitation entre la réalité physique perceptible et son double numérique interroge sur la nature du système socio-technique que cette hybridation entre le physique et le virtuel va produire. La modélisation numérique de la vie appartient à l’homme qui l’a construite progressivement depuis les débuts de l’informatisation. Mais les risques de dépassement de l’homme par des machines devenant progressivement « intelligentes » doivent être analysés avec lucidité et sans sensationnalisme.

Au début de l’ère du web, on se plaisait à dire que chaque année on avait produit plus de données que depuis le début de la civilisation. On ne compte plus désormais tant les chiffres sont vertigineux et deviennent insaisissables.  En effet, l’accélération apportée par la généralisation du smartphone dont maintenant plus de trois milliards de terriens sont équipés est elle-même amplifiée par la production de données par les milliards d’objets connectés implantés chaque année dans les entreprises, les foyers, la cité.  Chaque activité humaine produit des informations qui couvrent un spectre de plus en plus large de paramètres physiques. La démocratisation des capteurs rend facile la saisie d’informations sur la température, la pression, le niveau sonore, le poids, la vitesse, l’accélération, la composition physico-chimique, la localisation de tout, personnes, biens, phénomènes physiques et biologiques. La capacité à saisir, analyser et restituer ces données est désormais sans limite. Les capteurs, les réseaux de télécommunication, les serveurs, les algorithmes de traitement et les interface homme/machine variées constituent un système puissant et global dont les capacités s’étendent constamment. Seules les odeurs restent, pour l’instant, à l’écart de cette démarche de transformation de toute chose en données numériques.

Ces données élémentaires servent à construire des modèles qui restituent aux acteurs, quels que soient leur rôle, une image de l’environnement qui les entoure pour le mettre en mesure de le comprendre et prendre de meilleures décisions que celles induites par l’expérience, la culture, l’instinct ou le réflexe. Le stand de Dassault Systems illustre parfaitement cette aptitude nouvelle que nous avons à modéliser tout phénomène et toute structure complexe pour comprendre et agir, que ce soit le cœur humain ou la ville de Singapour.

Ce processus de rationalisation a plusieurs conséquences directes. Il permet de mieux analyser les interactions qui régissent les phénomènes complexes et donc d’être en situation d’anticiper pour être plus efficient. Il offre aussi la possibilité de confier la responsabilité de prendre certaines décisions à des programmes informatiques pilotant directement des automates, robots et actionneurs divers pour libérer l’homme de tâches répétitives et sans valeur ajoutée. Mais aussi, progressivement, la connaissance approfondie que les programmes tireront des données qu’ils accumulent et analysent leur permettra de prendre des décisions dans des domaines plus complexes sans que l’intervention humaine ne soit plus nécessaire.

Parmi les évolutions les plus spectaculaires visibles au CES 2018,  les avancées du véhicule autonome  confirment la capacité de plus en plus complète de confier au seul véhicule le processus de conduite. Certes, il y a encore beaucoup de travail pour doter un véhicule de tous les composants - capteurs, logiciels, moyens de communication - capables en toutes circonstances de pleinement se substituer à ce que l’homme est capable de faire. Mais, de façon méthodique, on repousse sans cesse les limites des capacités d’autonomie des machines et on estime qu’il faudra moins de dix ans pour lancer dans le trafic des véhicules véritablement autonomes, c’est dire de niveau 5, sans intervention humaine. Les problèmes se situent d’ailleurs aujourd’hui d’abord dans la capacité des automobilistes à accepter cette évolution qui les exclut du poste de conduite, en supprimant ce qui a été un des moteurs marketing de cette industrie, le plaisir de conduire. L’acceptabilité est beaucoup plus forte en Chine qu’en Europe ou aux Etats-Unis, pays où la voiture est encore associée à une forte aspiration de liberté. Il faut aussi résoudre de problème complexe de l’organisation de la responsabilité. Il est impératif de codifier de façon précise, à travers des scénarios de conduite, ce que tout conducteur est en mesure de faire instinctivement, et la tâche se révèle fort complexe.

L’exemple de l’automobile et de la mobilité, ceux de la santé, de la gestion de la ville, du libre choix du mode de vie à travers la consommation et la vie privée ont explorés au cours des conférences. A un modèle libéral fondé sur un équilibre « naturel » entre la capture des informations privées et les bénéfices que les personnes en retirent, s’oppose un modèle européen de réglementation publique qui s’incarne dans le RGPD (Réglement général sur la protection des données) qui va s’appliquer à partir de 2018 en Europe, mais aussi partout où des citoyens européens sont impliqués. La Chine, pressée d’affirmer son leadership technique avec une population avide de technologies nouvelles avance sans inhibition avec ses géants comme Baidu et Ali Baba.

Présentes dans chacune des révolutions techniques antérieures, les interrogations sur la capacité de l’homme à maîtriser cette création prennent désormais une dimension particulière. Il ne s’agit plus de se doter d’une prothèse musculaire, mais d’entrer dans le domaine dont l’homme conservait l’exclusivité, la réflexion et la décision. Le passage de l’ère de la main-d’œuvre à celle du cerveau-d’œuvre qui ouvre des potentiels considérables à la capacité d’action de l’homme sur son avenir ne peut pas laisser indifférent tant les risques de manipulation de la conscience et de contrôle des choix sont réels.

Pour les entreprises et organisations publiques, les conséquences sont capitales.

Le CES n’a fait que renforcer les convictions acquises par les modèles offerts désormais par les performances techniques des grands acteurs. Il n’y a plus de place pour une informatique émiettée, balkanisée et tout aujourd’hui doit s’orchestrer autour d’une vision homogène, une infrastructure unique, souple et capacitaire, un traitement des données performant et une capacité à distribuer l’information à tous les acteurs en temps réel et de façon contextuelle dans le format requis pour la meilleure prise de décision. Mais plus encore, la réflexion doit porter sur le sens du traitement de l’information au service des entreprises et des communautés. Quel impact sur les libertés publiques, quel impact sur la liberté de choix et de conscience, entre personnalisation qui isole, recommandation qui limite, organisation de la cité qui anonymise et contrôle ? Le débat qui a eu lieu dans chaque conférence au CES est un bon signal de cette prise de conscience. Mais on sent bien que le cœur de la société de la donnée mérite encore beaucoup d’attention, individuelle et collective, dans les entreprises et les Etats, mais aussi au plan international. Les bénéfices de cette transformation sont immenses et il serait absurde de s’en priver. Nous ne pouvons prendre ce risque face aux défis de notre planète. Les compromettre par un manque de discernement, de pédagogie et de lucidité serait encore plus nocif.


De la complexité, de l'échec et de la SNCF

Nous sommes dans un monde physique. Avec ses lois, ses contraintes, la masse, le temps, l'énergie, l'espace.  Tout s'y mesure. Mais nous avons inventé son double numérique. Et nous voulons que le jumeau physique du jumeau numérique se comporte sans défaut, sans délai. Nous mesurons chaque jour  que c'est une tâche immense, peut-être impossible.  Nous voulons que dans le monde physique tout fonctionne sans défaut, sans neige glissante les samedis de transhumance d'hiver, sans rats qui s'attaquent aux gaines des câbles électriques, sans gel qui fait éclater les canalisations, sans rivières qui débordent, gorgées  de pluie et entrainent des glissements de terrain. Nous sommes en colère parce que nous constatons que l'espérance de vie de la civilisation c'est en gros 24 h, la durée d'autonomie des batteries de nos téléphones portables. A Saint-Martin, un tempête nous a montré l'extrême vulnérabilité de la dimension physique du vaisseau spatial Terre. Et nous protestons contre cette terrible injustice, être menacés dans notre confort, dans notre survie même par le vent et l'eau.

Notre tentative rassurante de tout rationaliser, modéliser, construire de façon idéale se heurte aux adhérences de notre système industriel qui souffre d'être né il y a si longtemps que même le smartphone n'existait pas. Elle se heurte aux faiblesses de nos organisations, ballotée par les politiques, les dirigeants, les changements intempestifs de direction, les hésitations qui ont fait, par exemple, séparer la SNCF de son réseau physique pour ouvrir en 1997 la voie, au sens propre, de la concurrence. Et puis on s'est dit quand même que c'était pas si simple et on a refermé en 2015 cette parenthèse en réinventant un nouveau système artificiellement séparé en deux, le réseau physique et la circulation des trains, mais au sein d'une même entité juridique. Et tout ceci prend du temps, de l'argent, de l'attention. Pendant ce temps là, le temps poursuit son oeuvre corrosive. Et il faut réparer à marche forcée en faisant pression sur les hommes et les éléments, et les ressources... 

La SNCF c'est un réseau de 30000 km de rails, d'appareils de voie, d'outils de signalisation, de ballast et de caténaires. Du solide qui parfois casse. Défaut d'entretien dit-on. La réalité est complexe, l'homme démiurge veut la soumettre à son désir d'absolu. Le réseau, tout réseau, ce n'est pas une abstraction sur un bel écran. C'est vieux, compliqué, soumis à l'usure, au temps. L'aventure du rail a commencé en 1832 en France. Elle est essentielle pour nos territoire et notre prospérité. L'efficience du réseau, et sa sécurité sont des composants indissociables de notre vécu collectif. S'il est insupportable de laisser en rade les voyageurs du week-end, ce serait pire encore de prendre le risque d'un accident. 

Les pannes à la SNCF illustrent ce terrible conflit entre notre désir d'idéal épuré d'un monde lisse et sans incident et la réalité des cicatrices que le temps et la fatigue impriment sur les choses. Cette crise doit nous mettre en garde. Il y en aura d'autres. Tous les secteurs sont fragilisés par l'accroissement des attentes, l'impatience du résultat parfait dont nous sommes chacun porteurs. Aux effet plus graves, peut-être. Il est notre devoir de travailler pour éviter que cela survienne. Mais aussi de nous préparer à en minimiser l'impact. Il faut investir avec clairvoyance, renforcer les compétences, développer l'ingénierie car faire rouler des trains, mais aussi produire de l'électricté, des voitures , des soins, ce n'est pas du marketing, mais cela met en oeuvre une alliance subtile entre l'intelligence et la matière. Et dans la méthode il faut surtout  ne pas blâmer tous ceux qui font leur travail quotidien avec professionnalisme. Plutôt que des coupables, il faut chercher les causes et les remèdes. 

http://bfmbusiness.bfmtv.com/mediaplayer/video/sncf-a-quand-un-service-de-qualite-0412-1010179.html

Capture d’écran 2017-12-05 à 22.36.19

 


Le marché automobile évolue-t-il : le test des nouveautés 2017 ?

Il y a le discours officiel des constructeurs, la volonté des pouvoirs publics… et la réalité du terrain. Dans la presse économique, il n’est plus possible d’aborder la question du futur de l’automobile sans que soient détaillées les menaces qui pèsent sur ce produit emblématique du XXe siècle. Elles sont majeures. Car elles impliquent à court terme la réduction de l’espace qui lui sera consacré et le durcissement des conditions d’usage, surtout en ville. Plus radicalement, l’interdiction future des voitures à « gaz de pétrole » est inscrite dans la plupart des agendas politiques.

Pour autant, est-ce que ces nuages noirs influent sur l’offre disponible en concession, est-ce que le marché amorce une évolution sensible préparant ces échéances futures ? Qu’en pense la presse automobile, acteur majeur de l’opinion sur l’automobile ?

Ce passage de la vision stratégique à la réalité opérationnelle est au cœur de toute grande transformation. Comment mesurer cela ? Toute méthode ayant ses imperfections, il m’est difficile de prétendre que celle que j’ai choisie est la meilleure. J’ai simplement choisi un numéro d’un magazine[1] représentatif de la presse automobile, présentant un dossier « exceptionnel » sur 100 nouveautés à l’essai.

La lecture détaillée des fiches consacrées à ces essais et le traitement simple des données livre un panorama de l’offre de véhicules nouveaux de cette fin d’année 2017. Ce qui est intéressant c’est que les échéances dont parlent les maires des grandes villes et les ministres en charge de l’environnement dans les grands pays sont désormais inférieures à l’espérance de vie des modèles neufs qui seront vendus en 2018. Quand on évoque une interdiction en 2040, cela parait très loin. La réalité est qu’une bonne moitié des voitures en circulation sur la planète rouleront encore dans quinze ans. On a de sérieuses chances de retrouver encore en pleine forme sur les routes en 2032 les modèles illustrés dans ce panel de fin 2017. En effet, les voitures actuelles sont mieux conçues, mieux construites, sont plus fiables et roulent moins.

1920px-FoS20162016_0624_132444AA_(27785299372)

L'extravagante Bugatti Chiron peut-elle encore faire rêver ?

Cet inventaire des nouveautés met aussi en évidence ce que les rédacteurs de ce journal ont envie de mettre en avant dans leur propre vision du monde automobile comme ce que les lecteurs ont envie de lire. Il est évident que les 1500 chevaux et 420 km/h de la Bugatti Chiron ont peu de chances de peser sur l’atteinte des objectifs de la COP 21. Néanmoins, le fait qu’elle puisse exister et que l’on fasse rêver avec ce type de véhicule est signifiant.

Livrons-nous à un décryptage de ce dossier.

Sur les 100 véhicules choisis par la rédaction, 53 affichent une puissance égale ou supérieure à 150 cv. Mais pour donner encore plus de place à la frugalité, 26 dépassent 250 cv. Cette hyper représentation d’une catégorie de véhicules qui représente quelques pourcents du marché traduit un attachement de la presse automobile à la voiture puissante et statutaire dont la performance reste théorique car personne ne peut utiliser ces chevaux sur la route. Elle démontre aussi que les constructeurs restent attachés pour des raisons de prestige à la conception de véhicules hors normes qui leur assure auprès d’un public traditionnel une image forte et, quand ils vendent ces véhicules, ce qui est marginal, de robustes marges. Le marché français est en effet beaucoup moins centré sur la gamme supérieure que la moyenne européenne : 7% contre 13% en Union Européenne. A l’inverse la gamme économique et inférieure représente 52% des ventes, contre 41% en Union Européenne, la gamme moyenne supérieure étant à 13% contre 18% pour la moyenne européenne. De fait la puissance moyenen des véhicules neufs vendus en France ets de 86 kW contre 95 en UE,  108 en Allemagne, 122 en Suisse et 102 en Grande-Bratagne.

Dns ce panel de cent véhicules figurent toutefois six voitures électriques et dix hybrides dont  4 rechargeables, de même qu’un véhicule au GPL.

Les véhicules diesel sont désormais minoritaires : 36 contre 44 modèles essence et 10 hybrides essence.  Toutefois ce sont des véhicules puissants puisque les petites cylindrées ne sont plus équipées de motorisation diesel en raison du coût et de la complexité du dispositif de traitement Euro 6. Ce panel amplifie la baisse réelle de part de marché des véhicules diesel observée en 2017 par rapport à 2016. Le diesel représente désormais, avec 47,6% des immatriculations des voitures particulières, moins de la moitié des ventes. Cette baisse est rapide.

Sur le plan des performances affichées, la vitesse reste le critère de sélectivité le plus courant. La vitesse de pointe annoncée – hors voitures à haute performance – s’établit en moyenne à 184 km/h sur ce panel. 40 voitures affichent même une vitesse de pointe supérieure à 200 km/h. La consommation moyenne annoncée est de 6,8 l/100 et 22 modèles affichent plus de 8 l/100. La sobriété et la discrétion ne sont pas les critères privilégiés, même pour les hybrides rechargeables souvent surpuissantes.

Il faut aussi noter que le poids des véhicules essayés est rarement en baisse et dépasse allégrement 1500 kg. La consommation et les émissions en pâtissent naturellement, mais n’apparaissent pas dans l’article comme une préoccupation. Au contraire, le poids est mis en avant comme argument pour critiquer le manque de puissance des moteurs.

Certes ce panel hétéroclite est arbitraire, mais résulte néanmoins de choix conscients. Il renvoie, dans un magazine de grande diffusion, à une image traditionnelle de l’automobile qui laisse une part essentielle à la puissance, à la vitesse et au statut. Mais l’émergence des véhicules hybrides et électriques traduit une inflexion significative. Absents il y 5 ans, ils sont l’avant-garde d’une mutation automobile qui s’installe sans hâte mais devrait connaitre d’ici 2020 une accélération majeure annoncée par les plans produit des constructeurs.  En 2016 en France les véhicules électriques ont représenté 1,1% du marché et les hybrides 2,9%, soit au total 80000 unités.

Iu-2Automatique, électrique, la navette Transdev

A l’heure de la COP 23, comme du Smart City Expo World Congress, qui s’est tenu mi-novembre à Barcelone, où l’on prépare un monde sans carbone, on peut déduire de cette analyse que les vieilles recettes ont la vie dure car la résistance du moteur à essence et des « belles mécaniques » est vive, même si une autre histoire commence timidement à s’écrire.

 

[1] N° du 3 novembre 2017 d’Auto Plus