L'Alliance, un nouveau départ

https://bfmbusiness.bfmtv.com/entreprises/renault-nissan-l-alliance-avait-besoin-d-un-second-souffle-1651394.html

Capture d’écran 2019-03-14 à 16.39.15

1999

Compte tenu de mon passé chez Renault, j'ai été très sollicité par la presse, depuis l'arrestation spectaculaire de Carlos Ghosn  en novembre 2018, pour m'exprimer sur ce qu'il est convenu d'appeler l'affaire Ghosn. J'ai constamment rappelé que si les hommes ne sont jamais des héros indispensables dans les entreprises, il faut toujours regarder les réalités industrielles. Or il s'est produit en vingt ans un fait exceptionnel : un petit constructeur européen, Renault, a réussi grâce à la vision de son président, Louis Schweitzer, à créer une structure improbable, l'Alliance, devenue le premier constructeur automobile mondial de VP/VU en volume. Pendant ces mois de doute, j'ai tenu dans ces nombreuses déclarations publiques une ligne unique : Ghosn n'est pas l'Alliance, qui s'appuie non pas sur un homme seul mais sur les talents de 480 000 collaborateurs partout dans le monde. Seule la réalité de la mutualisation des compétences, fondée sur le respect mutuel, peut consolider l'Alliance et en faire un véritable groupe industriel robuste.
 
J'ai pu constater et exprimer sur BFM Business, en direct, le 12 mars, ma satisfaction voir qu'un dirigeant humble et à l'écoute, Jean-Dominique Sénard,  nommé le 24 janvier, avait réussi en quelques semaines à construire les équilibres nécessaires alors que les commentateurs spéculaient sur un effondrement, absurde, de l'Alliance.
 
Capture d’écran 2019-03-14 à 16.41.06

L'énergie (seule) question d'avenir ?

S’il est un grand débat essentiel, c’est bien celui de l’énergie… Depuis la maîtrise du feu il y a 400 000 ans, l’homme n’a dû son salut qu’à la maîtrise de l’énergie. Cette quête continue est à l’origine de beaucoup de tensions, de conflits, de drames. Tchernobyl et Fukushima ne doivent pas faire oublier Courrières. Si appuyer machinalement sur un interrupteur pour obtenir sans effort de la lumière ou de la chaleur apparait tellement évident à l’homme moderne, cette banalité est bien récente et est encore ignorée par plus de 600 millions de terriens. S’il est une injustice fondamentale, c’est bien celle-ci !

IMG_4642

Le propre du progrès est de devenir tellement installé dans notre vie quotidienne que personne ne se préoccupe plus de ses bénéfices. Mais  il suffit d’un banal incident climatique, une tempête  ou une chute de neige, pour que la vérité éclate : sans électricité, Homo Sapiens 2019 est aussi nu que ses lointains prédécesseurs. C’est dire que cette vulnérabilité extrême de notre civilisation à la disposition abondante, facile et économique d’énergie, est une caractéristique de notre époque, aussi cruciale que silencieuse.

 

C’est pourquoi le plus grand des débats aurait dû être celui sur la loi de programmation pluriannuelle de l’énergie, la PPE. Or si le débat public a bien été organisé entre mars et juin 2018  et a donné lieu à la publication d’un rapport en septembre 2018 et d’un compte-rendu d’une extrême richesse, les conclusions présentées par la Président de la république le 27 novembre 2018 ont été atténuées par l’irruption des Gilets Jaunes dans le débat sur la transition énergétique. Or la politique de l’énergie, par son caractère transversal, est la matrice dans laquelle vont se fondre toutes les politiques sectorielles et notamment les politiques sociales. Le coût de l’énergie est en effet un des paramètres clefs du pouvoir d’achat. La politique de l’énergie est donc, par nature, essentielle et doit continuer à faire l’objet d’une ample réflexion, d’autant plus que les décisions sur la continuation du programme nucléaire français ont été repoussées à 2021. Or notre relation passionnelle au nucléaire exige une véritable mobilisation de tous les acteurs pour faire émerger un consensus aussi lucide qu’acceptable.

 

Aussi, c’est tout le mérite de la Fondapol d’avoir réuni le  6 février une série d’experts pour réfléchir  sur le retour de « la fée électricité » et de publier simultanément cinq  nouveaux documents sur l’énergie électrique pour animer le débat public.  Sous le titre « Impératif climatique : le retour de la fée électricité »,Fondapol offre à cinq experts l’opportunité de faire un point complet sur notre relation contemporaine à l’électricité.

 

« Une civilisation électrique », d’Alain Beltran et Patrice Carré, nous rappelle que pendant des siècles l’homme était un piéton vivant une grande partie du temps dans l’obscurité. Or l’électricité est lumière, chaleur, mouvement. Entre 1880 et 1970, l’électricité a incarné cette modernité qui a profondément transformé la société française, englobant villes et campagne dans un espace uni par un accès égalitaire à l’électricité en tous points du territoire.  Elle apporte le confort domestique dans les années cinquante par l’électro-ménager qui révolutionne la vie quotidienne. Le XXIe siècle redécouvre l’électricité grâce au numérique, à l’image, aux medias, et au début d’une mobilité électrique individuelle.

 

Dans « vers une société post-carbone »,  Patrice Geoffron rappelle les ambitions de l’Accord de Paris de 2015. La COP 21 engage les Etats vers une convergence des efforts pour limiter à 2° l’augmentation de la température du globe d’ici 2050 avec une réduction par trois des émissions  de CO2. Loin de résoudre toutes les questions posées lors de la COP 21, cet Accord induit une dynamique qui doit être régénérée chaque année, tant les enjeux économiques et sociaux sont tendus. La complexité de la mise en œuvre des politiques de décarbonation implique des ruptures techniques dans la production d’énergie bas carbone comme des profonds changements comportementaux. Il faut apprendre les vertus du « négawatt », car consommer moins est plus accessible que produire mieux..

 

Dans « Energie-climat en Europe : pour une excellence écologique », Emmanuel Tuchscherer pointe la responsabilité particulière de l’Europe dont est partie la révolution industrielle carbonée dans la transition énergétique.  Les trois « D » qui composent la politique de transition énergétique sont  ceux de décarbonation, décentralisation et digitalisation  des systèmes énergétiques. La sobriété énergétique est le mantra de la stratégie climatique de la Commission européenne. Elle s’accompagne d’une vigoureuse stratégie d’innovation qui doit redonner à l’industrie européenne une motricité mondiale dans la maîtrise des défis techniques , que ce soit dans la production d’énergie bas carbone, où le gaz aura également une place, que dans les usages innovants du bâtiment et de la mobilité.

 

Se pose enfin la question crucial du coût ! Jacques Percebois explique dans « Prix de l’électricité : entre marché, régulation et subvention » que si l’électricité n’est pas un produit comme les autres, la pratique de «l’optimum tarifaire» a permis à l’entreprise monopolistique EDF de remplir son contrat entre 1946 et 1996 en garantissant continuité de service, égalité de traitement des usagers et maintien de coûts compétitifs. L’introduction de la concurrence dans le cadre européen, a conduit à la mise en place, à travers les trois « paquets énergie », d’un système qui tempère la concurrence par le concept d’infrastructure essentielle qui garantit aux acteurs un accès équitable aux ressources et régule le transport et la distribution. Mais outre cette complexité économique, c’est sur le plan technique que les marchés ont rencontré une nouvelle difficultés avec l’introduction massive des énergies renouvelables, solaires et éoliennes, dont la disponibilité n’est pas garantie. Pour favoriser ces nouvelles filières, une obligation d’achat a été introduite à un prix garanti fixé par l’Etat.


Le blog, outil du XXe siècle ?

Je reste fidèle à ce blog que j'ai crée en octobre 2005. Pour le plus jeunes lecteurs , l'iPhone n'existait pas, le web faisait encore débat dans les entreprises, et le sujet majeur était la puissance du PC et des ordinateurs centraux... Se lancer dans un  blog, alors que l'écriture oblige, était perçu comme audacieux. Car c'est un vrai travail d'écriture, pas l'expression hâtive d'une pensée explosive... En un peu plus d'une décennie, le monde  vraiment changé et la relecture des 331 notes, soit un peu plus de 3 millions de caractères , qui composent ce blog permet de comprendre ce qui s'est passé... Enfin, d'aborder le début du commencement de la compréhension car tant de facteurs s'entremêlent pour constituer la trame organisationnelle, sociale, technique, comportementale du fonctionnement de la société... En  14 ans la Chine est passée du stade d'usine du monde, avec une réputation moyenne, à celui d'outsider crédible dans le leadership scientifique et technique. L'Europe s'enfonce dans un déclin annoncé et les Etats-Unis ne valent guère mieux, malgré la protection que leur procurent leur puissance militaire et leur unité continentale. Si les réseaux sociaux permettent une réaction instantanée, le blog est un outil d'approfondissement qui répond aux questions de fond que Facebook soulève... Je resterai donc fidèle au blog et je remercie les milliers de lecteurs qui ont participé à son succès : le seuil des 250 000 pages vues a été franchi début janvier, le rythme de 50 pages vues par jour se maintient... 51,36 pages vues chaque jour en 14 ans, c'est une prouesse. Merci à tous ceux qui le rendent possible !

POur mémoire, les innovations de 2005 vues par CNN

  1. The Internet
    2. Cell phone
    3. Personal computers
    4. Fiber optics
    5. E-mail
    6. Commercialized GPS
    7. Portable computers
    8. Memory storage discs
    9. Consumer level digital camera
    10. Radio frequency ID tags
    11. MEMS
    12. DNA fingerprinting
    13. Air bags
    14. ATM
    15. Advanced batteries
    16. Hybrid car
    17. OLEDs
    18. Display panels
    19. HDTV
    20. Space shuttle
    21. Nanotechnology
    22. Flash memory
    23. Voice mail
    24. Modern hearing aids
    25. Short Range, High Frequency Radio

 


Où vont les technologies de l'information ? Le CES 2019 confirme les tendances...

Les grands enseignements du CES 2019

 

Capture d’écran 2019-02-05 à 17.11.11

Image d'un temps révolu sur le stand RCA

Le CES a toujours été, depuis sa création à New York en 1967, un marché où se pressent les acheteurs du monde entier pour y dénicher des nouveautés. Mais il est devenu aujourd’hui, en abandonnant le terme « consumer » en 2017, le lieu de convergence de tous les acteurs de la société numérique, c’est à dire de toute l’économie… Mais chaque nouveau CES, qui bénéficie avec 6500 journalistes d’une couverture presse mondiale sans égale, soulève immanquablement la question : quelles sont les nouveautés de cette année ? Les CES Awards incitent à distinguer dans cette masse de produits ceux qui marquent un véritable gain pour les consommateurs et pour la société.  Toutefois, douze ans après l’irruption du smartphone, il est devenu évident qu’une innovation isolée ne peut plus, à elle seule, changer le paysage technologique. Il faut désormais ne plus se contenter d’une vision pointilliste de l’innovation, mais analyser l’évolution systémique de la transformation numérique et mesurer sa vitesse de pénétration dans chacun des grands secteurs de la société, comme dans chaque plaque régionale mondiale.

Le virage pris par la CES depuis quelques années se confirme largement en 2019. Il s’agit de présenter la transformation numérique par grands secteurs d’activité, cette mutation étant rendue possible par la consolidation d’un socle technologique transversal et cohérent sur lequel s’appuient toutes les transformations sectorielles. Les conférences y jouent un rôle de plus en plus important. 1100 intervenants y ont échangé leurs points de vue cette année au cours des sessions regroupées en 21 thèmes, ainsi que lors des fameux « corporate keynotes ».

Il faut aussi noter en 2019 la confirmation, dans ce haut lieu de la technologie tout puissante, d’une interrogation inquiète sur les limites d’une approche purement technologique.  Dans un contexte sociétal qui remet en cause la marche en avant forcée vers une technologie et des acteurs tous puissants, ce questionnement a pris en 2019 une place majeure.

 

La transformations de la production et des services

 La palette de sujets proposés en 2019 par la CES est large. Elle affiche cette nouvelle réalité : tout objet est désormais connectable en réseau et devient de fait un composant d’un système qui collecte et distribue de l’information. Le comportement de chacun des composants du système s’intègre dans une vision globale où les données unitaires en s’agrégeant en informations primaires devient signifiantes Cette capacité de connectivité ouvre des perspectives nouvelles à tous les opérateurs de systèmes complexes.

Les premiers impliqués sont les industriels qui connectant chaque machine et chaque produit à une chaîne de valeur globale construisent le « manufacturing 4.0 » dont les acteurs comme Bosch ou Dassault Systèmes illustrent les capacités. La mobilité n’est plus traitée à travers chacun de ses composants unitaires, voiture, bus, tram ou train, mais comme un système globale optimisé. La maison, longtemps absente de l’automatisation, devient elle-même un système où énergie, chauffage, climatisation, images, sons, sécurité et services sont interdépendants et monitorés globalement par les occupants. De fait chaque composant devient « smart » et l’imagination des fournisseurs de technologie devient sans limite puisque le hardware peut désormais être mis en valeur par des logiciels traitant ces volumes considérables de données. Ceci reste toutefois un potentiel encore largement sous-exploité, la présidente d’IBM considérant que seules 1% des données produites sont effectivement exploitées.

 

  • La mobilité

La force d’attraction du CES est telle que le Salon automobile de Detroit, évènement emblématique de l’industrie automobile mondiale traditionnellement situé en janvier, est forcé de migrer au milieu de l’été, dès juin 2020… Car le CES attirant les marques les plus prestigieuses était devenu le salon de l’innovation automobile, renforçant d’année en année son attractivité. Les dirigeants de l’industrie, comme Ford, General Motors, Daimler, Nissan sont venus chaque année animer des key notes.Cette année, le North Hall brillait de tous ses feux pour exposer la vision futuriste des marques établies comme  Daimler, Hyundai, Toyota comme des nouveaux venus comme le chinois Byton.

Mais au-delà de ces exercices de style flatteurs, la question centrale qui est posée à travers les conférences comme dans les stands est la contribution opérationnelle des technologies de l’information à la résolution des problèmes structurels de mobilité dans une planète où plus de 50% de la population habite dans les villes. La reconquête de la ville ne peut se faire que par une série de mesures visant à la fois à la qualité des constructions, la fluidification des circulations et de la logistique et au développement harmonieux des activités.  De la cartographie en 3D, présentée par Here, à la gestion en temps réel des flux, comme le font Alibaba ou Baidu, les solutions empruntent toutes la puissance de la technologique pour construire un jumeau numérique de la ville et modéliser les flux. Encore utopique au début de la décennie, ces travaux entrent dans une phase concrète, notamment en Chine, et permettent la construction progressive de la « cité intelligente », du BIM pour chaque composant unitaire des bâtiments à la modélisation globale telle que le propose Dassault Systems.

La transformation de l'automobile est en cours. Elle ne touche pas seulement l'évolution du mode d'énergie de propulsion - du moteur à combustion interne vers l'électromobilité -, mais surtout le modèle d'usage. Le mouvement se fait du "vehicule as a service" vers "mobility as a service" comme le CES 2019 l'a mis en perspective. Bien sûr c'est une mutation qui touche d'abord les centres urbains denses où les systèmes de transport à grande capacité sont complétés par la mobilité douce du dernier kilomètre et par une multitude d'offres. La possession d'un véhicule en pleine propriété non seulement n'est plus indispensable fonctionnellement, mais elle se heurte à un coût de possession de plus en plus élevé qui est le premier facteur de dissuasion. Il n'en est pas de même pour les zones de faible densité où la possession d'un véhicule individuel reste la seule solution pratique. Une offre est en train d'émerger, avec le covoiturage, le taxi collectif, les navettes de petite capacité, le transport à la demande. L'électromobilité y est une solution attractive car en habitat individuel, il est très facile de charger un véhicule électrique. Ces mutations sont accélérées par le recours systématique à l'information de géolocalisation qui offre une grande sécurité dans l'utiilisation de moyens alternatifs de transport et dans la possibilité de gérer à distance les flottes de véhicules partagés. Plus que la solution coûteuse et lointaine de la voiture autonome, c'est une palette riche de réponses immédiates portant sur les services et l'adaptation des véhicules, électriques, connectés, plus petits et moins chers, qui feront de "la mobilité comme service" une réalité accessible à tous.

Navya, le constructeur lyonnais, avec ses deux véhicules autonomes, et Keolis étaient présents au CES 2018, pas en 2019, mais il faut souligner que Navya est en cours d'expérimentations dans de nombreux pays.

 

  • La santé

La santé reste le secteur le plus prometteur pour une utilisation intensive de tous les outils numériques, du diagnostic au traitement, de la gestion du bien-être personnel aux protocoles médicaux. La santé connectée n’est que la mise en œuvre à grande échelle de la capacité des outils à collecter avec des capteurs peu coûteux l’information de base, à la traiter avec des logiciels appropriés, qui font appel aux traitement statistique de masse, et recourent, pour partie à l’intelligence artificielle, et à organiser le processus de traitement dans le système hospitalier ou en médecine ambulatoire. Le maintien à domicile des personnes âgées est aussi un objectif majeur de la santé connectée et les solutions sont nombreuses, comme celles proposées par La Poste. On a vu de multiples exemples tant dans la présentation Qualcomm sur la salle d’opération où chaque appareil est connecté en 5G en temps réel grâce à la très faible latence de cette technologie à la gestion d’électrocardiogrammes avec une montre connectée, proposition de Withings qui de retour sous la responsabilité d’Eric Carrel affiche son intention de devenir un acteur de la santé connectée en embauchant notamment de médecins et en durcissant ses protocoles. Son tensiomètre connecté avec stéthoscope est une innovation marquante de ce CES.

 

  • La maison connectée

Chaque année, les solutions domotiques abondent au CES, mais le marché est resté longtemps limité par la complexité de systèmes, le caractère propriétaire des protocoles, et le manque de personnel d’installation et de maintenance. Cette période parait désormais oubliée par la généralisation du BIM qui intègre la connectivité dès la conception des bâtiments et les promoteurs, résidentiels comme domiciliaires, en font désormais un argument commercial. De plus, l’offre gagne en maturité. Le rapprochement de Netatmo et de Legrand marque ainsi un changement significatif, comme l’intégration dans Somfy de MyFox. Ces nouveaux ensembles sont en mesure de proposer une solution globale, ouverte également aux autres acteurs industriels. LG et Samsung, intègrent leurs appareils dans ces nouveaux réseaux domestiques.

 

Le socle technique

 

Si 2018 a été l’année de l’annonce imminente de la concrétisation des promesses de la 5G, 2019 est celle du déploiement. Les industriels entrent désormais dans le concret. Samsung présente la chaine complète des équipements, jusqu’au terminal utilisateur. Qualcomm y consacre l’intégralité de sa key noteen détaillant de manière pédagogique tous les bénéfices de cette technique. Chaque stand apporte sa touche 5G.

 

Derrière cette forte présence de la 5G comme solution universelle, il y a en effet des réalités industrielles qui s’annoncent prometteuses.

Il en est de même pour l’intelligence artificielle, omniprésente sur tous les stands et dans toutes les conférences. Il y a même désormais un cycle de conférences, devenues payantes, les conférences consacrées à l’intelligence artificielle marquant l’intérêt des professionnels pour une participation à Las Vegas sur cette question désormais incontournable.  Le terme AI-poweredest omniprésent même si la réalité technique sous-jacente est souvent très inférieure à l’ambition affichée. Car l’intelligence artificielle est un domaine complexe dont les conférences ont bien mis en évidence les limites et les difficultés, au-delà de l’enthousiasme porté par cette technique qui paraît la seule en mesure de traiter les zettaoctets  de données générées par l’économie mondiale.

La reconnaissance vocale est marquée par le triomphe d’Alexa et la bataille de Google pour reprendre le leadership à travers une présence aussi ludique que bruyante. Cortana, de Microsoft, s’est ralliée à Alexa. Dans la bataille, Amazon recueille 61% du marché américain des enceintes connectées, contre 34% pour Google. Selon IDC, Alexa peut se connecter à 20000 appareils contre 6000 pour Google. L’enjeu est majeur : 29% des Américains parlent à une enceinte de reconnaissance vocale, 34% des millénials. Si la généralisation de la commande vocale suscite parfois du scepticisme sur les risques de cacophonie et de pertinence de l’usage, elle rencontre un intérêt réel dans des cas d’usage professionnel. Il en est de même pour la réalité virtuelle, toujours présente dans sa dimension ludique qui risque de rendre les parcs d’attractions obsolètes, mais qui trouve aussi dans le monde professionnel de véritables cas d’usage pratiques.

L’image conforme son omniprésence. Si les écrans 4K OLED étaient les vedettes de 2018, la 8K, avec ses 33 millions de pixels, a fait son entrée en force dans tous les stands en 2019 avec des démonstrations spectaculaires chez les leaders que sont LG et Samsung. Les écrans sont de plus en larges, dépassent couramment 50 pouces, et pour se faire oublier se replient comme chez LG. Mais il n’y a pas de contenu 8 K  pour servir utilement cette prouesse technique !

Enfin, le CES 2019 a remarqué le fort engagement d’IBM, alors que l’entreprise était très discrète au cours des éditions précédentes. IBM était présent lors du key note inaugural par la voix de sa présidente, Ginni Rometty, et dans un vaste stand qui reprenait les thèmes développés par Rometty, c’est-à-dire l’investissement dans la blockchain, à travers la coopération avec Wal-Mart, l’intelligence artificielle, avec Delta, et l’informatique quantique.

 

POur conclure, le CES reste un temps fort de la compréhension du rythme d'évolution de la société numérique. Aujourd'hui se constitue une plate-forme technique autour des serveurs, des réseaux, des interfaces qui, par leur mise en cohérence, créent une trame technique à partir de laquelle le traitement des données permet de comprendre les phénomènes complexes et d'agir pour améliorer la performance opérationnelle et le service rendu. Il n'y a rien de nouveau dans les idées. Ce qui change, et c'est un énorme changement,  c'est la vitesse et la profondeur d'exécution. Les habitudes et les processus sont bousculés, les compétences aussi. C'est cette capacité à bouger vite qui fera la différence.


Electric Road 2018 à Nantes, entre futurisme et pragmatisme

Chaque utilisateur de moyens de transport, public ou privé, a pu mesurer à quel point l’innovation numérique, concrétisée par le smartphone et la géolocalisation, avait apporté une qualité d’informations permettant de prendre de meilleures décisions de choix de services, d’itinéraires et de coût. En revanche, les objets du transport, voiture, train, avaient peu évolué. C’est dire à quel point la vague d’innovation qui saisit depuis dix ans le monde automobile, après 120 ans de progrès incrémentaux, a été accueillie avec curiosité et intérêt. Elle émanait en effet d’acteurs nouveaux, comme Tesla ou Google, issus du monde des technologies de l’information habitué aux bouleversements. C’est pourquoi, depuis le début de la décennie, la voiture électrique a fait l’objet de beaucoup d’engouement dans le milieu de la mobilité. Entre l’offre des acteurs nouveaux, et la riposte des constructeurs traditionnels, le monde de la mobilité s’est brutalement mis à bouger. Face à l’extrême complexité des problèmes à résoudre, l’innovation automobile de rupture était devenue le symbole attendu par les commentateurs et dirigeants politiques pour reparler d’un futur rêvé en échappant au poids traditionnel des questions quotidiennes de mobilité. La voiture électrique et connectée remplit, dans l’imaginaire collectif, une place privilégiée car elle apparait comme un outil attractif, propre, silencieux, incarnant la modernité. Mais elle se voit d’ailleurs déjà contester ce statut flatteur par la voiture autonome, encore plus complexe, encore plus lointaine, encore plus fantasmée.

Malheureusement, les données de marché ne donnent pas raison à cette vision euphorique. Avec 1% du marché mondial de l’automobile le véhicule électrique n’est pas, à court terme, la solution de masse attendue. La voiture autonome, celle qui se passera vraiment de présence humaine responsable à bord, est pour un futur lointain. Quand la réalité a tort, c’est que le discours est inapproprié. Le discours doit donc muter et se transformer en une analyse multifactorielle de la mobilité afin de permettre l’élaboration de réponses efficientes et pragmatiques. Le véhicule électrique est une des solutions, ni la seule, ni la meilleure sur tous les critères.

Le colloque Electric Road qui s’est tenu à Nantes les 18 et 19 juin a présenté, dans cet esprit d’objectivité systémique, un panorama complet de la situation à travers les tables rondes plénières, les ateliers et les présentations de matériels et de solutions, sans céder ni au rêve ni au pessimisme.

Il y a un consensus clair : il faut se résoudre à considérer que la mobilité est une question concrète et terriblement complexe qui touche chaque jour des milliards d’êtres humains et pour laquelle il n’existe pas de solution miracle. Transporter des humains, des produits ou des informations exige de l’énergie, de la place et du temps. La récente floraison de recherches et d’idées en rupture est utile et permettra de faire émerger des solutions à long terme. A court terme, il faut néanmoins agir. La confusion entre les deux plans temporels peut conduire à de graves contre-sens. La voiture autonome est un bon exemple de machine à fantasmer. L’identifier comme une solution de court terme fait naitre des espoirs vains. Penser que l’on peut réduire rapidement la mortalité automobile mondiale de 90% avec la voiture autonome peut conduire à différer des mesures plus efficaces, mais d’intérêt immédiat, alors même qu’on ne sait rien du calendrier de mise au point et de diffusion de la voiture autonome et encore moins de son impact quantitatif.

Pour sortir de l’optatif, mode du souhait et d’un militantisme clivant, il faut conjuguer l’indicatif présent et le futur immédiat. Les rencontres d’Electric Road ont permis de nourrir le dossier et d’approfondir les questions techniques, économiques, sociétales. Cette abondante matière permet d’aborder avec prudence et réalisme deux champs d’action :

-       Simplifier et faciliter immédiatement les services de mobilité

-       Identifier et tester des solutions nouvelles

  1. Simplifier et faciliter immédiatement les services de mobilité

L’attente du public est de disposer d’un système de mobilité point à point prédictible, fiable, simple, confortable et économique. La responsabilité de l’autorité publique est de fournir une infrastructure et un cadre réglementaire permettant d’atteindre ces objectifs de la façon la plus compatible avec l’intérêt général. La responsabilité de l’offre de solutions est de répondre à ce cahier des charges explicite, mais souvent aussi fantasque. Il n’y a pas de demande technologique propre, c’est un marché « technology push », le seul objectif est l’efficience.  L’utilisateur, instruit par l’expérience, admet qu’il devra transiger sur certains de ses critères pour remplir son objectif de transport.

C’est un modèle d’une complexité infinie car aux demandes individuelles de mobilité l’industrie et les pouvoirs publics répondent par un cadre de solutions qui ont été élaborées au fil du temps et qui n’a pas de souplesse. Les investissements d’infrastructure sont coûteux, complexes à mettre en œuvre pour des raisons d’environnement et de foncier, et lents à déployer. L’offre d’infrastructure est inerte, alors que la demande et variable. L’expérimentation à l’échelle est risquée.

Il fut un temps où deux solutions concurrentes s’offraient au « voyageur » : le transport public ou la voiture individuelle en plein propriété. L’arbitrage était économique. Quand on en avait les moyens, on prenait sa voiture, gage de service de bout en bout et d’autonomie, dans la plupart des cas. Aujourd’hui, le choix est plus vaste et devient contextuel et multi-critères. Cette complexité du choix offre en contrepartie une gamme foisonnante de services différenciés, entre les solutions éprouvées et les solutions expérimentales. Les micro-arbitrages se font sur la base d’informations partielles, où l’appréciation du client se fonde sur  sa perception, personnelle et instantanée, du meilleur rapport coût /valeur. Mais la somme des décisions individuelles ne procure pas un équilibre global optimal. Il suffit de prendre sa voiture le vendredi soir à la sortie des villes pour en faire l’amère expérience. La complexité de la gestion de la mobilité tient à ce choc imprévisible entre des décisions individuelles et un cadre collectif capacitaire et normatif.

On comprend facilement que les arbitrages sont complexes. Comment alors décider lucidement en étant pragmatique et opérationnel pour fournir des solutions de masse sans condamner l’innovation qui ne peut être que partielle ?  Comment, dans cet équilibre délicat, concilier la liberté individuelle et l’efficacité collective ?

C’est là que l’analyse des points de vue de chacun des acteurs illustre la difficulté de mettre en œuvre une politique de mobilité consensuelle. L’usager est court-termiste et veut résoudre au mieux son problème et s’interroge peu sur les conséquences de ses décisions. IL n’a qu’une notion floue de la réalité des coûts. L’organisation régulatrice comme le fournisseur de services s’inscrit dans le moyen et long terme mais ne peut ignorer les soucis du quotidien aux conséquences politiques ravageuses.

Il faut également être capable de s’entendre sur un modèle d’analyse de la performance. Les objectifs sont multiples, coût, temps, contraintes foncières, impact environnemental. Ces objectifs peuvent être contradictoires et la recherche du compromis acrobatique.  Dans une même préoccupation environnementaliste, c’est la lutte contre les émissions de CO2 qui a conduit à privilégier le diesel et c’est la lutte contre les particules et les NOx qui poussent à s’en débarrasser !  De fait, le repli du diesel a pour conséquence d’accroître les émissions de CO2 ! La qualification du véhicule électrique comme « zéro émission », ce qui est vrai au lieu d’usage, néglige le cycle de vie du véhicule et le mix énergétique qui l’alimente en électricité.

Une politique de mobilité doit intégrer la palette des solutions qui résulte de la combinatoire des différents composants de base : marche à pied, deux-roues motorisé ou non, voiture individuelle en pleine propriété, voiture individuelle en usage mutualisé, transport public routier, transport public ferré, et transport aérien. L’approche contemporaine privilégie la logique de parcours à celle de l’outil.

2.Expérimenter et mettre en place de nouvelles solutions techniques

Les solutions sont multiples. Elles concernent aussi bien les véhicules que les réseaux, les modes opératoires que les financements. L’intérêt d’Electric Road est d’avoir embrassé la quasi-totalité des solutions immédiates et des projets futurs.

La vision consensuelle qui se dégage de ces travaux est que la mobilité du futur ne peut être que le résultat d’une collaboration multi-modale et multi-acteurs. La qualité du système de mobilité résulte de la conception et du déploiement coordonnés d’un système unifié de mobilité métropolitaine et inter-métropolitaine, gérant aussi bien les personnes, que les biens et l’information.  L’efficience énergétique est un des objectifs majeurs de ce modèle intégrateur, qui vise, corrélativement, à garantir des objectifs de santé publique. Mais l’objectif économique est aussi majeur : irriguer le territoire de réseaux de transport performant est un élément majeur de l’attractivité économique et donc de l’emploi. La qualité de la gouvernance en est la condition.

Le nombre d’acteurs s’accroit. Ainsi la route et les infrastructures physiques, qui ont pu être négligées dans le passé, apparaissent aujourd’hui clairement comme des éléments majeurs de la performance globale. Avec 1 million km, 20000 km de routes principales et 400000 de routes secondaires, et 30000 gestionnaires de routes le réseau routier français, plus important que ceux de l’Allemagne et de l’Italie réunis, est estimé en valeur de remplacement à 2000 milliards. Le réseau ferré ne comprend que 30000 km de lignes. Les services potentiels apportés par la route moderne, connectée et éventuellement à énergie positive, implique une nouvelle vision de la route, qui n’est plus ouverte, gratuite et généraliste, mais va délivrer des services « RAAS : road as a service ».  Il est clair que les véhicules les plus sophistiqués auront besoin de ces services dont on comprend qu’ils ne peuvent irriguer l’ensemble du territoire.

Le nombre de solutions énergétiques est aussi en pleine expansion. Les énergies fossiles sont encore totalement dominantes. Elles alimentent 94,8% des voitures particulières vendues en France en 2017 et al quasi-totalité des véhicules industriels et de transport collectif. Toutefois, l’électrification du transport, qui a conquis le transport collectif ferré depuis l’abandon de la vapeur dans les années soixante, est en train de gagner le transport routier. L’électrification du parc automobile progresse lentement, mais aux 26000 voitures électriques vendues en France en 2017 il faut ajouter les 81000 hybrides, dont 12000, dites plug-ins, disposent de quelques dizaines de kilomètres d’autonomie en mode électrique pur. Les VEB (véhicules électriques à batteries) ne sont pas la seule solution puisque les véhicules à pile à combustible à hydrogène se profilent comme alternative intéressante tant pour l’autonomie (600 à 700 km) que pour le temps de remplissage (3 minutes).

Les autobus sont en passe d’être également convertis à l’électricité et la décennie 2020 verra le nombre d’autobus électriques dans les villes européennes s’accroître. La Chine en a déjà mis 350000 en circulation. Ils peuvent aussi exploiter les avantages du Biogaz et de l’hydrogène pour lesquelles des solutions sont en cours de déploiement, comme à Pau.

Il faut aussi aborder l’évolution des deux roues motorisées. Si le vélo a retrouvé dans les politiques publiques et les choix individuels une place majeure, l’Europe n’a pas opté massivement comme en Chine pour les deux roues motorisés électriques. Il y a en effet plus de 250 millions de deux roues électriques en Chine. Les avantages sont les mêmes que pour les voitures, absence d’émission et de bruit.

Par ailleurs l’autonomie des batteries est encore limitée, et pour prolonger l’autonomie il faut augmenter le nombre des cellules de batteries, donc le coût et le poids. Les solutions nouvelles sont nombreuses et vont de la multiplication des bornes rapides au développement de la recharge intelligente et de la charge par induction, qui sort du stade du laboratoire pour entrer dans celui de l’expérimentation.

Mais ces innovations, si elles apportent une solution réelle à la pollution urbaine, ne règlent pas le problème crucial de la décarbonation du transport car la qualité de l’électricité qu’elle utilisent dépend du mix énergétique fossile/nucléaire/renouvelable. S’il n’y a pas d’inquiétude majeure sur la capacité de production électrique en France, car un million de véhicules électriques représente une consommation de 2 TWh sur 520 TWh de production, le problème est la simultanéité des charges qui peut surcharger le réseau. Il faut donc développer une approche des réseaux intelligents qui s’inscrit également dans une réflexion sur le stockage de l’énergie électrique.

Pour apporter une réponse à un autre problème crucial de la circulation automobile, la congestion urbaine, il faut également réduire le nombre de véhicules individuels en circulation, soit par les contraintes (péages urbains, interdiction de circulation) soit par les incitations à l’autopartage et à la rationalisation des déplacements.

  IMG_1809

Pour progresser encore dans la lutte contre les émissions carbonées et polluantes, il faut travailler sur toutes les sources de consommation d’énergie, lutter contre le poids et les frottements aérodynamiques, mais aussi, et c’est une source majeure de réduction de consommation et d’encombrement, diminuer les déplacement inutiles. C’est un enjeu particulier de la logistique urbaine, ou le e-commerce tend à multiplier les flux. Là encore, les innovations sont nombreuses pour développer une conteneurisation intelligente des marchandises, mutualiser les flux, gérer des stocks urbains et pour cela exploiter de nouveaux véhicules inventifs et développer des logiciels de tracking de plus en plus fins. La Poste a ainsi présenté un chariot autonome pour la distribution de petits colis et Man annoncé une gamme de camions électriques pour la livraison urbaine.

Electric Road 2018 a permis d’échanger et d’approfondir ces questions dans un cadre apaisé de spécialistes. Mais la conséquence de ces analyses est aussi simple que pratique : la voiture individuelle, fusse-t-elle électrique, n’offre qu’une réponse partielle à la mobilité, le transport collectif est adapté au transit de masse et ne peut couvrir tous les territoires, les innovations ne répondent que très partiellement aux problèmes de masse et de consommation énergétique. Il faut donc largement partager ces réflexions pour qu’elles sortent du cadre limité des experts pour devenir un sujet majeur de culture collective et de démocratie participative. Car s’il n’y a pas de solution technique universelle, il faut développer une prise de conscience individuelle, documentée et lucide, qui permette de faire progresser les meilleures pratiques et de créer un consensus acceptable tout en continuant à travailler d’arrache-pied sur les innovations.


La tectonique des plaques informatiques

L’informatique est en grande mutation, nous dit-on chaque jour. Nous sommes entrés dans le monde digital. Certes, si l’on mesure la puissance des objets que nous avons dans notre poche, la rupture avec le passé proche est radicale. Mais qui n’a pas été étonné de la persistance d’applications anciennes supportant des processus qui paraissent aujourd’hui archaïques. La liste est longue : demander une copie « originale » d’un document, écrire à la main « lu et approuvé », exiger, alors qu’on s’est entendu par courriel, un « courrier » de confirmation, attendre derrière un guichet pour reprendre des informations déjà partagées par le web… Qui n’a pas entendu une personne courroucée derrière son bureau pester contre la lenteur de son ordinateur et s’en prendre à un maléfique « réseau » ? Autant de petites choses du quotidien qui trahissent la rémanence de fonctionnements anciens, vestiges tenaces du monde ancien du papier, d’inadéquations persistantes entre le monde léger et instantané du « zéro délai, zéro défaut », que nous exigeons, et la réalité glaiseuse de la routine.

Une des causes de ces agacements réside dans la vétusté des systèmes informatiques, et donc des processus qu’ils supportent, face au sentiment de facilité, de légèreté et d’ergonomie qu’apportent les solutions issues du web.

Essayons de comprendre cette coexistence entre des applications modernes hautement pratiques et fonctionnelles et l’informatique des processus qui renvoie parfois à Courteline et incarne la bureaucratie.

En géologie, la dérive des continents , découverte par Alfred Wegener au début du XXe siècle, théorie démontrée et renforcée dans les années soixante par la compréhension de la tectonique des plaques, permet d’expliquer comment se forment les chaînes de montagne, les fosses océaniques et les éruptions volcaniques.  Dans ce modèle, les douze plaques qui constituent la croute terrestre, ou lithosphère, glissent les unes sur les autres mues par la chaleur du centre de la terre. Les plus denses s’enfoncent sous les plus légères, c’est le phénomène de subduction. Si chaque plaque conserve sa morphologie, ce sont dans les zones de contact que les chocs se produisent. Ce processus est générateur de nombreux phénomènes violents, explosions volcaniques, tremblements de terre… Des roches anciennes disparaissent, de nouvelles structures se développent. C’est un processus très lent, mais cette fabrication du nouveau engendre des réactions de l’ordre ancien qui résiste, puis finit par céder.

L’informatique est ainsi. C’est une plaque historique qui s’est formée à la fin du XIXe siècle et a poussé au cours du XXe siècle. On lui doit de multiples innovations qui ont été totalement métabolisées par le corps social, après avoir été violemment rejetées. L’informatisation des processus a permis de construire des systèmes efficients dont les exemples les plus anciens et les plus accomplis sont la circulation aérienne ou la banque de détail qui ont permis à ces industries de connaître une expansion remarquable. L’informatisation des entreprises s’est développée tout au long de la seconde partie du XXe siècle, en couvrant de processus automatisés la plupart des fonctions, par cercles concentriques du noyau comptable vers les fonctions de production, logistique, conception, design. Mais ces processus automatisés préexistaient à l’informatique, ils étaient mesurables et prédictibles, et compris par les professionnels qui en avaient la charge.

Le système informatique qui s’est construit grâce à une ingénierie méthodique et rigoureuse - gestion de projet, cycle en V - est désormais bousculé par une plaque émergente, le monde de l’internet et du web, qui embarque avec elle des innovations radicales comme l’informatique mobile, le monde de la donnée, l’exploitation des outils de l’intelligence artificielle par l’usage de nouveaux algorithmes, la connexion des objets…

En s’éloignant constamment des contraintes physiques de la machine, l’informatique s’est centrée sur la performance fonctionnelle à travers les progrès de l’architecture et du développement. Simultanément, les progrès opérés sur les processeurs, les réseaux et les mémoires étendent constamment l’horizon de la programmation. Ce rapport dialectique entre le processeur et le code transforme structurellement le champ de l’informatisation qui, naguère concentrée sur les processus stables et les données structurées, embrasse désormais tout type d’information, structurée ou non structurée, sur tout support, fixe ou mobile, textuel ou graphique.

Toutefois, si la plaque de l’informatique structurée s’enfonce graduellement, elle ne disparait pas pour autant ! Ce qu’on appelle « numérique » ou « digital », et qui s’incarne dans la pluralité des applications, ou « apps », accessibles à partir de l’ordinateur mobile que les Québécois appellent « téléphone intelligent » et les Français « smartphone », s’appuie sur une ingénierie informatique de haut niveau qui est le résultat de décennies de recherche et développement et d’industrialisation. Car la mutation du vocabulaire qui a consisté à oublier l’informatique pour ne retenir que le mot digital, n’est qu’un leurre.

Capture d’écran 2018-06-07 à 12.00.08

Source : INSU CNRS

Ces deux plaques informatiques sont composées des mêmes matériaux : des données, des algorithmes, des machines, avec leurs langages de programmation, et des interfaces.  Reprenons la tentative de définition que donne Gérard Berry[1]pour solder ce débat parasite sur le vocabulaire.

  1. Le mot « informatique » désignera spécifiquement la science et la technique du traitement de l’information, et, par extension, l’industrie directement dédiée à ces sujets.
  2. L’adjectif « numérique » peut être accolé à toute activité fondée sur la numérisation et le traitement de l’information : photographie numérique, son numérique, édition numérique, sciences numériques, art numérique, etc.

L’informatique est le moteur du traitement des informations numérisées. Toute réflexion sur le monde numérique inclut donc une réflexion sur les outils informatiques indispensables au traitement des données numérisées. Le schisme informatique/numérique étant dépassé, il reste à comprendre ce qui a vraiment changé dans ce nouveau monde numérisé.

La plaque « numérique » est différente par ses apports plus qu’elle ne l’est par sa nature. La généralisation de la numérisation de l’information – transformée en données binaires – permet une extension infinie des usages. La plaque « numérique » est donc avant tout marquée par la totale démocratisation du traitement numérique de l’information qui, avant 1995, était l’apanage des grandes organisations, entreprises et états. Aujourd’hui, chacun peut s’essayer à comprendre la programmation, sans pour autant devenir programmeur, avec des outils et des tutoriaux largement disponibles, mais surtout exploiter les millions d’applications quasi-gratuites accessibles dans les magasins d’application. Le numérique, c’est avant tout un champ immense ouvert à la créativité, à l’imagination et à l’échange. Chacun peut s’autoproduire dans la création musicale, vidéo ou littéraire, sans frein, sans délai. On peut puiser de partout dans l’immense réservoir de savoir qu’est le web et son vaisseau amiral, Wikipédia. Cette profonde transformation de l’accès aux ressources de connaissance, de production et de diffusion est la marque de notre époque. Elle porte de formidables transformations culturelles et sociologiques, en effaçant la barrière tenace entre la caste auto-proclamée des sachants et le monde oublié des ignorants. Elle force chacun à hisser son niveau d’exigence dans l’accès à la connaissance et ne permet plus de trouver des prétextes à l’ignorance. Certes, on peut brocarder les excès, les dérives, les tentations de détournement fabriqués par les trolls de toutes obédiences. Là où la liberté jaillit, le totalitarisme menace et ce n’est pas nouveau. Mais l’élan vital est plus fort que les scories. L’éducation ne peut ignorer aujourd’hui que le décryptage de l’information est un des outils les plus précieux de l’accès à la connaissance. L’éducation au discernement passe par la compréhension maîtrisée de moteurs de recherche... et le décryptage des onglets des articles de Wikipédia. La démocratie ne se fabrique plus seulement dans les préaux d’école et dans les urnes, mais aussi sur les réseaux sociaux qui doivent acclimater l’éthique indispensable.

Mais l’informatique du XXIe siècle continue à s’appuyer pour atteindre ses performances sur une ingénierie de haut niveau. Le numérique n’est ni facile, ni gratuit, ni instantané.  Pour être fiable, sûre, et livrer en temps réel toutes ses promesses, l’informatique du XXIe siècle est exigeante et rigoureuse. Elle couvre un champ immense d’activités humaines et doit donc atteindre à chaque instant l’excellence. Or l’informatique est une œuvre humaine, donc faillible. La fiabilité est le résultat d’un processus continu de gestion proactive de la qualité qui implique de la compétence, de la rigueur à chaque étape : spécification, design, architecture, conception, programmation, exploitation, surveillance. Cette maîtrise va devenir un des éléments centraux de la performance des systèmes complexes. Elle implique de travailler en profondeur sur la dimension humaine de l’informatique et englobe une vision systémique de la compétence informatique : des formations appropriées, dès le plus jeune âge, des carrières attractives, une reconnaissance collective pour les professionnels de l’informatique et, aussi, une vraie compréhension des coûts. Il est en effet futile de considérer que l’informatique est encore un centre de coût. C’est un ensemble de disciplines qui doivent être traitées avec compétence et respect par les dirigeants des organisations, ses projets et son mode de fonctionnement justifiant une authentique éducation pour permettre une prise de décision informée.

On ne peut que conseiller la lecture de cet ouvrage fondamental à la compréhension de l’usine informatique du XXI siècle « Accelerate »[2]dont la conclusion est claire et fait de l’informatique un des cadres organisationnels les plus cruciaux pour le bon fonctionnement de notre société. “In all of our research, one thing has proved consistently true: since nearly every company relies on software, delivery performance is critical to any organization doing business today. And software delivery performance is affected by many factors, including leadership, tools, automation, and a culture of continuous learning and improvement.”

 

 

 

 

[1]Berry, Gérard. L' Hyperpuissance de l'informatique: Algorithmes, données, machines, réseaux (OJ.SCIENCES) Odile Jacob, 2017

[2]Nicole Forsgren, Jez Humble, Gene Kim, Accelerate: The Science of Lean Software and DevOps: Building and Scaling High Performing Technology Organizations. IT Revolution Press,2018.

 


La voiture autonome face à ses responsabilités

Pour les conducteurs pris dans les embouteillages quotidiens de toutes les villes de la planète, conduire, loin d'être un plaisir, se transforme en corvée fatigante et dangereuse. Le rêve de confier cette charge à un automate se rapproche mais est encore loin de pouvoir se concrétiser facilement.

Le chemin à parcourir est d'abord technique, mais aussi réglementaire. Il est plus encore comportemental car la voiture touche au coeur même de la modernité. La circulation routière de plus d’un milliard de véhicules n’est pas une activité banale. Elle est encadrée par une convention internationale conclue à Vienne le 8 novembre 1968 qui remplace les textes antérieurs de 1926, 1943 et 1949. C’est un document central qui rend la circulation possible sur l’ensemble de la planète avec des règles communes. Son article 8 définit le rôle particulier du conducteur que la technique promet d’éloigner prochainement du volant.

La modification de cette convention sera un chantier est complexe car les recherches sur la voiture autonome mettent en évidence ce qui avait finalement été banalisé par plus d’un siècle d’usage, c’est que la conduite automobile est une activité multitâche exigeante, nécessitant le recours à de multiples mécanismes cérébraux et musculaires, stimulés en temps réel. L’homme, au terme d’un apprentissage initial souvent sommaire, finit par en venir à bout de façon assez performante même si c’est un processus coûteux en vies humaines. Selon l’OMS, c’est en effet plus d’un million de personnes qui meurent en effet chaque année dans un accident automobile sur la planète.

Confier cette mission périlleuse à une machine suppose que l’on soit capable d’obtenir en toutes circonstances, de façon fiable et répétitive, moins coûteuse en temps, en énergie et en erreurs un résultat performant supérieur à celui atteint par l’homme. Et ceci pour un coût acceptable !

Capture d’écran 2018-05-15 à 11.55.19

Au CES de Las Vegas 2018, présentation d'une approche de transformation de l'interface homme/machine par Valeo

La longue marche de la voiture autonome : quelle échéance crédible ?

L’ambition qui n’est pas nouvelle puisque dès 1939 General Motors avait imaginé pour la Foire internationale de New York, « The World of Tomorrow », des autoroutes où circuleraient des voitures dont la vitesse et l’espacement étaient régulés.

Depuis 1980, les expériences, isolées, ont stimulé la recherche et le fameux challenge du DARPA, agence de recherche du Ministère de la Défense des États-Unis, a mis en concurrence plusieurs équipes pour faire circuler, laborieusement, un véhicule autonome entre 2003 et 2007. C’est l’équipe gagnante du défi 2005, issue de Stanford, qui est à l’origine du projet de Google. Cependant, la ruée actuelle vers ce concept est apparue en sortie de la crise de 2009 comme une réponse de l’industrie automobile au besoin ressenti de renouvellement et d’imaginaire, incarné de façon dominante par l’industrie numérique. Quand Google a annoncé en 2010, de façon très prématurée, être capable de produire une voiture autonome, les constructeurs automobiles ont été piqués au vif. Il est paradoxal que, soudain, ceux qui exaltent le plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à une cohorte de robots le soin de s’acquitter de cette tâche.

Mais quelle est la finalité d’une voiture autonome ? Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. La motivation est noble : tendre vers le zéro accident et le zéro mort. Plus d’un million de personnes meurent dans un accident de la route sur la planète chaque année. Au CES 2018, les intervenants ne parlaient que des 35000 morts sur les routes américaines pour justifier la voiture autonome.

L’inattention, l’utilisation d’un téléphone ou d’un smartphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement. Mais on attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages et un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. A plus long terme, il suffira d’une flotte limitée de voitures sans conducteur, roulant en permanence, pour assurer un service personnalisé à domicile. Les perspectives sont séduisantes et emballent le milieu automobile même si des voix prudentes, comme celle du responsable de la recherche de BMW, expliquent que la technologie est loin d’être en mesure de résoudre sans risque tous les problèmes de la conduite.

Une voiture autonome n’est qu’un robot aveugle et ignorant auquel on chercher à donner une intelligence contextuelle pour sentir, planifier et agir. Il faut donc apprendre à ces robots à prendre des décisions saines dans un contexte varié où les risques potentiels sont très différents. Une autoroute du Nevada n’est pas une petite route enneigée de l’Ardèche ni la place de l’Etoile. Comme il est impossible de modéliser a priori la diversité de situations possibles, on éduque les logiciels en leur faisant absorber le plus grand nombre possible de données et de règles de conduite. Le travail du conducteur est dans les voitures modernes assisté par de multiples copilotes prévenants. Or il faut infuser dans les ordinateurs de bord l’expertise du conducteur. C’est le pari de l’intelligence artificielle qui va permettre aux véhicules d’apprendre la complexité de la conduite par l’expérience. Ceci prendra donc des années et l’apparition de la voiture autonome sera graduelle, limitée à certains sites et cas d’usage.

Dans l’état actuel des connaissances, il n’est pas envisageable d’en imaginer un développement de masse avant au moins une décennie. Mais les véhicules commercialisés dans les prochaines années bénéficieront des retombées de ces recherches, apportant au conducteur une assistance à la conduite de plus en plus riche. Les constructeurs travaillent, pragmatiquement, sur un éventail de solutions qui vont instiller au sein du véhicule un nombre croissant d'outils de conduite assistée qui vont faire évoluer le confort et la sécurité d'utilisation des véhicules par les humains avant d'en confier, dans certains cas, la responsabilité à des outils automatique. On va passer du niveau 3 au niveau 5 par touches successives et la modernisation du parc automobile va permettre cette familiarisation.

Une réglementation complexe à faire évoluer

Mais le problème n’est pas que technique, il touche la responsabilité et donc la réglementation. Un changement majeur dans la réglementation mondiale Il est important de citer quelques extraits du texte de l’article 8 de la convention de Vienne.

1. Tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur.

3. Tout conducteur doit posséder les qualités physiques et psychiques nécessaires et être en état physique et mental de conduire.

4. Tout conducteur de véhicule à moteur doit avoir les connaissances et l'habileté nécessaires à la conduite du véhicule ; cette disposition ne fait pas obstacle, toutefois, à l'apprentissage de la conduite selon la législation nationale.

5.2 Tout conducteur doit constamment avoir le contrôle de son véhicule …/….

5bis. Les systèmes embarqués ayant une incidence sur la conduite du véhicule sont réputés conformes au par. 5 du présent article et au premier paragraphe de l'art. 13 s'ils sont conformes aux prescriptions en matière de construction, de montage et d'utilisation énoncées dans les instruments juridiques internationaux relatifs aux véhicules à roues et aux équipements et pièces susceptibles d'être montés et/ou utilisés sur un véhicule à roues.

6. Les systèmes embarqués ayant une incidence sur la conduite d'un véhicule qui ne sont pas conformes aux prescriptions en matière de construction, de montage et d'utilisation susmentionnées sont réputés conformes .../...pour autant qu'ils puissent être neutralisés ou désactivés par  le conducteur.

7. Le conducteur d'un véhicule doit éviter toute activité autre que la conduite. La législation nationale devrait prescrire des règles sur l'utilisation des téléphones par les conducteurs de véhicules. En tout cas, la législation doit interdire l'utilisation par le conducteur d'un véhicule à moteur ou d'un cyclomoteur d'un téléphone tenu à la main lorsque le véhicule est en mouvement

Cette énumération contraignante éclaire le champ de la rupture qu’implique la mise sur le marché de véhicules autonomes. Il faut en effet détricoter cette réglementation qui supporte des textes d’application partout dans le monde. Le marché de l’automobile étant international, il faut pour vendre ces voitures, qu’elles puissent être utilisées partout. Plus encore, l’annexe 5 de la convention de 1968 définit les prescriptions techniques détaillées auxquelles doivent satisfaire les véhicules pour obtenir leur immatriculation.

C’est aussi un élément majeur de définition de la responsabilité, les autorités devant s’assurer que les règles nouvelles de conformité seront respectées par les constructeurs. C’est pourquoi ne circulent aujourd’hui dans le monde que des véhicules autonomes supervisés par des conducteurs humains, les États ayant délivré des autorisations provisoires de circulation. Il n’y a donc pas de « vraie » voiture autonome sur route ouverte. Toutefois des véhicules autonomes peuvent circuler sur des sites protégés, à petite vitesse, comme la navette Navya sur le site de la Défense ou à Lyon. La législation française -loi Badinter de 1985- prévoit l’indemnisation de la victime d’un accident impliquant un véhicule motorisé par l’assurance de ce véhicule. Mais se pose alors la question de la responsabilité : est-ce une défaillance du véhicule, du propriétaire, de l’occupant ? Or en droit actuel les machines ne peuvent être tenues pour responsables. Ce vide juridique implique de nombreux travaux regroupant juristes, compagnies d’assurance et autorités de réglementation et de certification.

La voiture autonome objet de toutes les attentions

Quelles sont les motivations qui explique cet engouement du gouvernement et de certains politiques et acteurs économiques pour la voiture autonome ? La rationalité de cette démarche n’est pas, a priori, évidente : la technique n’est pas au point, le coût inconnu, la demande ignorée et donc le modèle économique aléatoire. Mais l’automobile est le plus sophistiqué des marchés de masse. C’est une industrie capable de produire cent millions de véhicules par an qui génère un chiffre d’affaires et des dépenses récurrentes considérables. Ignorer que cette industrie puisse connaitre une révolution majeure sans en faire partie serait, pour les constructeurs comme pour les grands pays qui les abritent, suicidaire.

La motivation est bien d’abord d’embarquer dans une aventure humaine qui touche la vie au quotidien et a donc des conséquences environnementales, économiques et sociales considérables. C’est un changement majeur du modèle de mobilité qui ferait clairement de la voiture un composant d’un système collectif de transport. C’est de plus une transformation radicale du modèle d’affaires de l’industrie automobile qui passerait de la possession à l’usage, les voitures autonomes ayant vocation à être partagées car leurs capacités leur permettraient de circuler constamment.

C’est enfin un pari technique qui embarque constructeurs et les équipementiers de l’industrie automobile, mais aussi tous les acteurs de la filière numérique et de la recherche puisque le défi porte plus sur les logiciels que sur la technique automobile. Il est estimé qu’un véhicule autonome exploitera 4000 Gbits de données par jour, entre les caméras, radars, sonars, lidars, GPS dont il sera équipé.

Confier sa vie à des automates et des algorithmes impose le zéro défaut, donc une validation du code informatique et des modèles de décision comme la protection des données personnelles et la robustesse contre les cyberattaques. C’est la condition majeure de l’acceptabilité du véhicule autonome qui est la base de la démarche préconisée par Anne-Marie Idrac et qui implique du temps, de l’expérimentation et un travail coopératif entre tous les acteurs impliqués, dont l’État.


Genève 2018 : entre conformisme du marché et audace de l'image

Capture d’écran 2018-03-08 à 09.24.03

Renault Zoe, la star européenne des voitures électriques abordables, désormais dotée de 400 km d'autonomie

Genève est un salon automobile à part. Sur un des marchés les plus haut-de-gamme de la planète et sans constructeur national, c’est une enceinte où la compétition bat son plein à armes égales. Les halls d’exposition sont à taille humaine. On peut, en quelques heures, embrasser du regard la production mondiale et sentir les frémissements annonciateurs de changements. Les constructeurs y soignent particulièrement leurs stands et polissent leurs annonces en ce début d’année automobile qui pourrait annoncer quelques nuages après le sans faute de 2017.

Car le marché automobile, si friand de publicités et d’annonces spectaculaires, est un marché de raison, plutôt conservateur. La Suisse, pays à haut pouvoir d’achat, est aussi un de ceux dont le parc neuf émet, en moyenne, le plus de CO2, fortes puissances et SUV obligent.

C’est pourquoi la progression de la part des véhicules alternatifs au pétrole y représente un caractère emblématique au-delà du seul marché helvétique. En effet les émissions moyennes de CO2 des véhicules neufs se sont établies, en Suisse, à près de 134 grammes de CO2 par kilomètre en 2016, ce qui représente une baisse de 1,2% par rapport à l'année précédente (2015: 135 g/km) mais la plus faible baisse depuis 2006.

Les émissions moyennes de CO2 des véhicules à essence se sont situées, comme en 2015, à 136 g de CO2/km. Les émissions des véhicules diesel ont quant à elles baissé à 136 g de CO2/km (139 g/km en 2015). La part des véhicules électriques a engendré une diminution des émissions moyennes de plus de 2 g de CO2/km. La part des voitures de tourisme fonctionnant partiellement ou entièrement à l'électricité représentait 2% du parc de véhicules neufs en 2016 (1,9% en 2015). La part des véhicules diesel a légèrement progressé pour s'établir à 39,5%. La France, en 2016, enregistre un résultat largement plus positif avec seulement 110 g/km contre 176 g/km en 1995. Pendant 21 ans, la baisse des émissions des véhicules neufs vendus a été continue jusqu’en 2016, 2017 enregistrant une légère hausse pour passer à 111 g.

L’électrification du parc, une solution séduisante

Il est évident que la modernisation du parc et l’augmentation de la part des véhicules électriques sont une solution pour réduire massivement les émissions de CO2 et de polluants.  Le secteur des transports représente avec 27% la plus forte source d’émission de CO2 en Europe.

Selon une étude publiée en 2017 par le European Climate Foundation (ECF) il serait possible de réduire les émissions de CO2 des voitures d'ici à 2050, passant de 605 millions de tonnes en 2018 à 70 millions de tonnes en 2050 en adoptant massivement le véhicule électrique avec 71% de véhicules électriques à batteries et 26% de véhicules à piles à combustible.De même, les émissions d'oxydes d'azote (NOx) seraient considérablement réduites, passant de 1,3 million de tonnes par an actuellement à 70.000 tonnes. Quant aux émissions de particules fines, elles chuteraient de 28.000 à 750 tonnes par an.

La baisse du CO2 est une tendance de long terme. Depuis 1990, la circulation des véhicules français et étrangers sur le territoire français a augmenté de 43 % ; leurs émissions de CO 2 associées n’ont quant à elles crû que de 10 %.

Différents facteurs sont à l’origine de cette amélioration de l’efficacité́ énergétique. Ainsi, au niveau des voitures particulières immatriculées en France et en circulation, la baisse de leur consommation unitaire moyenne a été de plus de 22 % entre 1990 et 2016 sous l’effet d’une amélioration technique des véhicules et des mesures de politiques publiques décourageant les fortes cylindrées. D’autre part, la quantité́ de CO2  nécessaire pour le déplacement d’une tonne de marchandises sur un kilomètre par un véhicule industriel sur le territoire français a baissé́ de 29 % entre 1990 et 2016, malgré́ l’impact de la crise économique et financière qui a ralenti le renouvellement des flottes. Il y a donc un progrès de long terme qui doit néanmoins beaucoup à la diésélisation du marché. Or avec le Dieselgate et la prise de conscience que le seul critère CO2 ne suffisait pas à rendre l’automobile vertueuse, le reflux du diesel est très rapide ce qui a pour effet de remonter en moyenne le taux de CO2 du parc neuf ! Les constructeurs cherchent donc désespérément à baisser les émissions de CO2 tout en constatant une baisse brutale, mal anticipée, des ventes de leurs moteurs diesel. Même en Allemagne les moteurs diesel risquent bien de disparaître des centres villes, ce qui les condamne à terme.

Hybridation et électrification sont les seules solutions sur le papier car pour le moment les clients sont peu convaincus. La transformation est décidemment lente et complexe car on parle d’un marché de masse, travaillé depuis des décennies par un marketing qui a mis l’accent sur le plaisir de conduire et la performance et dont l’inertie du parc est fondée sur le fonctionnement du marché de l’occasion.

Le Salon de Genève 2018 s’inscrit dans une continuité

Les voitures électriques n’ont une part marginale dans les ventes mondiales. Il s’est vendu en 2017 1,223 million de voitures électriques à batteries et plug-ins rechargeables, dont 50% en Chine, sur une production mondiale 2017 de plus de 90 millions de véhicules. Dix ans après leur apparition, elles n’ont pas conquis un large public car la proposition de valeur qu’elles représentent n’est toujours pas claire pour les acquéreurs. D’une part, malgré les subventions, elles restent chères sauf quand les véhicules thermiques sont lourdement taxés comme en Norvège.  Le prix des batteries est le facteur déterminant et s’établit, mondialement, autour de 200 $ le kWh. On estime que pour déclencher un marché de masse il faudrait que ce prix tombe au-dessous de 100 $ le kWh, ce qui n’est pas attendu avant 2025, même si beaucoup d’annonces se font régulièrement sur de possibles ruptures techniques dans les batteries. Le passage industriel aux grands volumes reste problématique. De plus, leur autonomie reste un obstacle même si dans la vie quotidienne, les 250 à 300 kms d’autonomie réelle que proposent les derniers véhicules couvrent la quasi-totalité du spectre des besoins. Le rechargement apparait comme problématique, lent et difficile, même si partout les pouvoirs publics ont financé, sans espoir de retour rentable, une offre significative de bornes de recharge. Il y a ainsi en France, fin 2107, plus de 20000 bornes publiques et on estime à plus de 100000 les points de charge à domicile et sur les lieux de travail. Pour un parc roulant de 115 000 véhicules électriques, cet équipement semble raisonnable.

Si la crise de 2008 a brutalement cassé l’essor de l’industrie automobile mondiale, les espoirs d’une réflexion cohérente de l’ensemble des acteurs sur une utilisation raisonnée de l’automobile, que cette situation brutale a pu faire naître, se sont révélés vains. En effet les gouvernements ont continué à faire pression sur les constructeurs pour réduire les émissions de CO2, mais globalement l’usage de l’automobile n’a pas fondamentalement évolué. La conception des véhicules non plus. La puissance, et la vitesse de pointe restent des facteurs marketing majeurs. Sur une sélection des « cent véhicules de l’année 2017 » effectuée par l’hebdomadaire Auto plus, 53 voitures affichaient une puissance égale ou supérieure à 150 cv et une vitesse de pointe moyenne de 184 km/h. La réduction de la vitesse maximale de 10 km/h sur le réseau secondaire suscite ainsi en France une réaction virulente.

Globalement, les voitures sont plus puissantes, plus rapides et plus lourdes, dépassant 1500 kg. L’électrique ne représente que 1% du marché mondial et les hybrides 5%. En France en 2017 il s’est vendu 24904 voitures électriques, pour 20 modèles, sur un volume de ventes total de 2142704, soit 1,16% contre 1,08% en 2016. La seule Renault Zoe représente 61% des ventes. Ces chiffres ne progressent que très peu car l’offre reste marginale et peu soutenue par les réseaux. On voit plus de concepts cars que de véhicules attractifs pouvant déclencher une intention d’achat récurrente et générer un marché de l’occasion sain.

On peut dire que si les salons automobiles immédiatement post-crise laissaient une large part à la recherche de solutions alternatives, les salons de cette fin de décennie sont décevants car ils ne suscitent pas une offre à la fois utile et agréable.

L’offre présentée à Genève confirme l’orientation du marché

La voiture électrique inspire le haut de gamme élitiste. Que Porsche, avec sa Mission E, déclinée en break Cross, ou Jaguar, avec son SUV I-Pace présentent des voitures électriques ne changera pas l’état du marché. Ce sont des voitures d’exception surpuissantes, lourdes, avec une autonomie de 500 km, et très coûteuses. Volkswagen présente l’I.D. Vizzion, pour le moment un concept de voiture autonome de niveau 5 visant 650 km d’autonomie, annoncé pour 2025. Audi annonce également son grand SUV électrique, l’e-tron Quattro. La cible de ces marques est clairement Tesla qui avec son modèle 3 amorce une transition vers le marché de masse dès lors que les problèmes de production auront été maîtrisés.

Hyundai avec le SUV Kona vise des marchés plus larges avec des véhicules bien conçus, permettant une autonomie de l’ordre de 480 kilomètres selon le nouveau cycle de test WLTP. Ce véhicule devrait être vendu mi-2018. Mais la marque présente aussi la Nexo, un SUV à pile à combustible à hydrogène très abouti, de 800 km d’autonomie destiné à remplacer le ix35 Fuel Cell vendu à 1000 exemplaires dans le monde.

Toyota, pionnier de ces solutions, reste fidèle à son engagement dans l’hybride et l’hydrogène, mais annonce son engagement à produire aussi des véhicules électriques à batteries. Toyota rénove son modèle Auris et dévoile un Lexus SUV urbain, l’UX.

Plusieurs marques avancent des solutions hybrides rechargeables, plus rassurants pour le client en termes d’autonomie. C’est le cas de Mitsubishi qui annonce pour 2019 le rajeunissement de son modèle phare,  l’Outlander PHEV, vendu à plus de 100000 unités en Europe depuis 2013, à travers le concept e-Evolution. Skoda innove avec son concept Vision X, un SUV urbain hybride utilisant le gaz naturel

Mais à côté de ces véhicules plus vertueux, Genève exhibe les chevaux des traditionnelles BMW, Audi, Mercedes. PSA présente sa nouvelle berline haut de gamme 508, très riche en équipements électroniques. Les hypercars, dont les stands attirent toujours un public nourri, sont très présents avec une hypertrophie de chevaux. Lamborghini, McLaren avec sa Senna, Ferrari 4888 Pista, Bugatti Chiron rivalisent en performance et en prix.

Le marché automobile demeure conservateur. Clients et constructeurs bougent lentement malgré la pression constante des pouvoirs publics pour discipliner l’usage de l’automobile individuelle au profit d’une stratégie de mobilité multimodale. Cette partie de bras de fer, source d’incompréhensions et de frustrations, n’a pas de raison de cesser tant l’automobile reste pour la plupart un fort symbole de liberté individuelle au-delà de tout calcul économique et sociétal. La voiture électrique n’a pas encore conquis le cœur du marché et reste contestée tant pour son rapport coût/valeur que pour sa contribution réelle à l’environnement sur son cycle de vie complet. Mais si l’électrification a conquis en un siècle tous les marchés, sauf l’automobile, l’innovation du XXIe siècle sera sans nul doute un basculement technique de l’automobile vers l’électrique, l’omni-connectivité et l’autonomie que l’on peut imaginer à partir de 2030.


Osons l'Europe !

UE en 2018
 
Que faire de l’Europe ? Cette question qui a beaucoup occupé le champ politique pendant la campagne présidentielle de 2017 est retombée dans l’oubli avant de réémerger pour les élections de 2019. De fait, et c'est symptomatique, on ne parle d’Europe que dans des situations de tensions sans se donner la peine de comprendre la réalité du fonctionnement des institutions européennes et leur apport face aux périls techniques et économiques qui menaçent la prospérité de nos vieux pays... Le paysage européen est malmené. Au lendemain des élections allemandes et italiennes, en plein Brexit, difficile, avec des pays d'Europe centrale qui après avoir bénéficié de l'aubaine vivent très mal un ancrage démocratique dans cette vaste zone ouverte au monde, le sentiment de vivre une régression de l'idée européenne et un repli identitaire ne peut être que vif tant les signaux sont au rouge. Beaucoup toutefois s'en réjouissent. Il faut comprendre cette allergie à un fait européen souvent incompréhensible, des institutions complexes et illisibles, un libéralisme qui a fait office de doctrine obstinée pour pousser, seuls au monde, la logique de la concurrence pure et non faussée qui a coupé la tête des champions industriels européens.
 
C’est dire que le livre de Christian Saint-Etienne “Osons l’Europe des nations” doit étre abordé avec la même rigueur d’analyse que celle que l’auteur déploie depuis des années pour expliquer les enjeux enropéens pour nos économie. Il faut tourner la page des poncifs sur l’Europe. L’aimer, ou ne pas l’aimer, sur un mode incantatoire, n’est plus la question. Face à la Chine et à l’Asie, et aux États-Unis, l’Europe à 27 États est devenue simplement inopérante car elle n’a pas été conçue pour le monde actuel mais pour celui du début des années cinquante... Or tout a changé. La Chine s’est éveillée, autour d’elle 3,5 milliards d’habitants sont avides de pouvoir d’achat et de qualité de vie et ont compris que cela ne se décrétait pas, mais ne pouvait être que le résultat d’une conquête scientifique et technique. Les États-Unis qui ne craignent plus le bloc soviétique ne se passionnent pas pour l’Europe qui doit compter sur ses propres forces. La Russie renoue sans complexe avec la volonté de puissance qui fut celle de l'URSS. L'Europe, sans projet, sans gouvernement stratégique ni économique, ne peut que regarder le monde nouveau se faire sans elle. Sa population ne représente que 444 millions d'habitants, sans la Grande-Bretagne et fatalement son poids économique se réduit dans le monde. 
 
Que faire ?
 
Profitons du départ suicidaire de la Grande-Bretagne pour lever toutes les ambiguïtés de ce modèle bizarre d’une relation entre États souverains arbitrée par une commission technocratique. Or précisément c’est là où le livre de Christian aborde frontalement le sujet de l’impuissance européenne, c’est que l’Europe de l’Union européenne a été fabriquée pour ne pas être une puissance, mais un marché ouvert à tous les vents. Ce n’est pas simplement de la candeur, c’est le résultat de l’histoire de notre allégeance à la Pax Americana. Changer cela avec les traités actuels est impossible. Il faut donc inventer une Europe de puissance, fédérale, musclée autour d’un appareil militaro-industriel fort tirant la nouvelle étape de la transformation numérique qui va rebattre les cartes géostratégiques du XXIe siècle. En effet, le coeur de l'avenir de l'Europe est de retrouver une place dans l'iconomie, ce monde fluide de l'intelligence collective qu'ont su préempter les grandes firmes technologiques américaines, le fameux GAFAM, et que les Chinois ont imité pour tenter, avec talent, de les dépasser avec le BATX ( Baidu, Alibaba, Tencent, Xiami) .
 
La thèse de Christian Saint-Etienne est convaincante, le processus de construction fort bien étudié, la documentation et le raisonnement économique rigoureusement déployés.
 
Bien sûr les thèses de Christian Saint-Etienne pourraient être un excellent thème de campagne électorale 2019. 
 
En effet, les élections de 2019 ne doivent pas se jouer sur l'échiquier politique français mais en fonction seulement d'une vision de ce que doit devenir l'Europe comme puissance stratégique dans un monde en recomposition. Il y a un immense travail en amont car personne ne comprend vraiment comment marche l'Union européenne et à qui elle sert. On va nous ressortir les vieux arguments souverainistes auxquels il faudra répondre par un projet sérieux et non pas des incantations européistes vides de sens . La Grande-Bretagne a depuis le XVIIIe siècle une politique européenne constante et simple : faire en sorte que jamais aucune puissance continentale ne vienne faire ombrage aux intérêts britanniques. Ayant sciemment torpillé l'Europe politique de l'intérieur, l'objectif des dirigeants britanniques est de conserver l'avantage commercial en jouant une carte politique autonome par des traités bilatéraux et en lançant une vaste politique de dumping social et fiscal. Une Europe à 27, sans colonne vertébrale solide, ne fera rien pour empêcher cela. Seule une Europe fédérale, resserrée et unie autour de principes forts comme une convergence monétaire, fiscale et sociale est de nature à représenter un pôle compétitif pour relever les défis du XXIe siècle. Le départ de la Grande-Bretagne est une opportunité pour repenser l'Europe non pas en fonction des années cinquante où elle est née mais en fonction des intérêts du XXIe siècle qui n'a plus rien à voir. A Emmanuel Macron en bon stratège de prendre cette initiative
 
Cselivre
 
Lire ce livre brillant ne peut être que salutaire à la consistance d’un débat qui ne peut plus être théorique ou sentimental, mais doit poser la question existentielle de l’avenir du modèle socio-technique européen.Osons l’Europe fédérale autour d’un noyau dur volontaire, harmonisé socialement et fiscalement sur la base de minima consentis, et doté d’un budget fédéral !

Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/