La voiture autonome face à ses responsabilités

Pour les conducteurs pris dans les embouteillages quotidiens de toutes les villes de la planète, conduire, loin d'être un plaisir, se transforme en corvée fatigante et dangereuse. Le rêve de confier cette charge à un automate se rapproche mais est encore loin de pouvoir se concrétiser facilement.

Le chemin à parcourir est d'abord technique, mais aussi réglementaire. Il est plus encore comportemental car la voiture touche au coeur même de la modernité. La circulation routière de plus d’un milliard de véhicules n’est pas une activité banale. Elle est encadrée par une convention internationale conclue à Vienne le 8 novembre 1968 qui remplace les textes antérieurs de 1926, 1943 et 1949. C’est un document central qui rend la circulation possible sur l’ensemble de la planète avec des règles communes. Son article 8 définit le rôle particulier du conducteur que la technique promet d’éloigner prochainement du volant.

La modification de cette convention sera un chantier est complexe car les recherches sur la voiture autonome mettent en évidence ce qui avait finalement été banalisé par plus d’un siècle d’usage, c’est que la conduite automobile est une activité multitâche exigeante, nécessitant le recours à de multiples mécanismes cérébraux et musculaires, stimulés en temps réel. L’homme, au terme d’un apprentissage initial souvent sommaire, finit par en venir à bout de façon assez performante même si c’est un processus coûteux en vies humaines. Selon l’OMS, c’est en effet plus d’un million de personnes qui meurent en effet chaque année dans un accident automobile sur la planète.

Confier cette mission périlleuse à une machine suppose que l’on soit capable d’obtenir en toutes circonstances, de façon fiable et répétitive, moins coûteuse en temps, en énergie et en erreurs un résultat performant supérieur à celui atteint par l’homme. Et ceci pour un coût acceptable !

Capture d’écran 2018-05-15 à 11.55.19

Au CES de Las Vegas 2018, présentation d'une approche de transformation de l'interface homme/machine par Valeo

La longue marche de la voiture autonome : quelle échéance crédible ?

L’ambition qui n’est pas nouvelle puisque dès 1939 General Motors avait imaginé pour la Foire internationale de New York, « The World of Tomorrow », des autoroutes où circuleraient des voitures dont la vitesse et l’espacement étaient régulés.

Depuis 1980, les expériences, isolées, ont stimulé la recherche et le fameux challenge du DARPA, agence de recherche du Ministère de la Défense des États-Unis, a mis en concurrence plusieurs équipes pour faire circuler, laborieusement, un véhicule autonome entre 2003 et 2007. C’est l’équipe gagnante du défi 2005, issue de Stanford, qui est à l’origine du projet de Google. Cependant, la ruée actuelle vers ce concept est apparue en sortie de la crise de 2009 comme une réponse de l’industrie automobile au besoin ressenti de renouvellement et d’imaginaire, incarné de façon dominante par l’industrie numérique. Quand Google a annoncé en 2010, de façon très prématurée, être capable de produire une voiture autonome, les constructeurs automobiles ont été piqués au vif. Il est paradoxal que, soudain, ceux qui exaltent le plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à une cohorte de robots le soin de s’acquitter de cette tâche.

Mais quelle est la finalité d’une voiture autonome ? Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. La motivation est noble : tendre vers le zéro accident et le zéro mort. Plus d’un million de personnes meurent dans un accident de la route sur la planète chaque année. Au CES 2018, les intervenants ne parlaient que des 35000 morts sur les routes américaines pour justifier la voiture autonome.

L’inattention, l’utilisation d’un téléphone ou d’un smartphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement. Mais on attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages et un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. A plus long terme, il suffira d’une flotte limitée de voitures sans conducteur, roulant en permanence, pour assurer un service personnalisé à domicile. Les perspectives sont séduisantes et emballent le milieu automobile même si des voix prudentes, comme celle du responsable de la recherche de BMW, expliquent que la technologie est loin d’être en mesure de résoudre sans risque tous les problèmes de la conduite.

Une voiture autonome n’est qu’un robot aveugle et ignorant auquel on chercher à donner une intelligence contextuelle pour sentir, planifier et agir. Il faut donc apprendre à ces robots à prendre des décisions saines dans un contexte varié où les risques potentiels sont très différents. Une autoroute du Nevada n’est pas une petite route enneigée de l’Ardèche ni la place de l’Etoile. Comme il est impossible de modéliser a priori la diversité de situations possibles, on éduque les logiciels en leur faisant absorber le plus grand nombre possible de données et de règles de conduite. Le travail du conducteur est dans les voitures modernes assisté par de multiples copilotes prévenants. Or il faut infuser dans les ordinateurs de bord l’expertise du conducteur. C’est le pari de l’intelligence artificielle qui va permettre aux véhicules d’apprendre la complexité de la conduite par l’expérience. Ceci prendra donc des années et l’apparition de la voiture autonome sera graduelle, limitée à certains sites et cas d’usage.

Dans l’état actuel des connaissances, il n’est pas envisageable d’en imaginer un développement de masse avant au moins une décennie. Mais les véhicules commercialisés dans les prochaines années bénéficieront des retombées de ces recherches, apportant au conducteur une assistance à la conduite de plus en plus riche. Les constructeurs travaillent, pragmatiquement, sur un éventail de solutions qui vont instiller au sein du véhicule un nombre croissant d'outils de conduite assistée qui vont faire évoluer le confort et la sécurité d'utilisation des véhicules par les humains avant d'en confier, dans certains cas, la responsabilité à des outils automatique. On va passer du niveau 3 au niveau 5 par touches successives et la modernisation du parc automobile va permettre cette familiarisation.

Une réglementation complexe à faire évoluer

Mais le problème n’est pas que technique, il touche la responsabilité et donc la réglementation. Un changement majeur dans la réglementation mondiale Il est important de citer quelques extraits du texte de l’article 8 de la convention de Vienne.

1. Tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur.

3. Tout conducteur doit posséder les qualités physiques et psychiques nécessaires et être en état physique et mental de conduire.

4. Tout conducteur de véhicule à moteur doit avoir les connaissances et l'habileté nécessaires à la conduite du véhicule ; cette disposition ne fait pas obstacle, toutefois, à l'apprentissage de la conduite selon la législation nationale.

5.2 Tout conducteur doit constamment avoir le contrôle de son véhicule …/….

5bis. Les systèmes embarqués ayant une incidence sur la conduite du véhicule sont réputés conformes au par. 5 du présent article et au premier paragraphe de l'art. 13 s'ils sont conformes aux prescriptions en matière de construction, de montage et d'utilisation énoncées dans les instruments juridiques internationaux relatifs aux véhicules à roues et aux équipements et pièces susceptibles d'être montés et/ou utilisés sur un véhicule à roues.

6. Les systèmes embarqués ayant une incidence sur la conduite d'un véhicule qui ne sont pas conformes aux prescriptions en matière de construction, de montage et d'utilisation susmentionnées sont réputés conformes .../...pour autant qu'ils puissent être neutralisés ou désactivés par  le conducteur.

7. Le conducteur d'un véhicule doit éviter toute activité autre que la conduite. La législation nationale devrait prescrire des règles sur l'utilisation des téléphones par les conducteurs de véhicules. En tout cas, la législation doit interdire l'utilisation par le conducteur d'un véhicule à moteur ou d'un cyclomoteur d'un téléphone tenu à la main lorsque le véhicule est en mouvement

Cette énumération contraignante éclaire le champ de la rupture qu’implique la mise sur le marché de véhicules autonomes. Il faut en effet détricoter cette réglementation qui supporte des textes d’application partout dans le monde. Le marché de l’automobile étant international, il faut pour vendre ces voitures, qu’elles puissent être utilisées partout. Plus encore, l’annexe 5 de la convention de 1968 définit les prescriptions techniques détaillées auxquelles doivent satisfaire les véhicules pour obtenir leur immatriculation.

C’est aussi un élément majeur de définition de la responsabilité, les autorités devant s’assurer que les règles nouvelles de conformité seront respectées par les constructeurs. C’est pourquoi ne circulent aujourd’hui dans le monde que des véhicules autonomes supervisés par des conducteurs humains, les États ayant délivré des autorisations provisoires de circulation. Il n’y a donc pas de « vraie » voiture autonome sur route ouverte. Toutefois des véhicules autonomes peuvent circuler sur des sites protégés, à petite vitesse, comme la navette Navya sur le site de la Défense ou à Lyon. La législation française -loi Badinter de 1985- prévoit l’indemnisation de la victime d’un accident impliquant un véhicule motorisé par l’assurance de ce véhicule. Mais se pose alors la question de la responsabilité : est-ce une défaillance du véhicule, du propriétaire, de l’occupant ? Or en droit actuel les machines ne peuvent être tenues pour responsables. Ce vide juridique implique de nombreux travaux regroupant juristes, compagnies d’assurance et autorités de réglementation et de certification.

La voiture autonome objet de toutes les attentions

Quelles sont les motivations qui explique cet engouement du gouvernement et de certains politiques et acteurs économiques pour la voiture autonome ? La rationalité de cette démarche n’est pas, a priori, évidente : la technique n’est pas au point, le coût inconnu, la demande ignorée et donc le modèle économique aléatoire. Mais l’automobile est le plus sophistiqué des marchés de masse. C’est une industrie capable de produire cent millions de véhicules par an qui génère un chiffre d’affaires et des dépenses récurrentes considérables. Ignorer que cette industrie puisse connaitre une révolution majeure sans en faire partie serait, pour les constructeurs comme pour les grands pays qui les abritent, suicidaire.

La motivation est bien d’abord d’embarquer dans une aventure humaine qui touche la vie au quotidien et a donc des conséquences environnementales, économiques et sociales considérables. C’est un changement majeur du modèle de mobilité qui ferait clairement de la voiture un composant d’un système collectif de transport. C’est de plus une transformation radicale du modèle d’affaires de l’industrie automobile qui passerait de la possession à l’usage, les voitures autonomes ayant vocation à être partagées car leurs capacités leur permettraient de circuler constamment.

C’est enfin un pari technique qui embarque constructeurs et les équipementiers de l’industrie automobile, mais aussi tous les acteurs de la filière numérique et de la recherche puisque le défi porte plus sur les logiciels que sur la technique automobile. Il est estimé qu’un véhicule autonome exploitera 4000 Gbits de données par jour, entre les caméras, radars, sonars, lidars, GPS dont il sera équipé.

Confier sa vie à des automates et des algorithmes impose le zéro défaut, donc une validation du code informatique et des modèles de décision comme la protection des données personnelles et la robustesse contre les cyberattaques. C’est la condition majeure de l’acceptabilité du véhicule autonome qui est la base de la démarche préconisée par Anne-Marie Idrac et qui implique du temps, de l’expérimentation et un travail coopératif entre tous les acteurs impliqués, dont l’État.


Genève 2018 : entre conformisme du marché et audace de l'image

Capture d’écran 2018-03-08 à 09.24.03

Renault Zoe, la star européenne des voitures électriques abordables, désormais dotée de 400 km d'autonomie

Genève est un salon automobile à part. Sur un des marchés les plus haut-de-gamme de la planète et sans constructeur national, c’est une enceinte où la compétition bat son plein à armes égales. Les halls d’exposition sont à taille humaine. On peut, en quelques heures, embrasser du regard la production mondiale et sentir les frémissements annonciateurs de changements. Les constructeurs y soignent particulièrement leurs stands et polissent leurs annonces en ce début d’année automobile qui pourrait annoncer quelques nuages après le sans faute de 2017.

Car le marché automobile, si friand de publicités et d’annonces spectaculaires, est un marché de raison, plutôt conservateur. La Suisse, pays à haut pouvoir d’achat, est aussi un de ceux dont le parc neuf émet, en moyenne, le plus de CO2, fortes puissances et SUV obligent.

C’est pourquoi la progression de la part des véhicules alternatifs au pétrole y représente un caractère emblématique au-delà du seul marché helvétique. En effet les émissions moyennes de CO2 des véhicules neufs se sont établies, en Suisse, à près de 134 grammes de CO2 par kilomètre en 2016, ce qui représente une baisse de 1,2% par rapport à l'année précédente (2015: 135 g/km) mais la plus faible baisse depuis 2006.

Les émissions moyennes de CO2 des véhicules à essence se sont situées, comme en 2015, à 136 g de CO2/km. Les émissions des véhicules diesel ont quant à elles baissé à 136 g de CO2/km (139 g/km en 2015). La part des véhicules électriques a engendré une diminution des émissions moyennes de plus de 2 g de CO2/km. La part des voitures de tourisme fonctionnant partiellement ou entièrement à l'électricité représentait 2% du parc de véhicules neufs en 2016 (1,9% en 2015). La part des véhicules diesel a légèrement progressé pour s'établir à 39,5%. La France, en 2016, enregistre un résultat largement plus positif avec seulement 110 g/km contre 176 g/km en 1995. Pendant 21 ans, la baisse des émissions des véhicules neufs vendus a été continue jusqu’en 2016, 2017 enregistrant une légère hausse pour passer à 111 g.

L’électrification du parc, une solution séduisante

Il est évident que la modernisation du parc et l’augmentation de la part des véhicules électriques sont une solution pour réduire massivement les émissions de CO2 et de polluants.  Le secteur des transports représente avec 27% la plus forte source d’émission de CO2 en Europe.

Selon une étude publiée en 2017 par le European Climate Foundation (ECF) il serait possible de réduire les émissions de CO2 des voitures d'ici à 2050, passant de 605 millions de tonnes en 2018 à 70 millions de tonnes en 2050 en adoptant massivement le véhicule électrique avec 71% de véhicules électriques à batteries et 26% de véhicules à piles à combustible.De même, les émissions d'oxydes d'azote (NOx) seraient considérablement réduites, passant de 1,3 million de tonnes par an actuellement à 70.000 tonnes. Quant aux émissions de particules fines, elles chuteraient de 28.000 à 750 tonnes par an.

La baisse du CO2 est une tendance de long terme. Depuis 1990, la circulation des véhicules français et étrangers sur le territoire français a augmenté de 43 % ; leurs émissions de CO 2 associées n’ont quant à elles crû que de 10 %.

Différents facteurs sont à l’origine de cette amélioration de l’efficacité́ énergétique. Ainsi, au niveau des voitures particulières immatriculées en France et en circulation, la baisse de leur consommation unitaire moyenne a été de plus de 22 % entre 1990 et 2016 sous l’effet d’une amélioration technique des véhicules et des mesures de politiques publiques décourageant les fortes cylindrées. D’autre part, la quantité́ de CO2  nécessaire pour le déplacement d’une tonne de marchandises sur un kilomètre par un véhicule industriel sur le territoire français a baissé́ de 29 % entre 1990 et 2016, malgré́ l’impact de la crise économique et financière qui a ralenti le renouvellement des flottes. Il y a donc un progrès de long terme qui doit néanmoins beaucoup à la diésélisation du marché. Or avec le Dieselgate et la prise de conscience que le seul critère CO2 ne suffisait pas à rendre l’automobile vertueuse, le reflux du diesel est très rapide ce qui a pour effet de remonter en moyenne le taux de CO2 du parc neuf ! Les constructeurs cherchent donc désespérément à baisser les émissions de CO2 tout en constatant une baisse brutale, mal anticipée, des ventes de leurs moteurs diesel. Même en Allemagne les moteurs diesel risquent bien de disparaître des centres villes, ce qui les condamne à terme.

Hybridation et électrification sont les seules solutions sur le papier car pour le moment les clients sont peu convaincus. La transformation est décidemment lente et complexe car on parle d’un marché de masse, travaillé depuis des décennies par un marketing qui a mis l’accent sur le plaisir de conduire et la performance et dont l’inertie du parc est fondée sur le fonctionnement du marché de l’occasion.

Le Salon de Genève 2018 s’inscrit dans une continuité

Les voitures électriques n’ont une part marginale dans les ventes mondiales. Il s’est vendu en 2017 1,223 million de voitures électriques à batteries et plug-ins rechargeables, dont 50% en Chine, sur une production mondiale 2017 de plus de 90 millions de véhicules. Dix ans après leur apparition, elles n’ont pas conquis un large public car la proposition de valeur qu’elles représentent n’est toujours pas claire pour les acquéreurs. D’une part, malgré les subventions, elles restent chères sauf quand les véhicules thermiques sont lourdement taxés comme en Norvège.  Le prix des batteries est le facteur déterminant et s’établit, mondialement, autour de 200 $ le kWh. On estime que pour déclencher un marché de masse il faudrait que ce prix tombe au-dessous de 100 $ le kWh, ce qui n’est pas attendu avant 2025, même si beaucoup d’annonces se font régulièrement sur de possibles ruptures techniques dans les batteries. Le passage industriel aux grands volumes reste problématique. De plus, leur autonomie reste un obstacle même si dans la vie quotidienne, les 250 à 300 kms d’autonomie réelle que proposent les derniers véhicules couvrent la quasi-totalité du spectre des besoins. Le rechargement apparait comme problématique, lent et difficile, même si partout les pouvoirs publics ont financé, sans espoir de retour rentable, une offre significative de bornes de recharge. Il y a ainsi en France, fin 2107, plus de 20000 bornes publiques et on estime à plus de 100000 les points de charge à domicile et sur les lieux de travail. Pour un parc roulant de 115 000 véhicules électriques, cet équipement semble raisonnable.

Si la crise de 2008 a brutalement cassé l’essor de l’industrie automobile mondiale, les espoirs d’une réflexion cohérente de l’ensemble des acteurs sur une utilisation raisonnée de l’automobile, que cette situation brutale a pu faire naître, se sont révélés vains. En effet les gouvernements ont continué à faire pression sur les constructeurs pour réduire les émissions de CO2, mais globalement l’usage de l’automobile n’a pas fondamentalement évolué. La conception des véhicules non plus. La puissance, et la vitesse de pointe restent des facteurs marketing majeurs. Sur une sélection des « cent véhicules de l’année 2017 » effectuée par l’hebdomadaire Auto plus, 53 voitures affichaient une puissance égale ou supérieure à 150 cv et une vitesse de pointe moyenne de 184 km/h. La réduction de la vitesse maximale de 10 km/h sur le réseau secondaire suscite ainsi en France une réaction virulente.

Globalement, les voitures sont plus puissantes, plus rapides et plus lourdes, dépassant 1500 kg. L’électrique ne représente que 1% du marché mondial et les hybrides 5%. En France en 2017 il s’est vendu 24904 voitures électriques, pour 20 modèles, sur un volume de ventes total de 2142704, soit 1,16% contre 1,08% en 2016. La seule Renault Zoe représente 61% des ventes. Ces chiffres ne progressent que très peu car l’offre reste marginale et peu soutenue par les réseaux. On voit plus de concepts cars que de véhicules attractifs pouvant déclencher une intention d’achat récurrente et générer un marché de l’occasion sain.

On peut dire que si les salons automobiles immédiatement post-crise laissaient une large part à la recherche de solutions alternatives, les salons de cette fin de décennie sont décevants car ils ne suscitent pas une offre à la fois utile et agréable.

L’offre présentée à Genève confirme l’orientation du marché

La voiture électrique inspire le haut de gamme élitiste. Que Porsche, avec sa Mission E, déclinée en break Cross, ou Jaguar, avec son SUV I-Pace présentent des voitures électriques ne changera pas l’état du marché. Ce sont des voitures d’exception surpuissantes, lourdes, avec une autonomie de 500 km, et très coûteuses. Volkswagen présente l’I.D. Vizzion, pour le moment un concept de voiture autonome de niveau 5 visant 650 km d’autonomie, annoncé pour 2025. Audi annonce également son grand SUV électrique, l’e-tron Quattro. La cible de ces marques est clairement Tesla qui avec son modèle 3 amorce une transition vers le marché de masse dès lors que les problèmes de production auront été maîtrisés.

Hyundai avec le SUV Kona vise des marchés plus larges avec des véhicules bien conçus, permettant une autonomie de l’ordre de 480 kilomètres selon le nouveau cycle de test WLTP. Ce véhicule devrait être vendu mi-2018. Mais la marque présente aussi la Nexo, un SUV à pile à combustible à hydrogène très abouti, de 800 km d’autonomie destiné à remplacer le ix35 Fuel Cell vendu à 1000 exemplaires dans le monde.

Toyota, pionnier de ces solutions, reste fidèle à son engagement dans l’hybride et l’hydrogène, mais annonce son engagement à produire aussi des véhicules électriques à batteries. Toyota rénove son modèle Auris et dévoile un Lexus SUV urbain, l’UX.

Plusieurs marques avancent des solutions hybrides rechargeables, plus rassurants pour le client en termes d’autonomie. C’est le cas de Mitsubishi qui annonce pour 2019 le rajeunissement de son modèle phare,  l’Outlander PHEV, vendu à plus de 100000 unités en Europe depuis 2013, à travers le concept e-Evolution. Skoda innove avec son concept Vision X, un SUV urbain hybride utilisant le gaz naturel

Mais à côté de ces véhicules plus vertueux, Genève exhibe les chevaux des traditionnelles BMW, Audi, Mercedes. PSA présente sa nouvelle berline haut de gamme 508, très riche en équipements électroniques. Les hypercars, dont les stands attirent toujours un public nourri, sont très présents avec une hypertrophie de chevaux. Lamborghini, McLaren avec sa Senna, Ferrari 4888 Pista, Bugatti Chiron rivalisent en performance et en prix.

Le marché automobile demeure conservateur. Clients et constructeurs bougent lentement malgré la pression constante des pouvoirs publics pour discipliner l’usage de l’automobile individuelle au profit d’une stratégie de mobilité multimodale. Cette partie de bras de fer, source d’incompréhensions et de frustrations, n’a pas de raison de cesser tant l’automobile reste pour la plupart un fort symbole de liberté individuelle au-delà de tout calcul économique et sociétal. La voiture électrique n’a pas encore conquis le cœur du marché et reste contestée tant pour son rapport coût/valeur que pour sa contribution réelle à l’environnement sur son cycle de vie complet. Mais si l’électrification a conquis en un siècle tous les marchés, sauf l’automobile, l’innovation du XXIe siècle sera sans nul doute un basculement technique de l’automobile vers l’électrique, l’omni-connectivité et l’autonomie que l’on peut imaginer à partir de 2030.


Osons l'Europe !

UE en 2018
 
Que faire de l’Europe ? Cette question qui a beaucoup occupé le champ politique pendant la campagne présidentielle de 2017 est retombée dans l’oubli avant de réémerger pour les élections de 2019. De fait, et c'est symptomatique, on ne parle d’Europe que dans des situations de tensions sans se donner la peine de comprendre la réalité du fonctionnement des institutions européennes et leur apport face aux périls techniques et économiques qui menaçent la prospérité de nos vieux pays... Le paysage européen est malmené. Au lendemain des élections allemandes et italiennes, en plein Brexit, difficile, avec des pays d'Europe centrale qui après avoir bénéficié de l'aubaine vivent très mal un ancrage démocratique dans cette vaste zone ouverte au monde, le sentiment de vivre une régression de l'idée européenne et un repli identitaire ne peut être que vif tant les signaux sont au rouge. Beaucoup toutefois s'en réjouissent. Il faut comprendre cette allergie à un fait européen souvent incompréhensible, des institutions complexes et illisibles, un libéralisme qui a fait office de doctrine obstinée pour pousser, seuls au monde, la logique de la concurrence pure et non faussée qui a coupé la tête des champions industriels européens.
 
C’est dire que le livre de Christian Saint-Etienne “Osons l’Europe des nations” doit étre abordé avec la même rigueur d’analyse que celle que l’auteur déploie depuis des années pour expliquer les enjeux enropéens pour nos économie. Il faut tourner la page des poncifs sur l’Europe. L’aimer, ou ne pas l’aimer, sur un mode incantatoire, n’est plus la question. Face à la Chine et à l’Asie, et aux États-Unis, l’Europe à 27 États est devenue simplement inopérante car elle n’a pas été conçue pour le monde actuel mais pour celui du début des années cinquante... Or tout a changé. La Chine s’est éveillée, autour d’elle 3,5 milliards d’habitants sont avides de pouvoir d’achat et de qualité de vie et ont compris que cela ne se décrétait pas, mais ne pouvait être que le résultat d’une conquête scientifique et technique. Les États-Unis qui ne craignent plus le bloc soviétique ne se passionnent pas pour l’Europe qui doit compter sur ses propres forces. La Russie renoue sans complexe avec la volonté de puissance qui fut celle de l'URSS. L'Europe, sans projet, sans gouvernement stratégique ni économique, ne peut que regarder le monde nouveau se faire sans elle. Sa population ne représente que 444 millions d'habitants, sans la Grande-Bretagne et fatalement son poids économique se réduit dans le monde. 
 
Que faire ?
 
Profitons du départ suicidaire de la Grande-Bretagne pour lever toutes les ambiguïtés de ce modèle bizarre d’une relation entre États souverains arbitrée par une commission technocratique. Or précisément c’est là où le livre de Christian aborde frontalement le sujet de l’impuissance européenne, c’est que l’Europe de l’Union européenne a été fabriquée pour ne pas être une puissance, mais un marché ouvert à tous les vents. Ce n’est pas simplement de la candeur, c’est le résultat de l’histoire de notre allégeance à la Pax Americana. Changer cela avec les traités actuels est impossible. Il faut donc inventer une Europe de puissance, fédérale, musclée autour d’un appareil militaro-industriel fort tirant la nouvelle étape de la transformation numérique qui va rebattre les cartes géostratégiques du XXIe siècle. En effet, le coeur de l'avenir de l'Europe est de retrouver une place dans l'iconomie, ce monde fluide de l'intelligence collective qu'ont su préempter les grandes firmes technologiques américaines, le fameux GAFAM, et que les Chinois ont imité pour tenter, avec talent, de les dépasser avec le BATX ( Baidu, Alibaba, Tencent, Xiami) .
 
La thèse de Christian Saint-Etienne est convaincante, le processus de construction fort bien étudié, la documentation et le raisonnement économique rigoureusement déployés.
 
Bien sûr les thèses de Christian Saint-Etienne pourraient être un excellent thème de campagne électorale 2019. 
 
En effet, les élections de 2019 ne doivent pas se jouer sur l'échiquier politique français mais en fonction seulement d'une vision de ce que doit devenir l'Europe comme puissance stratégique dans un monde en recomposition. Il y a un immense travail en amont car personne ne comprend vraiment comment marche l'Union européenne et à qui elle sert. On va nous ressortir les vieux arguments souverainistes auxquels il faudra répondre par un projet sérieux et non pas des incantations européistes vides de sens . La Grande-Bretagne a depuis le XVIIIe siècle une politique européenne constante et simple : faire en sorte que jamais aucune puissance continentale ne vienne faire ombrage aux intérêts britanniques. Ayant sciemment torpillé l'Europe politique de l'intérieur, l'objectif des dirigeants britanniques est de conserver l'avantage commercial en jouant une carte politique autonome par des traités bilatéraux et en lançant une vaste politique de dumping social et fiscal. Une Europe à 27, sans colonne vertébrale solide, ne fera rien pour empêcher cela. Seule une Europe fédérale, resserrée et unie autour de principes forts comme une convergence monétaire, fiscale et sociale est de nature à représenter un pôle compétitif pour relever les défis du XXIe siècle. Le départ de la Grande-Bretagne est une opportunité pour repenser l'Europe non pas en fonction des années cinquante où elle est née mais en fonction des intérêts du XXIe siècle qui n'a plus rien à voir. A Emmanuel Macron en bon stratège de prendre cette initiative
 
Cselivre
 
Lire ce livre brillant ne peut être que salutaire à la consistance d’un débat qui ne peut plus être théorique ou sentimental, mais doit poser la question existentielle de l’avenir du modèle socio-technique européen.Osons l’Europe fédérale autour d’un noyau dur volontaire, harmonisé socialement et fiscalement sur la base de minima consentis, et doté d’un budget fédéral !

Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/


Au CES 2018, la donnée est au coeur de la révolution numérique

Rendre compte simplement du CES devient une tâche impossible tant cet événement mondial couvre désormais tous les aspects de la vie contemporaine. Y détecter les innovations les plus frappantes est complexe car l’évolution de la société numérique ne se fait plus par des percées sur les objets, mais par nappes d’interactions. On peut aussi tenter d’appréhender l’ampleur du CES par des chiffres sur des paramètres physiques : probablement cette année, autour de 180 000 visiteurs, 250 000 m2 de surfaces d’exposition, 4 000 produits nouveaux, 7 000 journalistes, des centaines de conférences. Mais cette abondance de chiffres impressionnants ne suffit pas à illustrer ce qu’est vraiment devenu le CES. A l’origine marché consacré à l’électronique grand public aux Etats-Unis, le CES, qui a perdu en 2016 l’appellation « consumer », est en effet devenu au fil des ans la plus grande manifestation mondiale dédiée au cœur de l’économie du XXIe siècle, c’est-à-dire la production et l’exploitation des données.

Capture d’écran 2018-01-15 à 10.40.25

D’année en année, l’organisation des stands des exposants, comme les thématiques des conférences et fameux keynotes, délaissent le strict champ du produit pour se concentrer sur l’analyse et les conséquences de la généralisation du traitement des données. Certes, on peut encore voir des produits spectaculaires qui dans 5 ans seront largement diffusés, comme les écrans 8K. Ou échouer comme la télévision en 3D. Mais si le CTA, qui organise le CES, a choisi comme thème fédérateur « Let’s go humans », c’est pour tenter d’apporter une réponse à la question de la place de l’humain dans un avenir où tout ce que nous produisons, pensons et vivons génère une empreinte numérique. Homo sapiens a vécu depuis ses origines dans un univers physique qu’il cherchait à comprendre avec ses moyens limités. Il en construit désormais une image numérique, un double de plus en plus fidèle, sur lequel il peut agir.  La cohabitation entre la réalité physique perceptible et son double numérique interroge sur la nature du système socio-technique que cette hybridation entre le physique et le virtuel va produire. La modélisation numérique de la vie appartient à l’homme qui l’a construite progressivement depuis les débuts de l’informatisation. Mais les risques de dépassement de l’homme par des machines devenant progressivement « intelligentes » doivent être analysés avec lucidité et sans sensationnalisme.

Au début de l’ère du web, on se plaisait à dire que chaque année on avait produit plus de données que depuis le début de la civilisation. On ne compte plus désormais tant les chiffres sont vertigineux et deviennent insaisissables.  En effet, l’accélération apportée par la généralisation du smartphone dont maintenant plus de trois milliards de terriens sont équipés est elle-même amplifiée par la production de données par les milliards d’objets connectés implantés chaque année dans les entreprises, les foyers, la cité.  Chaque activité humaine produit des informations qui couvrent un spectre de plus en plus large de paramètres physiques. La démocratisation des capteurs rend facile la saisie d’informations sur la température, la pression, le niveau sonore, le poids, la vitesse, l’accélération, la composition physico-chimique, la localisation de tout, personnes, biens, phénomènes physiques et biologiques. La capacité à saisir, analyser et restituer ces données est désormais sans limite. Les capteurs, les réseaux de télécommunication, les serveurs, les algorithmes de traitement et les interface homme/machine variées constituent un système puissant et global dont les capacités s’étendent constamment. Seules les odeurs restent, pour l’instant, à l’écart de cette démarche de transformation de toute chose en données numériques.

Ces données élémentaires servent à construire des modèles qui restituent aux acteurs, quels que soient leur rôle, une image de l’environnement qui les entoure pour le mettre en mesure de le comprendre et prendre de meilleures décisions que celles induites par l’expérience, la culture, l’instinct ou le réflexe. Le stand de Dassault Systems illustre parfaitement cette aptitude nouvelle que nous avons à modéliser tout phénomène et toute structure complexe pour comprendre et agir, que ce soit le cœur humain ou la ville de Singapour.

Ce processus de rationalisation a plusieurs conséquences directes. Il permet de mieux analyser les interactions qui régissent les phénomènes complexes et donc d’être en situation d’anticiper pour être plus efficient. Il offre aussi la possibilité de confier la responsabilité de prendre certaines décisions à des programmes informatiques pilotant directement des automates, robots et actionneurs divers pour libérer l’homme de tâches répétitives et sans valeur ajoutée. Mais aussi, progressivement, la connaissance approfondie que les programmes tireront des données qu’ils accumulent et analysent leur permettra de prendre des décisions dans des domaines plus complexes sans que l’intervention humaine ne soit plus nécessaire.

Parmi les évolutions les plus spectaculaires visibles au CES 2018,  les avancées du véhicule autonome  confirment la capacité de plus en plus complète de confier au seul véhicule le processus de conduite. Certes, il y a encore beaucoup de travail pour doter un véhicule de tous les composants - capteurs, logiciels, moyens de communication - capables en toutes circonstances de pleinement se substituer à ce que l’homme est capable de faire. Mais, de façon méthodique, on repousse sans cesse les limites des capacités d’autonomie des machines et on estime qu’il faudra moins de dix ans pour lancer dans le trafic des véhicules véritablement autonomes, c’est dire de niveau 5, sans intervention humaine. Les problèmes se situent d’ailleurs aujourd’hui d’abord dans la capacité des automobilistes à accepter cette évolution qui les exclut du poste de conduite, en supprimant ce qui a été un des moteurs marketing de cette industrie, le plaisir de conduire. L’acceptabilité est beaucoup plus forte en Chine qu’en Europe ou aux Etats-Unis, pays où la voiture est encore associée à une forte aspiration de liberté. Il faut aussi résoudre de problème complexe de l’organisation de la responsabilité. Il est impératif de codifier de façon précise, à travers des scénarios de conduite, ce que tout conducteur est en mesure de faire instinctivement, et la tâche se révèle fort complexe.

L’exemple de l’automobile et de la mobilité, ceux de la santé, de la gestion de la ville, du libre choix du mode de vie à travers la consommation et la vie privée ont explorés au cours des conférences. A un modèle libéral fondé sur un équilibre « naturel » entre la capture des informations privées et les bénéfices que les personnes en retirent, s’oppose un modèle européen de réglementation publique qui s’incarne dans le RGPD (Réglement général sur la protection des données) qui va s’appliquer à partir de 2018 en Europe, mais aussi partout où des citoyens européens sont impliqués. La Chine, pressée d’affirmer son leadership technique avec une population avide de technologies nouvelles avance sans inhibition avec ses géants comme Baidu et Ali Baba.

Présentes dans chacune des révolutions techniques antérieures, les interrogations sur la capacité de l’homme à maîtriser cette création prennent désormais une dimension particulière. Il ne s’agit plus de se doter d’une prothèse musculaire, mais d’entrer dans le domaine dont l’homme conservait l’exclusivité, la réflexion et la décision. Le passage de l’ère de la main-d’œuvre à celle du cerveau-d’œuvre qui ouvre des potentiels considérables à la capacité d’action de l’homme sur son avenir ne peut pas laisser indifférent tant les risques de manipulation de la conscience et de contrôle des choix sont réels.

Pour les entreprises et organisations publiques, les conséquences sont capitales.

Le CES n’a fait que renforcer les convictions acquises par les modèles offerts désormais par les performances techniques des grands acteurs. Il n’y a plus de place pour une informatique émiettée, balkanisée et tout aujourd’hui doit s’orchestrer autour d’une vision homogène, une infrastructure unique, souple et capacitaire, un traitement des données performant et une capacité à distribuer l’information à tous les acteurs en temps réel et de façon contextuelle dans le format requis pour la meilleure prise de décision. Mais plus encore, la réflexion doit porter sur le sens du traitement de l’information au service des entreprises et des communautés. Quel impact sur les libertés publiques, quel impact sur la liberté de choix et de conscience, entre personnalisation qui isole, recommandation qui limite, organisation de la cité qui anonymise et contrôle ? Le débat qui a eu lieu dans chaque conférence au CES est un bon signal de cette prise de conscience. Mais on sent bien que le cœur de la société de la donnée mérite encore beaucoup d’attention, individuelle et collective, dans les entreprises et les Etats, mais aussi au plan international. Les bénéfices de cette transformation sont immenses et il serait absurde de s’en priver. Nous ne pouvons prendre ce risque face aux défis de notre planète. Les compromettre par un manque de discernement, de pédagogie et de lucidité serait encore plus nocif.


De la complexité, de l'échec et de la SNCF

Nous sommes dans un monde physique. Avec ses lois, ses contraintes, la masse, le temps, l'énergie, l'espace.  Tout s'y mesure. Mais nous avons inventé son double numérique. Et nous voulons que le jumeau physique du jumeau numérique se comporte sans défaut, sans délai. Nous mesurons chaque jour  que c'est une tâche immense, peut-être impossible.  Nous voulons que dans le monde physique tout fonctionne sans défaut, sans neige glissante les samedis de transhumance d'hiver, sans rats qui s'attaquent aux gaines des câbles électriques, sans gel qui fait éclater les canalisations, sans rivières qui débordent, gorgées  de pluie et entrainent des glissements de terrain. Nous sommes en colère parce que nous constatons que l'espérance de vie de la civilisation c'est en gros 24 h, la durée d'autonomie des batteries de nos téléphones portables. A Saint-Martin, un tempête nous a montré l'extrême vulnérabilité de la dimension physique du vaisseau spatial Terre. Et nous protestons contre cette terrible injustice, être menacés dans notre confort, dans notre survie même par le vent et l'eau.

Notre tentative rassurante de tout rationaliser, modéliser, construire de façon idéale se heurte aux adhérences de notre système industriel qui souffre d'être né il y a si longtemps que même le smartphone n'existait pas. Elle se heurte aux faiblesses de nos organisations, ballotée par les politiques, les dirigeants, les changements intempestifs de direction, les hésitations qui ont fait, par exemple, séparer la SNCF de son réseau physique pour ouvrir en 1997 la voie, au sens propre, de la concurrence. Et puis on s'est dit quand même que c'était pas si simple et on a refermé en 2015 cette parenthèse en réinventant un nouveau système artificiellement séparé en deux, le réseau physique et la circulation des trains, mais au sein d'une même entité juridique. Et tout ceci prend du temps, de l'argent, de l'attention. Pendant ce temps là, le temps poursuit son oeuvre corrosive. Et il faut réparer à marche forcée en faisant pression sur les hommes et les éléments, et les ressources... 

La SNCF c'est un réseau de 30000 km de rails, d'appareils de voie, d'outils de signalisation, de ballast et de caténaires. Du solide qui parfois casse. Défaut d'entretien dit-on. La réalité est complexe, l'homme démiurge veut la soumettre à son désir d'absolu. Le réseau, tout réseau, ce n'est pas une abstraction sur un bel écran. C'est vieux, compliqué, soumis à l'usure, au temps. L'aventure du rail a commencé en 1832 en France. Elle est essentielle pour nos territoire et notre prospérité. L'efficience du réseau, et sa sécurité sont des composants indissociables de notre vécu collectif. S'il est insupportable de laisser en rade les voyageurs du week-end, ce serait pire encore de prendre le risque d'un accident. 

Les pannes à la SNCF illustrent ce terrible conflit entre notre désir d'idéal épuré d'un monde lisse et sans incident et la réalité des cicatrices que le temps et la fatigue impriment sur les choses. Cette crise doit nous mettre en garde. Il y en aura d'autres. Tous les secteurs sont fragilisés par l'accroissement des attentes, l'impatience du résultat parfait dont nous sommes chacun porteurs. Aux effet plus graves, peut-être. Il est notre devoir de travailler pour éviter que cela survienne. Mais aussi de nous préparer à en minimiser l'impact. Il faut investir avec clairvoyance, renforcer les compétences, développer l'ingénierie car faire rouler des trains, mais aussi produire de l'électricté, des voitures , des soins, ce n'est pas du marketing, mais cela met en oeuvre une alliance subtile entre l'intelligence et la matière. Et dans la méthode il faut surtout  ne pas blâmer tous ceux qui font leur travail quotidien avec professionnalisme. Plutôt que des coupables, il faut chercher les causes et les remèdes. 

http://bfmbusiness.bfmtv.com/mediaplayer/video/sncf-a-quand-un-service-de-qualite-0412-1010179.html

Capture d’écran 2017-12-05 à 22.36.19

 


Le marché automobile évolue-t-il : le test des nouveautés 2017 ?

Il y a le discours officiel des constructeurs, la volonté des pouvoirs publics… et la réalité du terrain. Dans la presse économique, il n’est plus possible d’aborder la question du futur de l’automobile sans que soient détaillées les menaces qui pèsent sur ce produit emblématique du XXe siècle. Elles sont majeures. Car elles impliquent à court terme la réduction de l’espace qui lui sera consacré et le durcissement des conditions d’usage, surtout en ville. Plus radicalement, l’interdiction future des voitures à « gaz de pétrole » est inscrite dans la plupart des agendas politiques.

Pour autant, est-ce que ces nuages noirs influent sur l’offre disponible en concession, est-ce que le marché amorce une évolution sensible préparant ces échéances futures ? Qu’en pense la presse automobile, acteur majeur de l’opinion sur l’automobile ?

Ce passage de la vision stratégique à la réalité opérationnelle est au cœur de toute grande transformation. Comment mesurer cela ? Toute méthode ayant ses imperfections, il m’est difficile de prétendre que celle que j’ai choisie est la meilleure. J’ai simplement choisi un numéro d’un magazine[1] représentatif de la presse automobile, présentant un dossier « exceptionnel » sur 100 nouveautés à l’essai.

La lecture détaillée des fiches consacrées à ces essais et le traitement simple des données livre un panorama de l’offre de véhicules nouveaux de cette fin d’année 2017. Ce qui est intéressant c’est que les échéances dont parlent les maires des grandes villes et les ministres en charge de l’environnement dans les grands pays sont désormais inférieures à l’espérance de vie des modèles neufs qui seront vendus en 2018. Quand on évoque une interdiction en 2040, cela parait très loin. La réalité est qu’une bonne moitié des voitures en circulation sur la planète rouleront encore dans quinze ans. On a de sérieuses chances de retrouver encore en pleine forme sur les routes en 2032 les modèles illustrés dans ce panel de fin 2017. En effet, les voitures actuelles sont mieux conçues, mieux construites, sont plus fiables et roulent moins.

1920px-FoS20162016_0624_132444AA_(27785299372)

L'extravagante Bugatti Chiron peut-elle encore faire rêver ?

Cet inventaire des nouveautés met aussi en évidence ce que les rédacteurs de ce journal ont envie de mettre en avant dans leur propre vision du monde automobile comme ce que les lecteurs ont envie de lire. Il est évident que les 1500 chevaux et 420 km/h de la Bugatti Chiron ont peu de chances de peser sur l’atteinte des objectifs de la COP 21. Néanmoins, le fait qu’elle puisse exister et que l’on fasse rêver avec ce type de véhicule est signifiant.

Livrons-nous à un décryptage de ce dossier.

Sur les 100 véhicules choisis par la rédaction, 53 affichent une puissance égale ou supérieure à 150 cv. Mais pour donner encore plus de place à la frugalité, 26 dépassent 250 cv. Cette hyper représentation d’une catégorie de véhicules qui représente quelques pourcents du marché traduit un attachement de la presse automobile à la voiture puissante et statutaire dont la performance reste théorique car personne ne peut utiliser ces chevaux sur la route. Elle démontre aussi que les constructeurs restent attachés pour des raisons de prestige à la conception de véhicules hors normes qui leur assure auprès d’un public traditionnel une image forte et, quand ils vendent ces véhicules, ce qui est marginal, de robustes marges. Le marché français est en effet beaucoup moins centré sur la gamme supérieure que la moyenne européenne : 7% contre 13% en Union Européenne. A l’inverse la gamme économique et inférieure représente 52% des ventes, contre 41% en Union Européenne, la gamme moyenne supérieure étant à 13% contre 18% pour la moyenne européenne. De fait la puissance moyenen des véhicules neufs vendus en France ets de 86 kW contre 95 en UE,  108 en Allemagne, 122 en Suisse et 102 en Grande-Bratagne.

Dns ce panel de cent véhicules figurent toutefois six voitures électriques et dix hybrides dont  4 rechargeables, de même qu’un véhicule au GPL.

Les véhicules diesel sont désormais minoritaires : 36 contre 44 modèles essence et 10 hybrides essence.  Toutefois ce sont des véhicules puissants puisque les petites cylindrées ne sont plus équipées de motorisation diesel en raison du coût et de la complexité du dispositif de traitement Euro 6. Ce panel amplifie la baisse réelle de part de marché des véhicules diesel observée en 2017 par rapport à 2016. Le diesel représente désormais, avec 47,6% des immatriculations des voitures particulières, moins de la moitié des ventes. Cette baisse est rapide.

Sur le plan des performances affichées, la vitesse reste le critère de sélectivité le plus courant. La vitesse de pointe annoncée – hors voitures à haute performance – s’établit en moyenne à 184 km/h sur ce panel. 40 voitures affichent même une vitesse de pointe supérieure à 200 km/h. La consommation moyenne annoncée est de 6,8 l/100 et 22 modèles affichent plus de 8 l/100. La sobriété et la discrétion ne sont pas les critères privilégiés, même pour les hybrides rechargeables souvent surpuissantes.

Il faut aussi noter que le poids des véhicules essayés est rarement en baisse et dépasse allégrement 1500 kg. La consommation et les émissions en pâtissent naturellement, mais n’apparaissent pas dans l’article comme une préoccupation. Au contraire, le poids est mis en avant comme argument pour critiquer le manque de puissance des moteurs.

Certes ce panel hétéroclite est arbitraire, mais résulte néanmoins de choix conscients. Il renvoie, dans un magazine de grande diffusion, à une image traditionnelle de l’automobile qui laisse une part essentielle à la puissance, à la vitesse et au statut. Mais l’émergence des véhicules hybrides et électriques traduit une inflexion significative. Absents il y 5 ans, ils sont l’avant-garde d’une mutation automobile qui s’installe sans hâte mais devrait connaitre d’ici 2020 une accélération majeure annoncée par les plans produit des constructeurs.  En 2016 en France les véhicules électriques ont représenté 1,1% du marché et les hybrides 2,9%, soit au total 80000 unités.

Iu-2Automatique, électrique, la navette Transdev

A l’heure de la COP 23, comme du Smart City Expo World Congress, qui s’est tenu mi-novembre à Barcelone, où l’on prépare un monde sans carbone, on peut déduire de cette analyse que les vieilles recettes ont la vie dure car la résistance du moteur à essence et des « belles mécaniques » est vive, même si une autre histoire commence timidement à s’écrire.

 

[1] N° du 3 novembre 2017 d’Auto Plus


La voiture sans essence va révolutionner la ville

Les annonces se multiplient. Lassés d'investir dans les infrastructures routières sans réduire les encombrements ni les émissions toxiques et de gaz à effet de serre, les dirigeants de la planète ont décidé de changer drastiquement les règles du jeu. Si la voiture est un symbole de liberté individuelle et a largement contribué au XXe siècle à libérer les individus en leur offrant la faculté de découvrir les grands espaces sans contrainte, elle se révèle contre-productive en ville où la liberté de se mouvoir ne peut être garantie à chacun avec un véhicule individuel. Les contraintes foncières, le réchauffement qu'induit la circulation automobile massive dans un espace limité, l'allongement des temps de transport individuel condamnent l'usage de la voiture individuelle en pleine propriété. La toxicité de l'automobile, notamment diesel, est désormais prouvée et les industriels qui ont tardé à le reconnaître et tentés par des manoeuvres frauduleuses de cacher leur impossibilité de faire face aux problèmes liées aux courtes distances sont aujourd'hui sur la sellette.

Iu

Les transports publics, qui ont partout dans le monde progressé en efficacité et en confort sont la seule solution de transit de masse acceptable. Ils doivent être complétés par des solutions individualisées, comme le taxi, l'autopartage les navettes automatiques et le co-voiturage, et bien évidemment avec des modes de propulsion sans rejet local. Cette transformation de la ville est désormais un choix politique assumé par les plus grandes villes du monde. Les Etats ont fixé une date : 2040. A partir de ce moment-là il n devrait plus être possible de commercialiser des voitures à "gaz de pétrole". Les industriels, les utilisateurs, les flottes ont le temps de s'adapter. Mais cette annonce concomitante partout dans le monde laisse furieux les amateurs de grosses cylindrées. Qui regrette les 11000 fiacres parisiens de 1907 et leurs cargaisons de crottins ?  Il est possible de gérer cette mutation nous en en avons le temps, nous en avons besoin et surtout les villes deviendront des lieux de vie et de travail confortables. L'innovation que cette mutation va induire est multiforme et sera source d'emplois et de compétences nouvelles. C'est un enjeu majeur de civilisation.

Si les débats sur les causes sont aujourd'hui clairement établis, les solutions vont faire l'objet dans les années à venir d'âpres controverses. or il faut que le débat soit documenté pour être serein, démocratique et permettre à chacun, collectivités, industriels, urbains, citoyens de trouver des réponses appropriées.

https://www.franceinter.fr/emissions/le-telephone-sonne/le-telephone-sonne-17-octobre-2017

https://www.lesechos.fr/idees-debats/cercle/030699740970-jean-pierre-corniou-lautomobile-nest-plus-une-solution-pour-les-villes-2121718.php


Science et usage, la dialectique de la transformation

1/ Le monde est bouleversé, hier comme aujourd'hui, par l'ingéniosité, la curiosité et l'instinct de survie des hommes qui les poussent à découvrir sans cesse de nouvelles réponses aux questions qu'ils se posent et aux problèmes qu'ils génèrent. Pour cela ils inventent des concepts, des outils, des méthodes qui repoussent les limites antérieures, défient les pouvoirs, mettent à bas les croyances... et font émerger de nouveaux problèmes, de nouvelles questions. Cela s'appelle le "progrès". Mais si l'humanité a toujours été secouée périodiquement par une remise en cause brutale de ses acquis, ce que nous vivons au XXIe siècle  est marqué par l'accélération sans précédent des savoirs.

Capture d’écran 2017-09-13 à 11.06.51

2/ Nous sommes les premiers terriens à vivre une révolution scientifique et technique, planétaire, qui nous permet de construire un "modèle artificiel "de notre existence, à travers des capteurs, des réseaux, des mémoires, des processeurs qui multiplient dans des propositions extraordinaires (c'est à dire imprévisibles) notre capacité de modélisation antérieure. Si Pic de la Mirandole avait connu Google, si Einstein avait eu accès au calcul à haute performance, si Leonardo avait connu la modélisation en 3D ! Avec ce modèle, nous pouvons mieux comprendre comment nous fonctionnons, nous pouvons mieux prévoir et agir sur notre environnement, et donc le modifier. Il est même devenu envisageable de propulser les terriens hors de notre planète. Nous sommes passés d'un progrès incrémental, avec des périodes de fortes poussées, comme la fin du XVIIIe siècle, ou les années 1890-1914, à un progrès exponentiel. Cela nous met ans une situation enviable par rapport aux 115 milliards de terriens qui nous ont précédé. Mais cela provoque aussi de nouvelles angoisses car nous touchons à l'essentiel de notre condition humaine, notre relation avec la mort. Nous commençons à considérer la mort non plus comme une fatalité, attachée à notre destin, et compensée par nos croyances religieuses, mais comme un accident technique évitable.

3/ Cette immense source de savoir  disponible est un défi considérable pour tous ceux qui faisaient commerce (lucratif) d'une fraction infime du savoir actuel, et parmi mille, les notaires, médecins, prêtres, politiciens, enseignants, contrôleurs de gestion et surtout les dirigeants politiques et économique qui avaient inventé le système hiérarchique pyramidal pour se mettre au sommet et cadenasser l'accès... ! Leur source de revenu et de pouvoir, la rareté de la connaissance, est tarie. Rendre facile l'accès au savoir et à la capacité de faire que cela apporte à chacun les fait frémir. Cette source de mépris et d'humiliation qui créait un fossé infranchissable entre les sachants et les ignorants n'a plus de raison être. Le cerveau d'œuvre fonctionne en réseau maillé collaboratif, sa capacité de reprogrammation est illimitée car elle s'appuie sur l'intelligence collective qui n'est plus verrouillée par une petite minorité.. 

4/ Cette situation révolutionnaire conduit à des violentes résistances, à de retours sanglants à la barbarie (Daesch prétend régler tous les détails de notre vie en fonction des pensées primaires d'un soldat du VIIe siècle) , au culte de l'ignorance (dont Trump est un grand prêtre). Les dirigeants les plus obscurs s'attaquent à la science, veulent remettre en cause les théories scientifiques comme celles de l'évolution au profit des croyances religieuses ... Bien sûr la technique qui est à l'origine de notre capacité actuelle doit être connue, enseignée à tous, pour être exploitée par tous à la source, le code, et démystifiée. Mais c'est bien l'usage qui est révolutionnaire, en sachant bien que sans Pascal, Babbage, von Neumann, Turing, et Vint Cerf , et quelques autres, nous n'en serions pas là. C'est dans l'usage quotidien d'outils de transports, de communication, de gestion de notre santé, de nos relations avec les autres que s'incarnent les avancées scientifiques, rapidement métabolisées par nos pratiques quotidiennes au point même que nous oublions les prouesses scientifiques qui ont rendu possible cette banalisation de l'usage.

C'est cela le système socio-technique, le ying et le yang de la science et de l'usage.

Capture d’écran 2017-09-13 à 11.12.18