La tectonique des plaques informatiques

L’informatique est en grande mutation, nous dit-on chaque jour. Nous sommes entrés dans le monde digital. Certes, si l’on mesure la puissance des objets que nous avons dans notre poche, la rupture avec le passé proche est radicale. Mais qui n’a pas été étonné de la persistance d’applications anciennes supportant des processus qui paraissent aujourd’hui archaïques. La liste est longue : demander une copie « originale » d’un document, écrire à la main « lu et approuvé », exiger, alors qu’on s’est entendu par courriel, un « courrier » de confirmation, attendre derrière un guichet pour reprendre des informations déjà partagées par le web… Qui n’a pas entendu une personne courroucée derrière son bureau pester contre la lenteur de son ordinateur et s’en prendre à un maléfique « réseau » ? Autant de petites choses du quotidien qui trahissent la rémanence de fonctionnements anciens, vestiges tenaces du monde ancien du papier, d’inadéquations persistantes entre le monde léger et instantané du « zéro délai, zéro défaut », que nous exigeons, et la réalité glaiseuse de la routine.

Une des causes de ces agacements réside dans la vétusté des systèmes informatiques, et donc des processus qu’ils supportent, face au sentiment de facilité, de légèreté et d’ergonomie qu’apportent les solutions issues du web.

Essayons de comprendre cette coexistence entre des applications modernes hautement pratiques et fonctionnelles et l’informatique des processus qui renvoie parfois à Courteline et incarne la bureaucratie.

En géologie, la dérive des continents , découverte par Alfred Wegener au début du XXe siècle, théorie démontrée et renforcée dans les années soixante par la compréhension de la tectonique des plaques, permet d’expliquer comment se forment les chaînes de montagne, les fosses océaniques et les éruptions volcaniques.  Dans ce modèle, les douze plaques qui constituent la croute terrestre, ou lithosphère, glissent les unes sur les autres mues par la chaleur du centre de la terre. Les plus denses s’enfoncent sous les plus légères, c’est le phénomène de subduction. Si chaque plaque conserve sa morphologie, ce sont dans les zones de contact que les chocs se produisent. Ce processus est générateur de nombreux phénomènes violents, explosions volcaniques, tremblements de terre… Des roches anciennes disparaissent, de nouvelles structures se développent. C’est un processus très lent, mais cette fabrication du nouveau engendre des réactions de l’ordre ancien qui résiste, puis finit par céder.

L’informatique est ainsi. C’est une plaque historique qui s’est formée à la fin du XIXe siècle et a poussé au cours du XXe siècle. On lui doit de multiples innovations qui ont été totalement métabolisées par le corps social, après avoir été violemment rejetées. L’informatisation des processus a permis de construire des systèmes efficients dont les exemples les plus anciens et les plus accomplis sont la circulation aérienne ou la banque de détail qui ont permis à ces industries de connaître une expansion remarquable. L’informatisation des entreprises s’est développée tout au long de la seconde partie du XXe siècle, en couvrant de processus automatisés la plupart des fonctions, par cercles concentriques du noyau comptable vers les fonctions de production, logistique, conception, design. Mais ces processus automatisés préexistaient à l’informatique, ils étaient mesurables et prédictibles, et compris par les professionnels qui en avaient la charge.

Le système informatique qui s’est construit grâce à une ingénierie méthodique et rigoureuse - gestion de projet, cycle en V - est désormais bousculé par une plaque émergente, le monde de l’internet et du web, qui embarque avec elle des innovations radicales comme l’informatique mobile, le monde de la donnée, l’exploitation des outils de l’intelligence artificielle par l’usage de nouveaux algorithmes, la connexion des objets…

En s’éloignant constamment des contraintes physiques de la machine, l’informatique s’est centrée sur la performance fonctionnelle à travers les progrès de l’architecture et du développement. Simultanément, les progrès opérés sur les processeurs, les réseaux et les mémoires étendent constamment l’horizon de la programmation. Ce rapport dialectique entre le processeur et le code transforme structurellement le champ de l’informatisation qui, naguère concentrée sur les processus stables et les données structurées, embrasse désormais tout type d’information, structurée ou non structurée, sur tout support, fixe ou mobile, textuel ou graphique.

Toutefois, si la plaque de l’informatique structurée s’enfonce graduellement, elle ne disparait pas pour autant ! Ce qu’on appelle « numérique » ou « digital », et qui s’incarne dans la pluralité des applications, ou « apps », accessibles à partir de l’ordinateur mobile que les Québécois appellent « téléphone intelligent » et les Français « smartphone », s’appuie sur une ingénierie informatique de haut niveau qui est le résultat de décennies de recherche et développement et d’industrialisation. Car la mutation du vocabulaire qui a consisté à oublier l’informatique pour ne retenir que le mot digital, n’est qu’un leurre.

Capture d’écran 2018-06-07 à 12.00.08

Source : INSU CNRS

Ces deux plaques informatiques sont composées des mêmes matériaux : des données, des algorithmes, des machines, avec leurs langages de programmation, et des interfaces.  Reprenons la tentative de définition que donne Gérard Berry[1]pour solder ce débat parasite sur le vocabulaire.

  1. Le mot « informatique » désignera spécifiquement la science et la technique du traitement de l’information, et, par extension, l’industrie directement dédiée à ces sujets.
  2. L’adjectif « numérique » peut être accolé à toute activité fondée sur la numérisation et le traitement de l’information : photographie numérique, son numérique, édition numérique, sciences numériques, art numérique, etc.

L’informatique est le moteur du traitement des informations numérisées. Toute réflexion sur le monde numérique inclut donc une réflexion sur les outils informatiques indispensables au traitement des données numérisées. Le schisme informatique/numérique étant dépassé, il reste à comprendre ce qui a vraiment changé dans ce nouveau monde numérisé.

La plaque « numérique » est différente par ses apports plus qu’elle ne l’est par sa nature. La généralisation de la numérisation de l’information – transformée en données binaires – permet une extension infinie des usages. La plaque « numérique » est donc avant tout marquée par la totale démocratisation du traitement numérique de l’information qui, avant 1995, était l’apanage des grandes organisations, entreprises et états. Aujourd’hui, chacun peut s’essayer à comprendre la programmation, sans pour autant devenir programmeur, avec des outils et des tutoriaux largement disponibles, mais surtout exploiter les millions d’applications quasi-gratuites accessibles dans les magasins d’application. Le numérique, c’est avant tout un champ immense ouvert à la créativité, à l’imagination et à l’échange. Chacun peut s’autoproduire dans la création musicale, vidéo ou littéraire, sans frein, sans délai. On peut puiser de partout dans l’immense réservoir de savoir qu’est le web et son vaisseau amiral, Wikipédia. Cette profonde transformation de l’accès aux ressources de connaissance, de production et de diffusion est la marque de notre époque. Elle porte de formidables transformations culturelles et sociologiques, en effaçant la barrière tenace entre la caste auto-proclamée des sachants et le monde oublié des ignorants. Elle force chacun à hisser son niveau d’exigence dans l’accès à la connaissance et ne permet plus de trouver des prétextes à l’ignorance. Certes, on peut brocarder les excès, les dérives, les tentations de détournement fabriqués par les trolls de toutes obédiences. Là où la liberté jaillit, le totalitarisme menace et ce n’est pas nouveau. Mais l’élan vital est plus fort que les scories. L’éducation ne peut ignorer aujourd’hui que le décryptage de l’information est un des outils les plus précieux de l’accès à la connaissance. L’éducation au discernement passe par la compréhension maîtrisée de moteurs de recherche... et le décryptage des onglets des articles de Wikipédia. La démocratie ne se fabrique plus seulement dans les préaux d’école et dans les urnes, mais aussi sur les réseaux sociaux qui doivent acclimater l’éthique indispensable.

Mais l’informatique du XXIe siècle continue à s’appuyer pour atteindre ses performances sur une ingénierie de haut niveau. Le numérique n’est ni facile, ni gratuit, ni instantané.  Pour être fiable, sûre, et livrer en temps réel toutes ses promesses, l’informatique du XXIe siècle est exigeante et rigoureuse. Elle couvre un champ immense d’activités humaines et doit donc atteindre à chaque instant l’excellence. Or l’informatique est une œuvre humaine, donc faillible. La fiabilité est le résultat d’un processus continu de gestion proactive de la qualité qui implique de la compétence, de la rigueur à chaque étape : spécification, design, architecture, conception, programmation, exploitation, surveillance. Cette maîtrise va devenir un des éléments centraux de la performance des systèmes complexes. Elle implique de travailler en profondeur sur la dimension humaine de l’informatique et englobe une vision systémique de la compétence informatique : des formations appropriées, dès le plus jeune âge, des carrières attractives, une reconnaissance collective pour les professionnels de l’informatique et, aussi, une vraie compréhension des coûts. Il est en effet futile de considérer que l’informatique est encore un centre de coût. C’est un ensemble de disciplines qui doivent être traitées avec compétence et respect par les dirigeants des organisations, ses projets et son mode de fonctionnement justifiant une authentique éducation pour permettre une prise de décision informée.

On ne peut que conseiller la lecture de cet ouvrage fondamental à la compréhension de l’usine informatique du XXI siècle « Accelerate »[2]dont la conclusion est claire et fait de l’informatique un des cadres organisationnels les plus cruciaux pour le bon fonctionnement de notre société. “In all of our research, one thing has proved consistently true: since nearly every company relies on software, delivery performance is critical to any organization doing business today. And software delivery performance is affected by many factors, including leadership, tools, automation, and a culture of continuous learning and improvement.”

 

 

 

 

[1]Berry, Gérard. L' Hyperpuissance de l'informatique: Algorithmes, données, machines, réseaux (OJ.SCIENCES) Odile Jacob, 2017

[2]Nicole Forsgren, Jez Humble, Gene Kim, Accelerate: The Science of Lean Software and DevOps: Building and Scaling High Performing Technology Organizations. IT Revolution Press,2018.

 


La voiture autonome face à ses responsabilités

Pour les conducteurs pris dans les embouteillages quotidiens de toutes les villes de la planète, conduire, loin d'être un plaisir, se transforme en corvée fatigante et dangereuse. Le rêve de confier cette charge à un automate se rapproche mais est encore loin de pouvoir se concrétiser facilement.

Le chemin à parcourir est d'abord technique, mais aussi réglementaire. Il est plus encore comportemental car la voiture touche au coeur même de la modernité. La circulation routière de plus d’un milliard de véhicules n’est pas une activité banale. Elle est encadrée par une convention internationale conclue à Vienne le 8 novembre 1968 qui remplace les textes antérieurs de 1926, 1943 et 1949. C’est un document central qui rend la circulation possible sur l’ensemble de la planète avec des règles communes. Son article 8 définit le rôle particulier du conducteur que la technique promet d’éloigner prochainement du volant.

La modification de cette convention sera un chantier est complexe car les recherches sur la voiture autonome mettent en évidence ce qui avait finalement été banalisé par plus d’un siècle d’usage, c’est que la conduite automobile est une activité multitâche exigeante, nécessitant le recours à de multiples mécanismes cérébraux et musculaires, stimulés en temps réel. L’homme, au terme d’un apprentissage initial souvent sommaire, finit par en venir à bout de façon assez performante même si c’est un processus coûteux en vies humaines. Selon l’OMS, c’est en effet plus d’un million de personnes qui meurent en effet chaque année dans un accident automobile sur la planète.

Confier cette mission périlleuse à une machine suppose que l’on soit capable d’obtenir en toutes circonstances, de façon fiable et répétitive, moins coûteuse en temps, en énergie et en erreurs un résultat performant supérieur à celui atteint par l’homme. Et ceci pour un coût acceptable !

Capture d’écran 2018-05-15 à 11.55.19

Au CES de Las Vegas 2018, présentation d'une approche de transformation de l'interface homme/machine par Valeo

La longue marche de la voiture autonome : quelle échéance crédible ?

L’ambition qui n’est pas nouvelle puisque dès 1939 General Motors avait imaginé pour la Foire internationale de New York, « The World of Tomorrow », des autoroutes où circuleraient des voitures dont la vitesse et l’espacement étaient régulés.

Depuis 1980, les expériences, isolées, ont stimulé la recherche et le fameux challenge du DARPA, agence de recherche du Ministère de la Défense des États-Unis, a mis en concurrence plusieurs équipes pour faire circuler, laborieusement, un véhicule autonome entre 2003 et 2007. C’est l’équipe gagnante du défi 2005, issue de Stanford, qui est à l’origine du projet de Google. Cependant, la ruée actuelle vers ce concept est apparue en sortie de la crise de 2009 comme une réponse de l’industrie automobile au besoin ressenti de renouvellement et d’imaginaire, incarné de façon dominante par l’industrie numérique. Quand Google a annoncé en 2010, de façon très prématurée, être capable de produire une voiture autonome, les constructeurs automobiles ont été piqués au vif. Il est paradoxal que, soudain, ceux qui exaltent le plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à une cohorte de robots le soin de s’acquitter de cette tâche.

Mais quelle est la finalité d’une voiture autonome ? Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. La motivation est noble : tendre vers le zéro accident et le zéro mort. Plus d’un million de personnes meurent dans un accident de la route sur la planète chaque année. Au CES 2018, les intervenants ne parlaient que des 35000 morts sur les routes américaines pour justifier la voiture autonome.

L’inattention, l’utilisation d’un téléphone ou d’un smartphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement. Mais on attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages et un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. A plus long terme, il suffira d’une flotte limitée de voitures sans conducteur, roulant en permanence, pour assurer un service personnalisé à domicile. Les perspectives sont séduisantes et emballent le milieu automobile même si des voix prudentes, comme celle du responsable de la recherche de BMW, expliquent que la technologie est loin d’être en mesure de résoudre sans risque tous les problèmes de la conduite.

Une voiture autonome n’est qu’un robot aveugle et ignorant auquel on chercher à donner une intelligence contextuelle pour sentir, planifier et agir. Il faut donc apprendre à ces robots à prendre des décisions saines dans un contexte varié où les risques potentiels sont très différents. Une autoroute du Nevada n’est pas une petite route enneigée de l’Ardèche ni la place de l’Etoile. Comme il est impossible de modéliser a priori la diversité de situations possibles, on éduque les logiciels en leur faisant absorber le plus grand nombre possible de données et de règles de conduite. Le travail du conducteur est dans les voitures modernes assisté par de multiples copilotes prévenants. Or il faut infuser dans les ordinateurs de bord l’expertise du conducteur. C’est le pari de l’intelligence artificielle qui va permettre aux véhicules d’apprendre la complexité de la conduite par l’expérience. Ceci prendra donc des années et l’apparition de la voiture autonome sera graduelle, limitée à certains sites et cas d’usage.

Dans l’état actuel des connaissances, il n’est pas envisageable d’en imaginer un développement de masse avant au moins une décennie. Mais les véhicules commercialisés dans les prochaines années bénéficieront des retombées de ces recherches, apportant au conducteur une assistance à la conduite de plus en plus riche. Les constructeurs travaillent, pragmatiquement, sur un éventail de solutions qui vont instiller au sein du véhicule un nombre croissant d'outils de conduite assistée qui vont faire évoluer le confort et la sécurité d'utilisation des véhicules par les humains avant d'en confier, dans certains cas, la responsabilité à des outils automatique. On va passer du niveau 3 au niveau 5 par touches successives et la modernisation du parc automobile va permettre cette familiarisation.

Une réglementation complexe à faire évoluer

Mais le problème n’est pas que technique, il touche la responsabilité et donc la réglementation. Un changement majeur dans la réglementation mondiale Il est important de citer quelques extraits du texte de l’article 8 de la convention de Vienne.

1. Tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur.

3. Tout conducteur doit posséder les qualités physiques et psychiques nécessaires et être en état physique et mental de conduire.

4. Tout conducteur de véhicule à moteur doit avoir les connaissances et l'habileté nécessaires à la conduite du véhicule ; cette disposition ne fait pas obstacle, toutefois, à l'apprentissage de la conduite selon la législation nationale.

5.2 Tout conducteur doit constamment avoir le contrôle de son véhicule …/….

5bis. Les systèmes embarqués ayant une incidence sur la conduite du véhicule sont réputés conformes au par. 5 du présent article et au premier paragraphe de l'art. 13 s'ils sont conformes aux prescriptions en matière de construction, de montage et d'utilisation énoncées dans les instruments juridiques internationaux relatifs aux véhicules à roues et aux équipements et pièces susceptibles d'être montés et/ou utilisés sur un véhicule à roues.

6. Les systèmes embarqués ayant une incidence sur la conduite d'un véhicule qui ne sont pas conformes aux prescriptions en matière de construction, de montage et d'utilisation susmentionnées sont réputés conformes .../...pour autant qu'ils puissent être neutralisés ou désactivés par  le conducteur.

7. Le conducteur d'un véhicule doit éviter toute activité autre que la conduite. La législation nationale devrait prescrire des règles sur l'utilisation des téléphones par les conducteurs de véhicules. En tout cas, la législation doit interdire l'utilisation par le conducteur d'un véhicule à moteur ou d'un cyclomoteur d'un téléphone tenu à la main lorsque le véhicule est en mouvement

Cette énumération contraignante éclaire le champ de la rupture qu’implique la mise sur le marché de véhicules autonomes. Il faut en effet détricoter cette réglementation qui supporte des textes d’application partout dans le monde. Le marché de l’automobile étant international, il faut pour vendre ces voitures, qu’elles puissent être utilisées partout. Plus encore, l’annexe 5 de la convention de 1968 définit les prescriptions techniques détaillées auxquelles doivent satisfaire les véhicules pour obtenir leur immatriculation.

C’est aussi un élément majeur de définition de la responsabilité, les autorités devant s’assurer que les règles nouvelles de conformité seront respectées par les constructeurs. C’est pourquoi ne circulent aujourd’hui dans le monde que des véhicules autonomes supervisés par des conducteurs humains, les États ayant délivré des autorisations provisoires de circulation. Il n’y a donc pas de « vraie » voiture autonome sur route ouverte. Toutefois des véhicules autonomes peuvent circuler sur des sites protégés, à petite vitesse, comme la navette Navya sur le site de la Défense ou à Lyon. La législation française -loi Badinter de 1985- prévoit l’indemnisation de la victime d’un accident impliquant un véhicule motorisé par l’assurance de ce véhicule. Mais se pose alors la question de la responsabilité : est-ce une défaillance du véhicule, du propriétaire, de l’occupant ? Or en droit actuel les machines ne peuvent être tenues pour responsables. Ce vide juridique implique de nombreux travaux regroupant juristes, compagnies d’assurance et autorités de réglementation et de certification.

La voiture autonome objet de toutes les attentions

Quelles sont les motivations qui explique cet engouement du gouvernement et de certains politiques et acteurs économiques pour la voiture autonome ? La rationalité de cette démarche n’est pas, a priori, évidente : la technique n’est pas au point, le coût inconnu, la demande ignorée et donc le modèle économique aléatoire. Mais l’automobile est le plus sophistiqué des marchés de masse. C’est une industrie capable de produire cent millions de véhicules par an qui génère un chiffre d’affaires et des dépenses récurrentes considérables. Ignorer que cette industrie puisse connaitre une révolution majeure sans en faire partie serait, pour les constructeurs comme pour les grands pays qui les abritent, suicidaire.

La motivation est bien d’abord d’embarquer dans une aventure humaine qui touche la vie au quotidien et a donc des conséquences environnementales, économiques et sociales considérables. C’est un changement majeur du modèle de mobilité qui ferait clairement de la voiture un composant d’un système collectif de transport. C’est de plus une transformation radicale du modèle d’affaires de l’industrie automobile qui passerait de la possession à l’usage, les voitures autonomes ayant vocation à être partagées car leurs capacités leur permettraient de circuler constamment.

C’est enfin un pari technique qui embarque constructeurs et les équipementiers de l’industrie automobile, mais aussi tous les acteurs de la filière numérique et de la recherche puisque le défi porte plus sur les logiciels que sur la technique automobile. Il est estimé qu’un véhicule autonome exploitera 4000 Gbits de données par jour, entre les caméras, radars, sonars, lidars, GPS dont il sera équipé.

Confier sa vie à des automates et des algorithmes impose le zéro défaut, donc une validation du code informatique et des modèles de décision comme la protection des données personnelles et la robustesse contre les cyberattaques. C’est la condition majeure de l’acceptabilité du véhicule autonome qui est la base de la démarche préconisée par Anne-Marie Idrac et qui implique du temps, de l’expérimentation et un travail coopératif entre tous les acteurs impliqués, dont l’État.


Osons l'Europe !

UE en 2018
 
Que faire de l’Europe ? Cette question qui a beaucoup occupé le champ politique pendant la campagne présidentielle de 2017 est retombée dans l’oubli avant de réémerger pour les élections de 2019. De fait, et c'est symptomatique, on ne parle d’Europe que dans des situations de tensions sans se donner la peine de comprendre la réalité du fonctionnement des institutions européennes et leur apport face aux périls techniques et économiques qui menaçent la prospérité de nos vieux pays... Le paysage européen est malmené. Au lendemain des élections allemandes et italiennes, en plein Brexit, difficile, avec des pays d'Europe centrale qui après avoir bénéficié de l'aubaine vivent très mal un ancrage démocratique dans cette vaste zone ouverte au monde, le sentiment de vivre une régression de l'idée européenne et un repli identitaire ne peut être que vif tant les signaux sont au rouge. Beaucoup toutefois s'en réjouissent. Il faut comprendre cette allergie à un fait européen souvent incompréhensible, des institutions complexes et illisibles, un libéralisme qui a fait office de doctrine obstinée pour pousser, seuls au monde, la logique de la concurrence pure et non faussée qui a coupé la tête des champions industriels européens.
 
C’est dire que le livre de Christian Saint-Etienne “Osons l’Europe des nations” doit étre abordé avec la même rigueur d’analyse que celle que l’auteur déploie depuis des années pour expliquer les enjeux enropéens pour nos économie. Il faut tourner la page des poncifs sur l’Europe. L’aimer, ou ne pas l’aimer, sur un mode incantatoire, n’est plus la question. Face à la Chine et à l’Asie, et aux États-Unis, l’Europe à 27 États est devenue simplement inopérante car elle n’a pas été conçue pour le monde actuel mais pour celui du début des années cinquante... Or tout a changé. La Chine s’est éveillée, autour d’elle 3,5 milliards d’habitants sont avides de pouvoir d’achat et de qualité de vie et ont compris que cela ne se décrétait pas, mais ne pouvait être que le résultat d’une conquête scientifique et technique. Les États-Unis qui ne craignent plus le bloc soviétique ne se passionnent pas pour l’Europe qui doit compter sur ses propres forces. La Russie renoue sans complexe avec la volonté de puissance qui fut celle de l'URSS. L'Europe, sans projet, sans gouvernement stratégique ni économique, ne peut que regarder le monde nouveau se faire sans elle. Sa population ne représente que 444 millions d'habitants, sans la Grande-Bretagne et fatalement son poids économique se réduit dans le monde. 
 
Que faire ?
 
Profitons du départ suicidaire de la Grande-Bretagne pour lever toutes les ambiguïtés de ce modèle bizarre d’une relation entre États souverains arbitrée par une commission technocratique. Or précisément c’est là où le livre de Christian aborde frontalement le sujet de l’impuissance européenne, c’est que l’Europe de l’Union européenne a été fabriquée pour ne pas être une puissance, mais un marché ouvert à tous les vents. Ce n’est pas simplement de la candeur, c’est le résultat de l’histoire de notre allégeance à la Pax Americana. Changer cela avec les traités actuels est impossible. Il faut donc inventer une Europe de puissance, fédérale, musclée autour d’un appareil militaro-industriel fort tirant la nouvelle étape de la transformation numérique qui va rebattre les cartes géostratégiques du XXIe siècle. En effet, le coeur de l'avenir de l'Europe est de retrouver une place dans l'iconomie, ce monde fluide de l'intelligence collective qu'ont su préempter les grandes firmes technologiques américaines, le fameux GAFAM, et que les Chinois ont imité pour tenter, avec talent, de les dépasser avec le BATX ( Baidu, Alibaba, Tencent, Xiami) .
 
La thèse de Christian Saint-Etienne est convaincante, le processus de construction fort bien étudié, la documentation et le raisonnement économique rigoureusement déployés.
 
Bien sûr les thèses de Christian Saint-Etienne pourraient être un excellent thème de campagne électorale 2019. 
 
En effet, les élections de 2019 ne doivent pas se jouer sur l'échiquier politique français mais en fonction seulement d'une vision de ce que doit devenir l'Europe comme puissance stratégique dans un monde en recomposition. Il y a un immense travail en amont car personne ne comprend vraiment comment marche l'Union européenne et à qui elle sert. On va nous ressortir les vieux arguments souverainistes auxquels il faudra répondre par un projet sérieux et non pas des incantations européistes vides de sens . La Grande-Bretagne a depuis le XVIIIe siècle une politique européenne constante et simple : faire en sorte que jamais aucune puissance continentale ne vienne faire ombrage aux intérêts britanniques. Ayant sciemment torpillé l'Europe politique de l'intérieur, l'objectif des dirigeants britanniques est de conserver l'avantage commercial en jouant une carte politique autonome par des traités bilatéraux et en lançant une vaste politique de dumping social et fiscal. Une Europe à 27, sans colonne vertébrale solide, ne fera rien pour empêcher cela. Seule une Europe fédérale, resserrée et unie autour de principes forts comme une convergence monétaire, fiscale et sociale est de nature à représenter un pôle compétitif pour relever les défis du XXIe siècle. Le départ de la Grande-Bretagne est une opportunité pour repenser l'Europe non pas en fonction des années cinquante où elle est née mais en fonction des intérêts du XXIe siècle qui n'a plus rien à voir. A Emmanuel Macron en bon stratège de prendre cette initiative
 
Cselivre
 
Lire ce livre brillant ne peut être que salutaire à la consistance d’un débat qui ne peut plus être théorique ou sentimental, mais doit poser la question existentielle de l’avenir du modèle socio-technique européen.Osons l’Europe fédérale autour d’un noyau dur volontaire, harmonisé socialement et fiscalement sur la base de minima consentis, et doté d’un budget fédéral !

CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..


Inventons la démocratie du XXIe siècle !

En ces temps d’élections imminentes dans deux des plus anciennes démocraties du monde, le doute, et c’est un euphémisme, s’installe dans l’opinion américaine comme française sur la bonne santé du système démocratique. Le spectacle offert par ces (mauvais) acteurs que sont devenus les politiciens professionnels fait encore recette même si les audiences initiales de ces shows déclinent rapidement quand la mauvaise foi et l’incompétence éclatent au grand jour. Certes, il y a encore un intérêt pour les joutes politiques. Mais il s’agit d’un show.  En effet les spectateurs sont très peu nombreux à modifier leur point de vue à l’issue de ces émissions où le culte de l’image impose des mises en scène millimétrées et aseptisées où les communicants attitrés cherchent à éviter toute spontanéité qui pourrait conduire à un dérapage.

Or la question clef des citoyens posée à leurs dirigeants en démocratie est bien claire : aidez-nous à comprendre ce monde et, surtout, à faire en sorte que le futur de nos enfants soit meilleur que notre vie actuelle.

La question est d’autant plus pressante que tous les indicateurs qui nous entourent annoncent une montée de périls. On est fondé de parler  de retour aux années trente avec la montée des tensions interétatiques et l’incapacité de l’ONU à assurer une sécurité internationale. A l’instabilité politique due aux chocs potentiels entre blocs, s’ajoute les risques de déstabilisations climatiques ayant des conséquences sur les mouvements de population, déjà redoutés et ingérables. On peut rajouter à cette liste de périls les transformations structurelles résultant de la mondialisation et des évolutions démographiques :  la perte de revenus des salariés des pays développés et l’effondrement de la classe moyenne, les angoisses face à l’omni-contrôle des données, la non-maîtrise des pandémies, aux conséquences inconnues des OGM, l’instabilité terroriste…

Face à ces défis systémiques, le discours politique peine à produire du sens. Il n’y a aucun lien démontrable entre les propositions émises et les causes identifiées. L’analyse du passé, même si elle est souvent superficielle et émotionnelle, ne donne pas confiance dans la capacité des candidats au pouvoir à trouver des réponses crédibles aux multiples problèmes à résoudre. La tâche est d’autant plus rude que nous sommes dans un monde ouvert qui ne connait plus ni croissance, ni inflation, ni contrôle des changes qui furent d’utiles variables d’ajustement qui ont bien aidé les gouvernants antérieurs.  Si les faits sont têtus, l’aventure de la parole est alors bien tentante. La pensée magique fait facilement des ravages et permet de trouver, sinon des solutions, au moins des coupables commodes. L’histoire nous enseigne que la stigmatisation de présumés coupables conduit rarement à des solutions heureuses. Et que dans le despotisme éclairé auquel beaucoup aspirent tacitement par résignation, lassés des contre-performances de la démocratie et des promesses de la classe politique, on trouve rarement l’éclairage, mais toujours le despotisme.

La règle du jeu démocratique est ancienne et longtemps reconnue comme un modèle. Choisir ses représentants pour gérer les affaires publiques s’est révélé sur le long terme plus efficace que la démocratie directe, lente et complexe. C’est aussi le système le plus désiré. Tous les pays qui en sont privés se battent pour y accéder.  Et l’on s’empresse de retrouver la démocratie avec délectation lorsque le totalitarisme, qui fait son lit dans les défauts et les lâchetés de la démocratie, finit à son tour par démontrer son incapacité à résoudre les problèmes. Le système représentatif est certainement le moins mauvais des systèmes mais il est désormais débordé par ses ailes qui le remettent en cause de façon percutante. Qu’un candidat à la présidentielle dans une des plus anciennes démocraties du monde en arrive à proclamer que s’il perd il se peut qu’il ne reconnaisse pas le résultat, dont il annonce par avance qu’il sera truqué, et qu’il s’il gagne il jettera en prison sa rivale est totalement surréaliste et traduit à quel point notre système démocratique est malade. Une des forces de la démocratie est bien précisément la loyauté du débat et le respect mutuel des protagonistes.

Il faut sauver la démocratie. Car rien ne peut faire mieux. Les solutions ne sont pas simples car la démocratie, comme l’hydrogène aux vertus multiples, n’existe pas à l’état naturel. Il faut la fabriquer, et cela demande du soin et de l’énergie.

Deux voies s’affrontent pour proposer une méthode de résolution de problèmes.

L’aile de la modernité – libérale et progressiste pour utiliser un vocabulaire lui aussi usé - a trouvé dans le web et les réseaux sociaux le cadre d’expression pour la porter. Ce fut le cas lors de l’élection d’Obama, puis de la campagne de Sanders, c’est actuellement là où se trouvent l’inspiration d’Emmanuel Macron ou de NKM, voire même de Mélenchon. Mais ce n’est pas parce qu’on utilise les vecteurs contemporains qu’on véhicule les contenus les plus pertinents. La démocratie du web prône une parole libre et décontractée, qui s’écarte des cadres anciens, qui parle à une société fluide, mondialisée. Adepte de technique, ouverte aux courants les plus divers en matière de consommation, de pensée, de mœurs, confiante dans les bienfaits de la science, et des GAFA, cette modernité du XXIe siècle considère que l’élection n’est pas le point de passage obligé pour faire avancer les idées. Elle a une vision méfiante de la classe politique, masculine, voire machiste, conventionnelle dans ses diagnostics et dans ses thérapies. Elle croit en l’action et c’est pour cela qu’elle a trouvé dans la population des jeunes entrepreneurs un terreau fécond.

L’aile conservatrice se méfie de la démocratie, qui pour ses tenants est forcément influencée par les médias à la solde du clan des modernes.  Elle a développé une branche à succès, le populisme, qui renvoie au « peuple », le « vrai » le soin de faire triompher la sagesse populaire. Comme la réalité est complexe et ne permet pas des solutions simples, on puise dans le passé des recettes sommaires auxquelles on prête une redoutable efficacité au mépris du droit et du simple réalisme. Emprisonner préventivement toute personne suspecte de pouvoir commettre un crime est une solution élégante. Qui pourrait être étendue, par exemple, aux accidents de la route qui font beaucoup plus de morts que le terrorisme. Il suffit d’analyser les conditions d’accidents mortels pour isoler les chauffards potentiels, classés « C », et les priver préventivement de permis de conduire, de voiture et même de liberté de circuler. On pourrait aussi y penser pour les violences conjugales. « Minority Report » n’était qu’une vue d’artiste que les hommes politiques ont très envie de construire avec des murs, des frontières, des contrôles, des caméras vidéos, des analyses croisées de données, des policiers omniprésents. Les théories complotistes se nourrissent de ces discours. On sait où seraient les solutions, mais « on » ne veut pas les mettre en œuvre… Au nom de quoi, pour protéger qui ? Instiller un doute permanent sur l’incapacité délibérée des dirigeants à résoudre les problèmes pour favoriser les pouvoirs en place est devenu une arme banale de destruction sournoise de la confiance envers l’action publique.

Entre la modernité joyeuse, qui va régler tous les problèmes par la technique, et le populisme  anxiogène et rétrograde, l’électeur est bien en mal de comprendre tant les causes que les solutions.

Nous sommes là au cœur du problème existentiel de la démocratie. Confier à un personnel politique déboussolé, incapable de formuler une vision articulée du futur et de proposer des scénarios crédibles d’adaptation, est en soi anxiogène. Face à cette absence cruelle de vision, aussi bien aux Etats-Unis qu’en France, l’absurde fait recette. La vérité scientifique est bafouée, le bruit de fond des petites phrases étouffe toute tentative durable et solide d’explication du monde.

Or la complexité ne justifie pas le refus de l’explication. Par bravade médiatique, les hommes politiques en arrivent à dire n’importe quoi sur n’importe quel sujet, encouragés en cela par les journalistes en quête de petites phrases sensationnelles au fracas médiatique sans lendemain. Là où le lent processus de construction d’une culture politique de masse avait éduqué l’opinion à travers le travail des partis, des syndicats, des associations, une presse d’opinion diversifiée, ce travail de terrain, a été sapé par les télévisions en continu, les couvertures de Paris Match et les tweets ravageurs. L’image, instantanée et volatile, efface toute velléité de construction rationnelle.

Le diagnostic de la situation de nos pays occidentaux est certes difficile à conduire pour isoler, dans un arbre des causes foisonnant, les réponses opérationnelles à ce qui angoisse les citoyens. Chacun constate l’inexorable montée des températures, la fonte des glaciers de montagne comme de ceux des pôles. La communauté scientifique est convaincue, à travers les travaux publiés et précis de milliers de chercheurs, qu’il y a une cause sérieuse dans ces déréglements, l’émission en excès de C02 qui contribue à réchauffer l’atmosphère terrestre. L’accord de Paris à la suite de la COP 21 est maintenant signé et un ancien président se permet de dire qu’il ne croit pas à la responsabilité de l’homme dans le réchauffement climatique. Quelle confiance accorder à ces responsables qui pour de sordides motifs court-termistes n’hésitent pas à compromettre la parole publique ?

Les exemples sont légion. Là où la vérité scientifique doit faire l’objet d’analyses trans-partisanes et de recherches de solutions consensuelles, les exigences de la lutte politique qui se confond avec l’ambition personnelle minent le discours rationnel. Il existe pourtant des véhicules politiques pour le faire, tant sur les sujets scientifiques que sur les domaines anthropologiques comme l’économie où les biais cognitifs abondent. Citons l‘Office parlementaire d’évaluation des choix scientifiques et techniques, le Conseil Economique Social et Environnemental, l’Académie des sciences, l’INSEE… Les Think Tanks privés, eux aussi, publient des documents techniquement aboutis et basés sur des références auditables. Au-delà du contrôle des faits (« fact checking », pour être compris en France), qui constitue une étape indispensable, il faut que le débat public soit alimenté par des études indépendantes reconnues et relayées par les medias.  Les débats publics télévisés, qui attirent une audience respectable, devraient laisser une part importante aux avis d’experts en contrepoint de l’exposé par les candidats de leurs propositions. Il est en effet indispensable d’avoir une vue précise des problèmes avant de s’écharper sur les solutions. Par exemple, sur un sujet aussi complexe que la durée du travail, que soient publiées des études indépendantes sur l’effet sur l’emploi du retour aux 39 heures dans un monde ouvert, numérisé, où 12% de la population travaille dans des usines. Il en est de même sur les effets de la hausse de la TVA ou de la suppression de l’ISF. Marqueurs idéologiques, dit-on, ou mesures utiles et documentées ?

Il faut donc promouvoir le débat, non pas avec le seul personnel politique qui défend sa propre cause, mais avec des experts reconnus pour donner une analyse documentée. S’entendre sur les problèmes est déjà un premier pas constructif. Il sera toujours temps ensuite de dérouler les scénarios de solutions pour identifier les plus crédibles. Il faut que la sphère publique s’approprie les solutions qui fonctionne bien dans le monde informatique. Que les idées deviennent « open source », et ne soient plus marquées des labels de certification d’origine largement démonétisés que sont gauche ou droite, souverainiste ou mondialiste, libéral ou socialiste, qui divisent sans expliquer. Que les scénarios de résolution de problème ne s’appellent plus réforme, mais recherche, et obéissent à la logique efficace du « essayer et apprendre » (« test and learn »). Que les projets publics ne mettent pas des années à se concrétiser mais répondent aux règles du développement rapide et des boucles de rétroaction courtes.

Il faut admettre que la démocratie représentative devenue un cirque médiatique peuplé de bateleurs dont on n’attend même plus les derniers tours de magie ne permet plus ni de poser les problèmes, par peur, mensonge ou dissimulation. Ni de mettre en œuvre des solutions. Cette incapacité est devenue anxiogène dans beaucoup de pays. Il faut donc décaper le discours convenu pour s’attaquer aux racines de la méfiance et créer les conditions d’un débat sur le fond et non pas sur des recettes magiques. Il faut pour cela expliquer sans relâche, débattre sur le fond et forger des convictions non pas sur des superstitions mais sur des analyses. Concluons en empruntant au dernier texte de Condorcet, qui date de 1794,  sa vision du rôle de l’éducation sur l’exercice de la liberté et de la démocratie. Il est trop simple de considérer que le « peuple » n’a pas les moyens de comprendre la complexité de l’économie. Il faut donc développer les connaissances, non biaisées, pour tous. Car il n’y a pas de liberté et de démocratie, donc de progrès, sans éducation.

« L’égalité d’instruction que l’on peut espérer d’atteindre, mais qui doit suffire, est celle qui exclut toute dépendance, ou forcée, ou volontaire. Nous montrerons, dans l’état actuel des connaissances humaines, les moyens faciles de parvenir à ce but, même pour ceux qui ne peuvent donner à l’étude qu’un petit nombre de leurs premières années, et, dans le reste de leur vie, quelques heures de loisir. Nous ferons voir que par un choix heureux, et des connaissances elles-mêmes, et des méthodes de les enseigner, on peut instruire la masse entière d’un peuple de tout ce que chaque homme a besoin de savoir pour l’économie domestique, pour l’administration de ses affaires, pour le libre développement de son industrie et de ses facultés ; pour connaître ses droits, les défendre et les exercer ; pour être instruit de ses devoirs, pour pouvoir les bien remplir ; pour juger ses actions et celles des autres, d’après ses propres lumières, et n’être étranger à aucun des sentiments élevés ou délicats qui honorent la nature humaine ; pour ne point dépendre aveuglément de ceux à qui il est obligé de confier le soin de ses affaires ou l’exercice de ses droits, pour être en état de les choisir et de les surveiller, pour n’être plus la dupe de ces erreurs populaires qui tourmentent la vie de craintes superstitieuses et d’espérances chimériques ; pour se défendre contre les préjugés avec les seules forces de sa raison ; enfin, pour échapper aux prestiges du charlatanisme, qui tendrait des pièges à sa fortune, à sa santé, à la liberté de ses opinions et de sa conscience, sous prétexte de l’enrichir, de le guérir et de le sauver. « 

Condorcet « Esquisse d’un tableau historique des progrès de l’esprit humain »  

https://www2.assemblee-nationale.fr/14/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/(block)/24975


La voiture autonome, utopie ou nouvelle frontière de l'automobile ?

Conservatrice, établie, ancienne, l’industrie automobile subit comme tous les secteurs économiques les pressions de la dynamique des firmes qui organisent la société numérique. Désormais vieille industrie, elle doit, pour garder son statut d’industrie majeure démontrer qu’elle est capable de renouvellement en assurant la fusion de ses compétences propres avec celles issues du monde informatique et numérique. C’est un enjeu d’image, pour continuer à attirer l’attention du public, notamment jeune, sur le produit automobile, et attirer les ingénieurs les plus innovants. L’innovation technique répond à cet impératif dans un monde d’ingénieurs qui ne peut accepter d’être détrôné. Mais dans le monde actuel, ce sont les entreprises numériques qui incarnent cette dynamique. Google, Apple, Amazon et beaucoup d’autres attirent l’intérêt collectif, les clients, les talents, les capitaux. Lorsque Google a annoncé être en mesure de réaliser une voiture autonome, en se présentant comme un concurrent potentiel, l’orgueil de l’industrie automobile a été atteint ce qui a entraîné une réaction unanime des constructeurs classiques.

Aussi, 2014 a vu soudain apparaître dans le paysage automobile une nouvelle tendance technologique : la voiture sans conducteur. Il n’est pas de constructeurs qui n’aient annoncé, dans une surprenante surenchère, qu’ils allaient mettre « prochainement » sur le marché une voiture qui pourrait rouler sans que son conducteur ne se préoccupe de cette tâche désormais futile, conduire. Volvo, Daimler, Nissan, Ford, General Motors, Audi, BMW, Tesla se sont tous risqué à annoncer des dates probables de commercialisation, d’ici 5 à 10 ans, de ces véhicules autonomes ou semi-autonomes sans toutefois préciser l’ampleur du service rendu. Des partenariats inattendus se font jour comme Volvo et Uber.

Le projet n’est pas nouveau. On en trouve des prémices dans les visons futuristes des constructeurs dès les années 1950. Cependant, la ruée actuelle vers ce concept est apparue comme une réponse aux ambitions de Google des constructeurs automobiles établis qui prétendait pouvoir mettre sur le marché non seulement une voiture sans conducteur, mais aussi sans poste de conduite. Il est d’ailleurs bien curieux que, soudain, ceux qui exaltent et embellissent ce fameux plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à un automate le soin de s’acquitter de cette tâche.

Il faut toutefois questionner sérieusement l’intérêt de cette technologie en dépassant la fascination qu’elle inspire. Car après la valse des annonces, la réalité s’impose.

Figure_1_-_vehicule_autonome_en_1956

Vue de la voiture autonome en 1956 (article de l'Association Québécoise des Transports, juin 2015)


Les voitures sont désormais très bien équipées en automatismes multiples qui assistent le conducteur dans sa tâche qui, dans les conditions réelles de circulation, est à la fois complexe et fastidieuse, mais aussi fatigante et dangereuse. Il n’y a que dans les publicités que l’on voit une voiture filer sur une route dégagée et sèche, sans aucun trafic. La réalité quotidienne de la route est bien éloignée de ces images du « plaisir de conduire » qui demeurent obstinément à la base du marketing de tous les constructeurs. Les glissements sémantiques des slogans, soigneusement calibrés, marquant l’identité de marque des constructeurs sont signifiants. Renault qui s’était illustré avec un slogan fédérateur des usages, « Des voitures à vivre » renvoyant à un univers familial, puis hésité entre « Créateur d’automobile » et « Changeons de vie, changeons l’automobile », a adopté en 2015 un slogan qui introduit clairement la passion et certainement une forme d’individualisme : « Passion for life ».

Les constructeurs ont tiré depuis longtemps profit des avancées de l’électronique pour équiper leurs véhicules d’outils d’aide à la conduite. De multiples capteurs et actionneurs ont été intégrés depuis l’apparition de l’antiblocage des roues au freinage, l’ABS, en 1978, pour aider à la conduite ou se substituer au conducteur en cas d’urgence. De fait, d’ores et déjà, une voiture moderne va prendre des décisions pour maintenir sa trajectoire avec l’ESP (Electronic Stability Program), assurer une vitesse constante avec le régulateur, améliorer l’adhérence en cas de pluie ou de neige, amplifier le freinage en cas d’urgence, avertir d’un franchissement de ligne ou de dépassement d’une vitesse autorisée, tout en pourvoyant le conducteur de multiples informations sur son itinéraire. La dernière Mercedes Classe S comprend une centaine de micro-processeurs pour s’acquitter de ces multiples tâches. Ces assistances ne se substituent pas au conducteur, même si elles corrigent, à la marge, ses décisions inappropriées.

En fait, le débat sur la voiture sans conducteur est parti de la volonté initiale de Google de valoriser la suprématie de son système de cartographie, élément fondamental d’un système de conduite autonome qui nécessite une précision de l’ordre du centimètre. Les constructeurs ont réagi en montrant qu’en équipant une voiture de capteurs, radars, scanners laser, outils de géolocalisation et servomoteurs, ils étaient également potentiellement en mesure de se passer du conducteur. Et on a vu ainsi quelques dirigeants se montrer au poste de pilotage de ces véhicules expérimentaux mais sans toucher le volant resté bien classique, position assez curieuse et très peu naturelle qui montre bien que le concept est encore plaqué sur des véhicules conventionnels… Plus encore, pour riposter à Google, les constructeurs automobiles ont décidé de se doter d’un accès direct aux technologies de cartographie de pointe. C’est pourquoi Daimler, BMW et Audi ont ensemble racheté en 2015 à Nokia sa filiale Here, l’ex-Navteq, pour 2,8 milliards €.

Est-ce utile ? Est-ce faisable ?

Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. L’inattention, l’utilisation d’un téléphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Plus d’1,3 millions de personnes dans le monde, selon l’OMS, perdent la vie dans un accident de la route chaque année. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement.

Dès lors mettre au volant un ordinateur doté de capacités sensorielles puissantes et dépourvu des limites biologiques de l’homme est tentant. La motivation est noble : tendre vers le zéro accident et le zéro mort. On attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages, un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. Mais pour atteindre ces résultats il faudrait que la machine elle-même soit exempte de failles, tant dans la conception que dans la gestion des décisions. Confier sa vie à des automates et des algorithmes impose le zéro défaut.

Soulignons d’abord qu’un nouveau vocabulaire est nécessaire pour rendre compte de cette nouvelle avancée technique. On ne devrait pas parler de « voiture autonome » mais de voiture à « délégation de conduite ». Une normalisation de ces niveaux de délégation de conduite a été élaborée. Ce terme de délégation de conduite à des ordinateurs, permet en effet de couvrir une large gamme de situations. Conduire un véhicule sur un parcours varié est une tâche complexe. Une voiture à conduite automatique qui se subsisterait aux véhicules actuels devrait remplir les missions polyvalentes d’un conducteur. Les obstacles sont multiples : emprunter un itinéraire varié, sur des routes hétérogènes, en milieu urbain dense ou en rase campagne, faire face aux aléas du trafic, aux comportements imprévisibles des piétons et autres usagers et aux conditions météorologiques, aux changements de la configuration de la route, en cas de travaux par exemple... Cette compétence du conducteur, ce serait aux ordinateurs du véhicule de l’assurer en s’appuyant sur les informations stockées et sur celles acquises en temps réel par dialogue avec les autres véhicules et les infrastructures au sol.

C’est là où le pari devient plus compliqué. S’il est relativement facile de faire rouler sans solliciter le conducteur une voiture sur autoroute dégagée, il faut que le véhicule soit en mesure d’atteindre une telle route par ses propres moyens et s’en dégager. Il faut donc définir à quel moment l’automatisme rend la main au conducteur s’il ne peut assurer en pleine sécurité une conduite en milieux variés. Il faut donc que le conducteur soit en permanence en situation de vigilance et que l’interface automatisme/humain soit parfaitement fiable. Même avec des pilotes expérimentés, et dans un espace dégagé, les pilotes automatiques des avions sont parfois sources de confusion aux conséquences fatales.

 La conduite automobile est en effet une tâche humaine complexe de plus en plus automatisée. Le travail du conducteur est assisté par de multiples copilotes prévenants. Ces outils vont de l’assistance à la tenue de trajectoire et au freinage, fonctions désormais largement déployées sur les véhicules neufs, à l’assistance au stationnement, à la régulation de vitesses liée au trafic et ultimement à la prise de contrôle totale dans les embouteillages. Ces assistances sont graduellement installées dans les véhicules de dernière génération, chaque nouveau modèle étant l’occasion de compléter l’équipement vers la prise en charge de fonctions nouvelles. Mercedes s’est fait une spécialité de ces équipements, aussi divers que coûteux, et sa Mercedes Classe S constitue un laboratoire roulant, et onéreux, de tous ces outils. Mais les véhicules de moyen de gamme ont aussi, parfois en dotation de base, des équipements qui auraient fait rêver il y a encore cinq ans. Il faut bien admettre que cette course en avant technologique ne fait pas mieux vendre les voitures et n’est plus entre constructeurs un élément suffisamment différenciant. C’est devenu un élément de confort et de sécurité auquel les automobilistes s’habituent et ne souhaitent pas payer.

Où en est la délégation de conduite totale ? Une expérimentation onéreuse.

Pour le moment la délégation de conduite totale, qui fait de la voiture un véhicule réellement autonome à qui il s’agit d’indiquer la destination, n’est qu’un rêve. Les voitures sont soumises à des conditions de fonctionnement bien plus difficiles que les avions, dont les conditions d’usage sont plus simples à modéliser et à programmer. Pour atteindre une telle fiabilité il faut multiplier les capteurs, les processeurs de traitement faisant appel à des algorithmes complexes et à l’intelligence artificielle («machine learning »), les automatismes pour se prémunir de la défaillance d’un composant ou d’un programme. Un tel équipement complexe ne peut qu’être très coûteux. Ainsi un laser 3D, ou lidar, coûte encore 50 000 € pièce. Chaque prototype de la Google Car est équipé de machines représentant plus de 100 000 $. Comment prévoir toutes les situations auxquelles un conducteur pourrait être confronté ?

ll faut donc revenir à une réalité opérationnelle qui ne fera certainement pas rêver mais qui a plus de chances de se concrétiser rapidement. Toyota prône une approche pragmatique et graduelle qui parle de voiture autonome, par couches successives d’avancées techniques, mais non sans conducteur. L’humain, pour Toyota, doit en effet rester en permanence en situation de contrôle. Cette piste est la plus vraisemblable. Les constructeurs vont "simplement" même si le travail est déjà considérable étendre progressivement le champ des automatismes déjà installés, en commençant par le très haut de gamme pour financer le coût de ces installations. Car un des aspects sous-estimés de la voiture autonome est son modèle d’affaire. Comment justifier un tel surcoût par véhicule, même si on peut penser que les progrès de l’électronique embarquée et des logiciels permettront d’en abaisser le coût ?

L’émergence d’un marché de véhicules professionnels ?

Il n’y a vraisemblablement que dans les usages professionnels que ces équipements pourront se justifier dans les prochaines années. Le projet CityMobil2, financé par l’Union Européenne, a permis de tester cinq expérimentations de transport urbain autonome (ARTS : Automated Road Transport Systems) entre 2014 et 2016. Ces expériences ont permis de valider positivement le concept auprès des usagers en termes de confort, service et sécurité, sans enthousiasme particulier, et de tester leur sensibilité par rapport aux voitures autonomes. On voit en 2016 se multiplier ce type d’expériences dans des environnements variés. Il s’agit généralement de navette de passagers autonome adaptée aux espaces sous contrôle comme les aéroports, les ports, les parcs d’attraction ou d’exposition. L’expérience menée par Keolis avec la firme française Navya porte ainsi sur deux navettes de 15 passagers sur une distance linéaire de 1,3 km à 20 km/h dans le quartier lyonnais de Confluence. Ces véhicules coûtent 200 000 €.

Il faut également suivre les travaux d’Uber pour valider un modèle de conduite automatique hautement sécurisée qui permettrait de fournir le service sans devoir gérer les chauffeurs. Ce n’est pas une expérience anodine car Uber emploie dans le monde un million de chauffeurs. Quelques SUV Volvo XC90 ont été équipés pour tester le service dans les rues de Pittsburg, avec toutefois un chauffeur à bord pour des raisons de sécurité et d’acclimatation des usagers. Il est prévu que la flotte comporte dès fin 2016 cent véhicules, ceci dans le cadre d’un plan d’investissement de 300 millions $ copiloté par Volvo et Uber pour commercialiser des voitures autonomes en 2021. Mais si on estime que le coût total d’un chauffeur Uber en France ne dépasse pas 60 000 € par an, il faudrait que le coût supplémentaire d’un véhicule autonome soit significativement intérieur pour prendre ce risque commercial. L’expérience de taxis autonomes de Singapour qui a démarré mi-2016, porte sur un test plus modeste de véhicules électriques rendus autonomes par une start-up, nuTonomy, spécialisée en robotique et intelligence artificielle. Il s’agit de six Renault Zoe et Mitusbishi i-MIEV qui opèrent à partir d’emplacements précis dans un quartier d’affaires de 200 hectares. Ces voitures ont toutefois un chauffeur prêt à prendre les commandes. L’objectif de la start-up est de réduire le nombre de voitures circulant à Singapour de 900 000 à 300 000.

Les véhicules lourds comme les engins de manutention, en site propre, et les poids lourds profiteront certainement de l’avancée de ces techniques.

Carlos Ghosn, parmi d’autres dirigeants, s’est risqué à annoncer en 2016 un plan précis en trois étapes pour Renault et Nissan: conduite automatique dans les bouchons en 2016, conduite automatique sur autoroute en 2018 et conduite en ville en 2020. La conduite automatisée en toutes circonstances ne pourrait être imaginée qu’à partir de 2025. Dans le concert des effets d’annonce que ne va pas manquer de susciter le Mondial de l’automobile de Paris il va être intéressant de distinguer les constructeurs sur le caractère réaliste sur le plan économique de leurs projets de voitures à délégation de conduiteLa voiture autonome, nouvelle frontière de l'automobile ? 

Ce texte est tiré d'une étude Fondapol-Sia Partners qui va paraître fin septembre 2016 sur les enjeux politiques du véhicule électrique


Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau https://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie https://www.iconomie.org


L'impasse française : oser la comprendre pour mieux en sortir

Quelques expatriés japonais qui aiment la France, lassés de voir les rues et squares de Paris mal entretenus, y ont créé une association, les Green birds, qui organise des expéditions de nettoyage collectif. Ce fait, humiliant, est symbolique. Ce pays qui jouit d’une position géographique, d’un climat et d’un patrimoine exceptionnels, suscitant l’envie de toute la planète, perd sa lucidité au point de négliger le fondement même de son attractivité, son aspect physique ! Plus encore, il parait normal à tout parisien fumeur de jeter son mégot au sol car c’est l’expression d’une valeur bien française, la liberté… Et ne paye-t-on pas des impôts pour exercer ce droit inaliénable, même au risque très peu probable  de devoir payer 68 € d’amende?

La France vit sans cesse le grand écart entre l’expression bravache de grands principes qui ont fait sa réputation et une incapacité très concrète à les mettre en pratique. C’est sûrement pour mieux concrétiser nos valeurs que le chef de l’Etat a cru nécessaire de créer un secrétariat d’Etat à « l’égalité réelle » qui doit être un cas unique dans les 193 états membres des Nations Unies !

Les causes sont… ailleurs !

La France vit avec beaucoup de difficultés un double changement historique: une perte d’influence mondiale et un ralentissement durable de son économie. Ces deux tendances lourdes se traduisent par une réduction de la population en emploi et donc du revenu disponible, alors que les frais de structure d’un grand territoire, morcelé en une multitude de collectivités, restent identiques. Cet effet ciseau a des conséquences immédiates : poids des transferts sociaux, dégradation des infrastructures, alourdissement des déficits. L’économie française, privée des armes classiques des pays en difficulté – la dévaluation, l’inflation, l’accroissement sans limite des déficits –, incapable, faute de consensus, de résoudre quelques problèmes structurels récurrents, est paralysée et ne progresse plus. Plutôt que d’en comprendre les causes, la classe politique, soutenue en cela par une partie notable de l’opinion, préfère s’en tenir à une vision archaïque de la défense du « modèle français », voir même, sans hésitation, du « génie français »[i] remis au goût du jour par tous les partis.

Dans cet exercice récurrent d’autojustification, dont le débat sur la loi Travail offre un florilège, le reste du monde s’acharne à attaquer la France dans ses valeurs républicaines et la superbe de son modèle. Bruxelles, l’euro, les Etats-Unis, l’inflexible Allemagne ou la perfide Albion, la Silicon Valley et l’immonde hydre du GAFA, la Chine avec ses industriels copieurs et ses salaires bradés, constituent une coalition hétéroclite mais efficace au service de la mondialisation, bras armé d’une revanche contre la France éternelle, celle de la joie de vivre, de l’humanisme, des valeurs du XVIIIe siècle. Qu’on soit nationaliste, populiste, écologique, de gauche ou de droite, on partage largement le sentiment que si nous trainons la patte dans la plupart des classements mondiaux, c’est parce que l’arbitre est clairement du côté de l’adversaire. Comme le répètent à l’envi nos dirigeants, la France est un « grand » pays qui ne mérite certes pas ce sort. Mais comme le disait le très regretté Pierre Desproges, nous n’y sommes pour rien parce que, simplement, « les étrangers sont des cons », sentiment largement répandu dans tous les bistrots de France.

La loi d’airain des classements

Mesurer la situation réelle de la France en termes de situation économique, éducative, technologique, sanitaire n’est pas très difficile. Les organisations de l’ONU, l’OCDE, le FMI publient des statistiques et analyses qui sont corroborées par des études menées par des organismes privés comme le Word Economic Forum. De cette masse d’informations, il ressort que le recul de la France est réel et se mesure sur une série d’axes objectifs.

Avec moins de 1% de la population mondiale, et un PIB de 2423 milliards $ en 2015 qui la classe au 6e rang mondial, la France n’est que 21e pour le PIB par habitant. Chaque France vit beaucoup moins bien qu’un Suisse, dont le PIB est 2,2 fois le sien, qu’un Suédois (1,3 fois supérieur) ou qu’un Canadien (1,2 fois) sans parler des britanniques ou des allemands. Au classement mondial de l’IDH (indice de développement humain), qui intègre le PNB par habitant, le niveau d’études et l’espérance de vie à la naissance, la France est 22e. Cette réalité chiffrée contraste avec les chants de gloire de nos gouvernants successifs.

Faire une liste exhaustive des preuves de ce déclin de long terme serait impossible. Mais au-delà des indicateurs significatifs de résultat, qui traduisent l’impact actuel de décisions anciennes, il faut aussi s’intéresser aux indicateurs qui traduisent une capacité à faire, qui conditionne les résultats futurs.

Une des clefs de l’avenir économique est la maîtrise des composants de la société numérique. Parmi ceux-là, figurent les réseaux de télécommunications haut débit et les logiciels. Selon le rapport 2015 sur les technologies de l’information du World Economic Forum, la France occupe le 26e rang mondial pour son degré de préparation à intégrer les technologies numériques (indice NRI : Networked Readiness Index). La France souffre d’un handicap en matière de couverture de son territoire en haut débit, fixe et mobile. Ce fait est reconnu et chaque gouvernement en fait une priorité… L’objectif d’Eric Besson, secrétaire d’Etat à l’économie numérique, était ainsi, en avril 2008, de « donner à l'ensemble de ses concitoyens et pour chacun des territoires l'accès à l'Internet haut débit fixe et mobile, ainsi qu'à la télévision numérique terrestre, à l'horizon 2012 ». Le plan Très haut débit de Fleur Pellerin dit en 2013 la même chose, pour… 2022. Après avoir bien réussi le déploiement de l’ADSL, la France a négligé le haut débit fixe et se situe en 2016 au 26e rang mondial pour le raccordement en fibre optique et 59e pays mondial pour le taux de couverture en 4G.

Le second sujet d'avenir est l'éducation. Dans une économie où le  niveau scientifique et technique va être de plus en plus exigeant, l'éducation est le facteur clef de compétitivité. L’enquête PISA de 2013 montre une dégradation du niveau des élèves français au cours des dix dernières années en mathématiques où les performances se situent désormais dans la moyenne. Plus encore l'école française est de plus en plus inégalitaire.  L’origine sociale des enfants dans leurs résultats pèse plus en France que dans les autres pays de l’OCDE. De manière générale, l’inégalité de la différence de niveau entre les élèves croît en France depuis 2003 ! Chiffre très révélateur : la proportion d’élèves issus de l’immigration se situant au dessous du niveau 2 en mathématiques atteint 43 % en France et ne dépasse pas 16% en Australie et au Canada. Le retard de l'apprentissage en France est largement reconnu et chaque gouvernement s'en indigne, sans résultat. En matière d’informatique scolaire, en l’attente périodique d’une « grand plan numérique pour l’école », qui se résume le plus souvent à des équipements, les résultats des enquêtes de l’OCDE, qui situe la France légèrement au dessus de la moyenne, démontrent qu’il n’y a pas de miracle numérique et l’impact de l’usage des outils numériques est d’autant meilleur que les enseignants sont formés et les programmes adaptés.

Il n’y a que sur le plan démographique que la France qui jouit d’un système reconnu de soutien à la petite enfance atteint un taux de fécondité constamment proche de 2, le meilleur de l'Union européenne avec l'Irlande, qui écarte tout risque de vieillissement prématuré, même si le vieillissement biologique inévitable des baby-boomers va se traduire par une augmentation importante des plus de soixante ans dans la population, avec les dépenses de santé inhérentes à cette tranche d’âge.

Changer, mais comment ?

Depuis vingt ans les rapports s'accumulent,  les ouvrages se multiplient, les rayons croulent sur les solutions de chaque homme politique mais la situation continue à se dégrader. Ce n'est donc pas dans les constats et les programmes que se situe "la" solution. Il faut donc admettre enfin qu’il faut réagir individuellement. Nous ne pouvons plus glisser sur la pente fatale de l’appauvrissement en attendant un miracle venu "d'en haut", homme providentiel ou situation magique. Le sursaut ne peut venir que d'une envie partagée de ne pas se résigner au déclin.

Toutefois cette réaction individuelle peut aussi être  un constat d’échec collectif, motivant un départ de la France. Beaucoup de Français, lucides et actifs mais impatients, préfèrent quitter ce pays pour aller développer leurs talents ailleurs, Londres, la Californie, l’Australie, ou le Canada. Les retraités partent au Portugal ou au Maroc au risque de se désocialiser. Si ce phénomène est largement médiatisé, il ne bouleverse pas encore les équilibres fondamentaux puisqu'il n'y a officiellement que 1,566 million de français recensés à l'étranger, chiffre certes en hausse de 17% entre  2006 et 2013, et surtout au profit des pays proches comme la Suisse, la Grande-Bretagne, la Belgique... Toutefois, ce qui est le plus préoccupant dans ce flux de départ, c'est qu'il touche de plus en plus les jeunes diplômés.

Rester pour construire un avenir meilleur en France est la solution la plus simple et la plus évidente. Avant, toute mesure technique fiscale ou sociale, c'est la confiance sur la capacité collective des Français de faire face aux problèmes par un désir de renouveau et d'engagement qui peut stimuler cette motivation. Retrouver une place acceptable dans les classements mondiaux sera un résultat ultérieur heureux de cette capacité de réaction retrouvée.

Or ce pays a la capacité d’offrir à tous les entrepreneurs et à tous les entreprenants le territoire de leurs ambitions.

La France dispose de tous les moyens techniques pour prendre toute sa place dans la société numérique. C’est bien en misant totalement sur les technologies numériques, qu’elles soient exploitées dans les industries classiques ou déployées dans des usages nouveaux. Il ne faut plus chercher à corriger les défauts structurels de notre modèle économique, il faut résolument tourner la page du XXe siècle, car le modèle a totalement changé, pour attaquer les sources de richesse et d’influence futures. Elon Musk dit que « le passé est notre plus mauvais conseiller « .

Le changement est scientifique et technique. Le numérique, omniprésent, aide à redéfinir les standards de performance dans tous les secteurs, agriculture, industrie, services et service public. On peut, partout, faire mieux, plus vite et moins cher. Mais de peur de déstabiliser des processus établis depuis longtemps, qui ont figé les hiérarchies, les normes, les contrôles, les modèles de management, dans le modèle antérieur du productivisme industriel, on - et derrière ce « on » anonyme il est possible de mettre beaucoup de gens - diffère les changements. On plaide pour les réformes alors que chacun s’enferme dans le conformisme prudent et paresseux. Tout le monde sait qu’il faut simplifier les règles, partout. Et il est très commode d’incriminer le seul secteur public alors même que le plupart des entreprises ont réinventé une bureaucratie qui casse l’initiative et valorise le conformisme. Or simplifier implique toujours l’abandon de systèmes inutiles, auxquels sont associés des équipes, des personnes, des dirigeants. Ce sont autant de talents qui pourraient largement être utilisés à mettre en œuvre les innovations qui vont nous permettre de progresser en efficience plutôt que s'acharner à pérenniser des modèles obsolètes.

Industrie-futur371

Intelligence artificielle, sciences cognitives, biotechnologies, énergie décentralisée, automobile à faible consommation, technologies de l’habitat, biotechnologies agricoles, aéronautique, lutte contre le cancer et les maladies neurodégénératives, nouvelles techniques de la confiance ( blockchains…) voici autant de sujets clefs où il faut investir massivement, avec de l’intelligence et des capitaux. Ces thèmes sont traités dans les neufs dossiers de « la nouvelle France industrielle ». Mais il y a encore beaucoup de réticences à abandonner un saupoudrage des moyens. La lisibilité des messages en souffre. Faute de clarté et de simplicité dans les engagements, dans un climat de scepticisme et de défiance, on n'obtient pas de résultats suffisamment rapides et visibles pour en tirer toute l’énergie nécessaire au changement. Les conséquences de cet engagement indispensable pour l'industrie du futur mettront des années à avoir un impact sur l'emploi.. et le moral ! Mais il ne faut pas relâcher cet effort de long terme en cédant au découragement et aux contingences de court terme. 

Car les idées sont là, pertinentes, en phase avec le potentiel scientifique et technique. Et même sur le sujet controversé de  la  baisse des charges, un dispositif lourd a été mis en place. Le CICE (Crédit d'Impôt pour la Compétivité et l'Emploi) organise depuis janvier 2013  une réduction massive du coût de la main-d'oeuvre de l'ordre de 20 milliards €. La mesure a été critiquée pour sa complexité. Néanmoins rien ne permet d'enrayer le chômage de masse dont les causes sont anciennes, profondes et complexes. Les messages positifs ne suffisent pas à écarter les nuages alimentés par un climat morose et le manque de puissance des discours politiques.

Les gouvernants ne sont certes pas responsables de l’embauche individuelle. Mais leur stratégie doit contribuer à desserrer les freins qui pèsent sur la décision individuelle. On constate que les grandes réformes ne fonctionnent pas vite et butent sur les contraintes de court terme, trésorerie, carnet de commande, contexte économique mondial. Les entrepreneurs persistent à penser qu'embaucher est difficile et contraignant. Or la compétitivité ne se décrète pas. C'est un travail  de longue haleine qui porte sur la qualité de l'offre, sur l'image de marque, sur la qualité des services, les prix n'étant qu'un facteur parmi tous les éléments qualitatifs qui influencent les clients.

Il faut donc avancer sur le plan macroscopique en déminant les obstacles de façon pragmatique et décentralisée sur les sujets qui conditionnent les performances économiques futures, et donc la qualité et la standard de vie : formation, notamment en alternance, embauche des jeunes; soutien aux jeunes entreprises, renforcement des liens entreprises-écoles-universités,  innovations dans le domaine de la santé. L'économie est au coeur de la réussite d'un pays même si les sujets sociétaux peuvent se réveler  mobilisateurs pour stimuler  l'innovation et l'investissement, comme la lutte contre l'accidentologie routière ou le cancer. 

Mais plus que toute grande stratégie de réforme, lente et complexe, l'économie française doit se réinventer sur une base décentralisée, fondée sur les initiatives locales et l'entrepreneuriat. Les grandes entreprises à vocation mondiale peuvent y contribuer efficacement en soutenant les écosystèmes par un flux de commandes, de prises de participation dans les start-up, de prêt de personnel qualifié. Il ne faut pas attendre de réformes globales pour commencer à se prendre en charge. Tout repose sur un sursaut individuel. Maintenant. 

 

Sources et références

https://fr.wikipedia.org/wiki/Green_Bird

[i] Marie-Noëlle Lienemann, Le Monde, 25 mars 2016


Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


Le CES, un irremplaçable observatoire de la révolution numérique

 

S’il fallait résumer l’esprit de l’opus 2016 du CES, il faudrait insister sur le fait que l’innovation ne réside pas dans la pertinence d’une idée, mais dans la force de son déploiement. Bien entendu le CES 2016 fourmille d’idées nouvelles et les 250000 m2 des stands de  cette exposition hétéroclite et chatoyante recèlent des pépites qui deviendront certainement dans cinq ans d’évidents grands succès. Il suffit, pour se convaincre de la vitalité de la création numérique, d’arpenter les allées du Sands où sont installés les start-ups de l’Eureka Park ou exposés les Awards de l’année, distinction fort prisée à l’impact commercial convoité. Les idées foisonnent, la conviction des créateurs est contagieuse. Et la forte présence des stands de la French Tech rassure sur la capacité de notre pays à  innover, d’autant plus qu’on y rencontre de fortes délégations de dirigeants français, emmenés par Emmanuel Macron ou Pierre Gattaz.

375ece3498429295cb54f95f9cd0fe3b297af8c3

Mais la force qui émane du CES est la démonstration vivante du passage de l’idée au déploiement massif. D’année en année, la reconfiguration dynamique des espaces du CES, partagé désormais entre l’historique LVCC, Las Vegas Convention Center, et le Sands, dont il a chassé le salon de l’érotisme, montre bien, symboliquement,  la nature de la révolution numérique. C’est dans la vitesse et la profondeur de la propagation des idées neuves que se jouent les transformations. C’est dans l’adaptation permanente des structures, des comportements, des pratiques sociales que la métabolisation des percées techniques se transforme en innovation sociétale. Le CES, avec la souplesse d’adaptation de ses structures physiques, de ses programmes de conférences, le choix de ses conférenciers est la démonstration vivante et symbolique de la révolution numérique.

S’il a fallu soixante ans pour électrifier la France, il n’a fallu que huit ans pour que le concept imaginé par Steve Jobs d’un ordinateur mobile, pouvant téléphoner, léger et autonome, couplé à un magasin d’applications, séduise la totalité de la planète. C’est parce que la simplicité de ce modèle a convaincu les utilisateurs d’y adhérer sans réserve qu’aujourd’hui des milliards de smartphones, de tous prix, peuvent accéder à des millions d’applications, gratuites ou très peu couteuses, couvrant à peu-près toutes les situations, tous les besoins, tous les désirs. Le smartphone - dont on ne peut plus vraiment dire qu’il est un « téléphone », même intelligent, tant la partie de communication vocale s’est marginalisée pour ne représenter plus que 15% des usages - est devenu la porte d’entrée incontournable de toute application numérique.  Il s’en est vendu 1,4 milliard en 2015. C’est cette universalité, garantie par une standardisation des interfaces et l’interopérabilité des techniques, qui confère sa pertinence au smartphone, couplé à un foisonnement d’applications.

C’est aussi parce que l’industrie est passée d’un modèle d’intégration verticale, qui était la force de l’informatique des années soixante-dix à quatre-vingt-dix avec les exemples d’IBM ou de DEC, à un modèle  de « monopoles de couches », unifié par les techniques de l’internet, que l’on peut disposer d’une grande souplesse dans les solutions et dans les usages. Seul Apple, qui a toujours ignoré le CES,  apporte aujourd’hui le contre-exemple, brillant, d’un industriel qui réussit à maitriser l’ensemble de la chaine de valeur, des matériels au système d’exploitation et aux logiciels. Cette stratégie solitaire est payante car même dans le segment en déclin des PC, il est le seul à progresser.

Le CES illustre bien la nouvelle structure de l’industrie. L’universalité de l’accès renvoie au rang de commodités les outils – PC, tablettes, hybrides, smartphones – qui ne sont plus les vedettes du CES tant la profusion de modèles et leurs capacités analogues ne constituent plus un facteur de choix essentiel. Alors que mondialement le marché des PC est en décroissance continue (-10% encore en 2015) , les nouvelles générations de smartphones sont jugées peu innovantes et ne se jugent que par la taille de leurs écrans dans un marché où les positions des constructeurs sont figées, les clients démontrant une grande fidélité à leur marque. Le marché des smartphones pourrait atteindre rapidement la saturation. Le marché des tablettes n’a pas pris le relais attendu, mais les hybrides – tablettes avec clavier aux performances d’un PC – semblent profiter de l’atonie des marchés des produits matures pour émerger.  Les clients sont devenus pragmatiques. Ils conservent plus longtemps leurs appareils et construisent leur propre pratique d’usage à travers divers outils de façon souple et personnalisée. Ceci rend d’ailleurs incontournable le développement des pratiques de « BYOD », Bring Your Own Device, tant l’appropriation individuelle est forte.

L’âge de l’accès, c’est bien sûr les écrans, de toutes tailles, de toutes natures. L’image est omniprésente. Toute information est appelée à être visualisée sur un écran, fixe ou mobile, partagé ou intime. La course à la performance continue d’année en année. Après la Haute Définition, c’est la 4K, à 4096 pixels,  qui s’impose. La 8K est déjà présente. L'adoption par l'industrie du standard HDR s'inscrit dans cette volonté d'accroître le réalisme des images. Les écrans LED font de la résistance face aux OLED, encore plus lumineux et économes en énergie, dont la mise au point industrielle en grande série se révèle plus complexe que prévu. Seul LG semble en maitriser la production au point d’en inonder son stand, alors que Samsung fait la promotion de son interprétation de la UHD, Ultra Haute Définition. La taille des écrans de salon ne cesse d’augmenter, et leur prix de baisser. La qualité progresse continûment sans que les industriels ne soient en mesure d’en profiter tant la compétition est intense. La télévision en 3D, apparue si prometteuse en 2011, n'a pas atteint sa cible commerciale faute de contenu et par manque de confort de vison et les constructeurs n'en parlent plus. On voit toutefois encore quelques tentative d'écrans 3D sans lunettes. Toutefois la qualité d'image procurée par la 4K donne une impression de profondeur qui rend la 3D inutile.

Les industriels japonais sont frappés par cette course en avant, Panasonic est le seul à vouloir se maintenir, le stand Sony est terriblement triste alors qu’il était un des points d’attraction des dernières années. Sharp, pourtant innovant avec son quatrième pixel, jaune, n’est plus là. Toshiba non plus.  Parmi les industriels chinois, seul Hisense semble maîtriser la technique et le design pour être une alternative aux constructeurs coréens, ses confrères Haier et Hank Kong ne sont pas encore au niveau international.

Pour une manifestation qui fut longtemps exclusivement un salon du matériel, image et son, l’enjeu est d’intéresser aux usages par définition, multiples et immatériels.

C’est pourquoi le CES tend aujourd’hui à mettre en scène les usages avec une remarquable capacité d’adaptation.

Le numérique s’infiltre dans les métiers traditionnels comme l’automobile et l’habitat, mais fait aussi naître de nouvelles activités comme les objets connectés sportifs, les drones, les imprimantes 3D, les robots. Les stands attribués à tous ces métiers ne cessent d’année en année de grandir.

La mutation  des drones

Près de cinquante stands montrent des drones, qui n’étaient présents au cours des années précédentes que de façon anecdotique. Perrot, qui en fut l’initiateur, n’est plus qu’un acteur parmi d’autres. Mais les drones se diversifient en tailles en en usages. Leur professionnalisation est impressionnante. De jouets ils sont devenus incontournables dans l’industrie de l’image pour leurs capacités de prise de vue spectaculaire et peu onéreuse. Ils sont auxiliaires de force de sécurité et de surveillance. Armés de caméras infrarouges, ils contrôlent la performance thermique des bâtiments. Ils aident enfin à l’optimisation des cultures. Le drone s’imagine même comme moyen de transport logistique ou de passager.

L’imprimante 3D devient un centre d’usinage

Les imprimantes 3D vivent la même mutation. Initialement coûteuses et lentes pour être limitées à quelques objets basiques, elles connaissent une diversification spectaculaire pour constituer un outil industriel crédible. Toutes les matières sont accessibles, y compris le métal. Et la technique additive permet de produire des objets complexes en 3 D en petites séries. Non seulement elles s’imposent pour tout ce qui est maquette et prototype, mais elles deviennent de véritables centres d’usinage permettant de gérer tout le processus de production, en scannant n’importe quel objet pour le reproduire avec précision. La vitesse d’opération augmentant, la productivité de ces machines rend crédible leur présence dans les ateliers. C’est donc une révolution industrielle qui s‘engage progressivement, l’imprimante 3D s’inscrivant dans la démarche plus large de l’optimisation industrielle 4.0.

L’automobile un objet de consommation électronique

L’automobile, qui n’était présente dans un passé récent dans le hall Nord que sous forme de kits monstrueux d’amplificateurs de son est aujourd’hui riche de nombreux stands centrés sur le savoir-faire numérique des constructeurs. Presque tous les constructeurs sont là.  De même, ils participent désormais activement aux keynotes. Après Mercedes et Ford dans les éditions précédentes, cette année ce sont Volkswagen et GM qui ont voulu démontrer leur expertise dans les véhicules connectés et autonomes. De façon plus générale, la mobilité est à l’honneur avec son corollaire numérique, la géolocalisation. Les équipementiers Valeo, Bosch, comme Here, l’ancien Navteq, sont très présents.

Capture d’écran 2016-01-19 à 23.49.15

C’est bien entendu les capteurs, radars, lidars (télédétecteur laser) qui sont à l’honneur. Ils permettent, associés aux logiciels temps réel de reconnaissance de formes et de géolocalisation fine d’analyser l’environnement du véhicule pour aider le conducteur à prendre les meilleurs décisions, avant, stade ultime de la délégation de conduite, de le faire à sa place.  Tous les constructeurs montraient leur savoir faire en la matière, notamment Hyundai, mais c’est le fournisseur historique de cartes graphiques Nvidia qui démontraient avec le plus de pédagogie son expertise.

Le monitoring du moi

Dans la grande famille, en expansion continue, des objets connectés, le « monitoring du moi » occupe une place centrale. Il ne reste plus de fonction qui échappe à la possibilité de suivre en direct ses performances ! Que ce soit l’activité  sportive, sous toutes ses formes, le poids, la tension, le rythme cardiaque, tous les paramètres font l’objet de capture et de traitement sous forme de courbes et de conseils . On peut même connaitre la composition exacte des aliments que l’on consomme et avoir un conseil alimentaire personnalisé. Les grandes marques d’équipements sportifs comme Polar ont une expérience en mesure de l’activité sportive et proposent une gamme de produits pointus. Fitbit, Withings continuent à étendre leurs gammes plus grand public. La montre connectée devient un marché généraliste de grande con sommation. Aux Etats-Unis, un foyer sur dix disposait en 2015 d’un tracker d’activité représentant un chiffre d’affaires de 1,8 milliard $.

Le confort et la sécurité du domicile

Marché ancien, naguère fractionné, analogique et propriétaire, la domotique connait grâce au numérique une nouvelle jeunesse. Tout est connecté au web et accessible par l’intermédiaire du smartphone. Au carrefour de plusieurs préoccupations, la sécurité anti-intrusion, la sécurité des personnes, le confort thermique et la maîtrise de la consommation énergétique, la domotique embarque de nouvelles fonctionnalités en créant des liens entre différentes activités. Connaissant le rythme de vie des personnes de la maison, et leurs habitudes, il est désormais possible de gérer dynamiquement la température, l’éclairage, mais aussi la qualité de l’air, les habitudes musicales, les programmes de télévision, voire même les repas grâce au réfrigérateur connecté. Tous les capteurs installés dans la maison et dans les appareils peuvent orchestrer  des scénarios de vie. L’usage de ces outils pour le maintien à domicile des personnes âgées est un facteur naturel d’équipement et de services de télésurveillance et télédiagnostic. Si l’inventivité des fournisseurs est sans limite, se posent les questions de l’interopérabilité de ces capteurs et de ces fonctions, mais aussi celle de leur installation et de leur maintenance. Qui peut gagner la bataille de la maison ? Les fournisseurs historiques d’équipements cherchent à résister aux nouveaux acteurs numériques pour devenir le tiers de confiance du domicile. Il faut souligner le travail effectué par La Poste grâce à son hub numérique pour occuper cette place convoitée d’intégrateur.

Capture d’écran 2016-01-19 à 23.48.24

Foisonnant, vibrant, le CES 2016 confirme sa place de lieu emblématique de la révolution numérique qui se déploie dans tous les métiers, sous toutes les formes, dans tous les pays. C’est un carrefour dont on ressort saturé d’images, de sons, de messages dont il faut tirer les éléments de compréhension des potentialités et des risques du tsunami numérique. Il est impératif  à partir de ces données de construire des principes d’action lucides et résolus pour en bénéficier sans en être submergé.