Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/


Au CES 2018, la donnée est au coeur de la révolution numérique

Rendre compte simplement du CES devient une tâche impossible tant cet événement mondial couvre désormais tous les aspects de la vie contemporaine. Y détecter les innovations les plus frappantes est complexe car l’évolution de la société numérique ne se fait plus par des percées sur les objets, mais par nappes d’interactions. On peut aussi tenter d’appréhender l’ampleur du CES par des chiffres sur des paramètres physiques : probablement cette année, autour de 180 000 visiteurs, 250 000 m2 de surfaces d’exposition, 4 000 produits nouveaux, 7 000 journalistes, des centaines de conférences. Mais cette abondance de chiffres impressionnants ne suffit pas à illustrer ce qu’est vraiment devenu le CES. A l’origine marché consacré à l’électronique grand public aux Etats-Unis, le CES, qui a perdu en 2016 l’appellation « consumer », est en effet devenu au fil des ans la plus grande manifestation mondiale dédiée au cœur de l’économie du XXIe siècle, c’est-à-dire la production et l’exploitation des données.

Capture d’écran 2018-01-15 à 10.40.25

D’année en année, l’organisation des stands des exposants, comme les thématiques des conférences et fameux keynotes, délaissent le strict champ du produit pour se concentrer sur l’analyse et les conséquences de la généralisation du traitement des données. Certes, on peut encore voir des produits spectaculaires qui dans 5 ans seront largement diffusés, comme les écrans 8K. Ou échouer comme la télévision en 3D. Mais si le CTA, qui organise le CES, a choisi comme thème fédérateur « Let’s go humans », c’est pour tenter d’apporter une réponse à la question de la place de l’humain dans un avenir où tout ce que nous produisons, pensons et vivons génère une empreinte numérique. Homo sapiens a vécu depuis ses origines dans un univers physique qu’il cherchait à comprendre avec ses moyens limités. Il en construit désormais une image numérique, un double de plus en plus fidèle, sur lequel il peut agir.  La cohabitation entre la réalité physique perceptible et son double numérique interroge sur la nature du système socio-technique que cette hybridation entre le physique et le virtuel va produire. La modélisation numérique de la vie appartient à l’homme qui l’a construite progressivement depuis les débuts de l’informatisation. Mais les risques de dépassement de l’homme par des machines devenant progressivement « intelligentes » doivent être analysés avec lucidité et sans sensationnalisme.

Au début de l’ère du web, on se plaisait à dire que chaque année on avait produit plus de données que depuis le début de la civilisation. On ne compte plus désormais tant les chiffres sont vertigineux et deviennent insaisissables.  En effet, l’accélération apportée par la généralisation du smartphone dont maintenant plus de trois milliards de terriens sont équipés est elle-même amplifiée par la production de données par les milliards d’objets connectés implantés chaque année dans les entreprises, les foyers, la cité.  Chaque activité humaine produit des informations qui couvrent un spectre de plus en plus large de paramètres physiques. La démocratisation des capteurs rend facile la saisie d’informations sur la température, la pression, le niveau sonore, le poids, la vitesse, l’accélération, la composition physico-chimique, la localisation de tout, personnes, biens, phénomènes physiques et biologiques. La capacité à saisir, analyser et restituer ces données est désormais sans limite. Les capteurs, les réseaux de télécommunication, les serveurs, les algorithmes de traitement et les interface homme/machine variées constituent un système puissant et global dont les capacités s’étendent constamment. Seules les odeurs restent, pour l’instant, à l’écart de cette démarche de transformation de toute chose en données numériques.

Ces données élémentaires servent à construire des modèles qui restituent aux acteurs, quels que soient leur rôle, une image de l’environnement qui les entoure pour le mettre en mesure de le comprendre et prendre de meilleures décisions que celles induites par l’expérience, la culture, l’instinct ou le réflexe. Le stand de Dassault Systems illustre parfaitement cette aptitude nouvelle que nous avons à modéliser tout phénomène et toute structure complexe pour comprendre et agir, que ce soit le cœur humain ou la ville de Singapour.

Ce processus de rationalisation a plusieurs conséquences directes. Il permet de mieux analyser les interactions qui régissent les phénomènes complexes et donc d’être en situation d’anticiper pour être plus efficient. Il offre aussi la possibilité de confier la responsabilité de prendre certaines décisions à des programmes informatiques pilotant directement des automates, robots et actionneurs divers pour libérer l’homme de tâches répétitives et sans valeur ajoutée. Mais aussi, progressivement, la connaissance approfondie que les programmes tireront des données qu’ils accumulent et analysent leur permettra de prendre des décisions dans des domaines plus complexes sans que l’intervention humaine ne soit plus nécessaire.

Parmi les évolutions les plus spectaculaires visibles au CES 2018,  les avancées du véhicule autonome  confirment la capacité de plus en plus complète de confier au seul véhicule le processus de conduite. Certes, il y a encore beaucoup de travail pour doter un véhicule de tous les composants - capteurs, logiciels, moyens de communication - capables en toutes circonstances de pleinement se substituer à ce que l’homme est capable de faire. Mais, de façon méthodique, on repousse sans cesse les limites des capacités d’autonomie des machines et on estime qu’il faudra moins de dix ans pour lancer dans le trafic des véhicules véritablement autonomes, c’est dire de niveau 5, sans intervention humaine. Les problèmes se situent d’ailleurs aujourd’hui d’abord dans la capacité des automobilistes à accepter cette évolution qui les exclut du poste de conduite, en supprimant ce qui a été un des moteurs marketing de cette industrie, le plaisir de conduire. L’acceptabilité est beaucoup plus forte en Chine qu’en Europe ou aux Etats-Unis, pays où la voiture est encore associée à une forte aspiration de liberté. Il faut aussi résoudre de problème complexe de l’organisation de la responsabilité. Il est impératif de codifier de façon précise, à travers des scénarios de conduite, ce que tout conducteur est en mesure de faire instinctivement, et la tâche se révèle fort complexe.

L’exemple de l’automobile et de la mobilité, ceux de la santé, de la gestion de la ville, du libre choix du mode de vie à travers la consommation et la vie privée ont explorés au cours des conférences. A un modèle libéral fondé sur un équilibre « naturel » entre la capture des informations privées et les bénéfices que les personnes en retirent, s’oppose un modèle européen de réglementation publique qui s’incarne dans le RGPD (Réglement général sur la protection des données) qui va s’appliquer à partir de 2018 en Europe, mais aussi partout où des citoyens européens sont impliqués. La Chine, pressée d’affirmer son leadership technique avec une population avide de technologies nouvelles avance sans inhibition avec ses géants comme Baidu et Ali Baba.

Présentes dans chacune des révolutions techniques antérieures, les interrogations sur la capacité de l’homme à maîtriser cette création prennent désormais une dimension particulière. Il ne s’agit plus de se doter d’une prothèse musculaire, mais d’entrer dans le domaine dont l’homme conservait l’exclusivité, la réflexion et la décision. Le passage de l’ère de la main-d’œuvre à celle du cerveau-d’œuvre qui ouvre des potentiels considérables à la capacité d’action de l’homme sur son avenir ne peut pas laisser indifférent tant les risques de manipulation de la conscience et de contrôle des choix sont réels.

Pour les entreprises et organisations publiques, les conséquences sont capitales.

Le CES n’a fait que renforcer les convictions acquises par les modèles offerts désormais par les performances techniques des grands acteurs. Il n’y a plus de place pour une informatique émiettée, balkanisée et tout aujourd’hui doit s’orchestrer autour d’une vision homogène, une infrastructure unique, souple et capacitaire, un traitement des données performant et une capacité à distribuer l’information à tous les acteurs en temps réel et de façon contextuelle dans le format requis pour la meilleure prise de décision. Mais plus encore, la réflexion doit porter sur le sens du traitement de l’information au service des entreprises et des communautés. Quel impact sur les libertés publiques, quel impact sur la liberté de choix et de conscience, entre personnalisation qui isole, recommandation qui limite, organisation de la cité qui anonymise et contrôle ? Le débat qui a eu lieu dans chaque conférence au CES est un bon signal de cette prise de conscience. Mais on sent bien que le cœur de la société de la donnée mérite encore beaucoup d’attention, individuelle et collective, dans les entreprises et les Etats, mais aussi au plan international. Les bénéfices de cette transformation sont immenses et il serait absurde de s’en priver. Nous ne pouvons prendre ce risque face aux défis de notre planète. Les compromettre par un manque de discernement, de pédagogie et de lucidité serait encore plus nocif.


De la complexité, de l'échec et de la SNCF

Nous sommes dans un monde physique. Avec ses lois, ses contraintes, la masse, le temps, l'énergie, l'espace.  Tout s'y mesure. Mais nous avons inventé son double numérique. Et nous voulons que le jumeau physique du jumeau numérique se comporte sans défaut, sans délai. Nous mesurons chaque jour  que c'est une tâche immense, peut-être impossible.  Nous voulons que dans le monde physique tout fonctionne sans défaut, sans neige glissante les samedis de transhumance d'hiver, sans rats qui s'attaquent aux gaines des câbles électriques, sans gel qui fait éclater les canalisations, sans rivières qui débordent, gorgées  de pluie et entrainent des glissements de terrain. Nous sommes en colère parce que nous constatons que l'espérance de vie de la civilisation c'est en gros 24 h, la durée d'autonomie des batteries de nos téléphones portables. A Saint-Martin, un tempête nous a montré l'extrême vulnérabilité de la dimension physique du vaisseau spatial Terre. Et nous protestons contre cette terrible injustice, être menacés dans notre confort, dans notre survie même par le vent et l'eau.

Notre tentative rassurante de tout rationaliser, modéliser, construire de façon idéale se heurte aux adhérences de notre système industriel qui souffre d'être né il y a si longtemps que même le smartphone n'existait pas. Elle se heurte aux faiblesses de nos organisations, ballotée par les politiques, les dirigeants, les changements intempestifs de direction, les hésitations qui ont fait, par exemple, séparer la SNCF de son réseau physique pour ouvrir en 1997 la voie, au sens propre, de la concurrence. Et puis on s'est dit quand même que c'était pas si simple et on a refermé en 2015 cette parenthèse en réinventant un nouveau système artificiellement séparé en deux, le réseau physique et la circulation des trains, mais au sein d'une même entité juridique. Et tout ceci prend du temps, de l'argent, de l'attention. Pendant ce temps là, le temps poursuit son oeuvre corrosive. Et il faut réparer à marche forcée en faisant pression sur les hommes et les éléments, et les ressources... 

La SNCF c'est un réseau de 30000 km de rails, d'appareils de voie, d'outils de signalisation, de ballast et de caténaires. Du solide qui parfois casse. Défaut d'entretien dit-on. La réalité est complexe, l'homme démiurge veut la soumettre à son désir d'absolu. Le réseau, tout réseau, ce n'est pas une abstraction sur un bel écran. C'est vieux, compliqué, soumis à l'usure, au temps. L'aventure du rail a commencé en 1832 en France. Elle est essentielle pour nos territoire et notre prospérité. L'efficience du réseau, et sa sécurité sont des composants indissociables de notre vécu collectif. S'il est insupportable de laisser en rade les voyageurs du week-end, ce serait pire encore de prendre le risque d'un accident. 

Les pannes à la SNCF illustrent ce terrible conflit entre notre désir d'idéal épuré d'un monde lisse et sans incident et la réalité des cicatrices que le temps et la fatigue impriment sur les choses. Cette crise doit nous mettre en garde. Il y en aura d'autres. Tous les secteurs sont fragilisés par l'accroissement des attentes, l'impatience du résultat parfait dont nous sommes chacun porteurs. Aux effet plus graves, peut-être. Il est notre devoir de travailler pour éviter que cela survienne. Mais aussi de nous préparer à en minimiser l'impact. Il faut investir avec clairvoyance, renforcer les compétences, développer l'ingénierie car faire rouler des trains, mais aussi produire de l'électricté, des voitures , des soins, ce n'est pas du marketing, mais cela met en oeuvre une alliance subtile entre l'intelligence et la matière. Et dans la méthode il faut surtout  ne pas blâmer tous ceux qui font leur travail quotidien avec professionnalisme. Plutôt que des coupables, il faut chercher les causes et les remèdes. 

http://bfmbusiness.bfmtv.com/mediaplayer/video/sncf-a-quand-un-service-de-qualite-0412-1010179.html

Capture d’écran 2017-12-05 à 22.36.19

 


Le marché automobile évolue-t-il : le test des nouveautés 2017 ?

Il y a le discours officiel des constructeurs, la volonté des pouvoirs publics… et la réalité du terrain. Dans la presse économique, il n’est plus possible d’aborder la question du futur de l’automobile sans que soient détaillées les menaces qui pèsent sur ce produit emblématique du XXe siècle. Elles sont majeures. Car elles impliquent à court terme la réduction de l’espace qui lui sera consacré et le durcissement des conditions d’usage, surtout en ville. Plus radicalement, l’interdiction future des voitures à « gaz de pétrole » est inscrite dans la plupart des agendas politiques.

Pour autant, est-ce que ces nuages noirs influent sur l’offre disponible en concession, est-ce que le marché amorce une évolution sensible préparant ces échéances futures ? Qu’en pense la presse automobile, acteur majeur de l’opinion sur l’automobile ?

Ce passage de la vision stratégique à la réalité opérationnelle est au cœur de toute grande transformation. Comment mesurer cela ? Toute méthode ayant ses imperfections, il m’est difficile de prétendre que celle que j’ai choisie est la meilleure. J’ai simplement choisi un numéro d’un magazine[1] représentatif de la presse automobile, présentant un dossier « exceptionnel » sur 100 nouveautés à l’essai.

La lecture détaillée des fiches consacrées à ces essais et le traitement simple des données livre un panorama de l’offre de véhicules nouveaux de cette fin d’année 2017. Ce qui est intéressant c’est que les échéances dont parlent les maires des grandes villes et les ministres en charge de l’environnement dans les grands pays sont désormais inférieures à l’espérance de vie des modèles neufs qui seront vendus en 2018. Quand on évoque une interdiction en 2040, cela parait très loin. La réalité est qu’une bonne moitié des voitures en circulation sur la planète rouleront encore dans quinze ans. On a de sérieuses chances de retrouver encore en pleine forme sur les routes en 2032 les modèles illustrés dans ce panel de fin 2017. En effet, les voitures actuelles sont mieux conçues, mieux construites, sont plus fiables et roulent moins.

1920px-FoS20162016_0624_132444AA_(27785299372)

L'extravagante Bugatti Chiron peut-elle encore faire rêver ?

Cet inventaire des nouveautés met aussi en évidence ce que les rédacteurs de ce journal ont envie de mettre en avant dans leur propre vision du monde automobile comme ce que les lecteurs ont envie de lire. Il est évident que les 1500 chevaux et 420 km/h de la Bugatti Chiron ont peu de chances de peser sur l’atteinte des objectifs de la COP 21. Néanmoins, le fait qu’elle puisse exister et que l’on fasse rêver avec ce type de véhicule est signifiant.

Livrons-nous à un décryptage de ce dossier.

Sur les 100 véhicules choisis par la rédaction, 53 affichent une puissance égale ou supérieure à 150 cv. Mais pour donner encore plus de place à la frugalité, 26 dépassent 250 cv. Cette hyper représentation d’une catégorie de véhicules qui représente quelques pourcents du marché traduit un attachement de la presse automobile à la voiture puissante et statutaire dont la performance reste théorique car personne ne peut utiliser ces chevaux sur la route. Elle démontre aussi que les constructeurs restent attachés pour des raisons de prestige à la conception de véhicules hors normes qui leur assure auprès d’un public traditionnel une image forte et, quand ils vendent ces véhicules, ce qui est marginal, de robustes marges. Le marché français est en effet beaucoup moins centré sur la gamme supérieure que la moyenne européenne : 7% contre 13% en Union Européenne. A l’inverse la gamme économique et inférieure représente 52% des ventes, contre 41% en Union Européenne, la gamme moyenne supérieure étant à 13% contre 18% pour la moyenne européenne. De fait la puissance moyenen des véhicules neufs vendus en France ets de 86 kW contre 95 en UE,  108 en Allemagne, 122 en Suisse et 102 en Grande-Bratagne.

Dns ce panel de cent véhicules figurent toutefois six voitures électriques et dix hybrides dont  4 rechargeables, de même qu’un véhicule au GPL.

Les véhicules diesel sont désormais minoritaires : 36 contre 44 modèles essence et 10 hybrides essence.  Toutefois ce sont des véhicules puissants puisque les petites cylindrées ne sont plus équipées de motorisation diesel en raison du coût et de la complexité du dispositif de traitement Euro 6. Ce panel amplifie la baisse réelle de part de marché des véhicules diesel observée en 2017 par rapport à 2016. Le diesel représente désormais, avec 47,6% des immatriculations des voitures particulières, moins de la moitié des ventes. Cette baisse est rapide.

Sur le plan des performances affichées, la vitesse reste le critère de sélectivité le plus courant. La vitesse de pointe annoncée – hors voitures à haute performance – s’établit en moyenne à 184 km/h sur ce panel. 40 voitures affichent même une vitesse de pointe supérieure à 200 km/h. La consommation moyenne annoncée est de 6,8 l/100 et 22 modèles affichent plus de 8 l/100. La sobriété et la discrétion ne sont pas les critères privilégiés, même pour les hybrides rechargeables souvent surpuissantes.

Il faut aussi noter que le poids des véhicules essayés est rarement en baisse et dépasse allégrement 1500 kg. La consommation et les émissions en pâtissent naturellement, mais n’apparaissent pas dans l’article comme une préoccupation. Au contraire, le poids est mis en avant comme argument pour critiquer le manque de puissance des moteurs.

Certes ce panel hétéroclite est arbitraire, mais résulte néanmoins de choix conscients. Il renvoie, dans un magazine de grande diffusion, à une image traditionnelle de l’automobile qui laisse une part essentielle à la puissance, à la vitesse et au statut. Mais l’émergence des véhicules hybrides et électriques traduit une inflexion significative. Absents il y 5 ans, ils sont l’avant-garde d’une mutation automobile qui s’installe sans hâte mais devrait connaitre d’ici 2020 une accélération majeure annoncée par les plans produit des constructeurs.  En 2016 en France les véhicules électriques ont représenté 1,1% du marché et les hybrides 2,9%, soit au total 80000 unités.

Iu-2Automatique, électrique, la navette Transdev

A l’heure de la COP 23, comme du Smart City Expo World Congress, qui s’est tenu mi-novembre à Barcelone, où l’on prépare un monde sans carbone, on peut déduire de cette analyse que les vieilles recettes ont la vie dure car la résistance du moteur à essence et des « belles mécaniques » est vive, même si une autre histoire commence timidement à s’écrire.

 

[1] N° du 3 novembre 2017 d’Auto Plus


La voiture sans essence va révolutionner la ville

Les annonces se multiplient. Lassés d'investir dans les infrastructures routières sans réduire les encombrements ni les émissions toxiques et de gaz à effet de serre, les dirigeants de la planète ont décidé de changer drastiquement les règles du jeu. Si la voiture est un symbole de liberté individuelle et a largement contribué au XXe siècle à libérer les individus en leur offrant la faculté de découvrir les grands espaces sans contrainte, elle se révèle contre-productive en ville où la liberté de se mouvoir ne peut être garantie à chacun avec un véhicule individuel. Les contraintes foncières, le réchauffement qu'induit la circulation automobile massive dans un espace limité, l'allongement des temps de transport individuel condamnent l'usage de la voiture individuelle en pleine propriété. La toxicité de l'automobile, notamment diesel, est désormais prouvée et les industriels qui ont tardé à le reconnaître et tentés par des manoeuvres frauduleuses de cacher leur impossibilité de faire face aux problèmes liées aux courtes distances sont aujourd'hui sur la sellette.

Iu

Les transports publics, qui ont partout dans le monde progressé en efficacité et en confort sont la seule solution de transit de masse acceptable. Ils doivent être complétés par des solutions individualisées, comme le taxi, l'autopartage les navettes automatiques et le co-voiturage, et bien évidemment avec des modes de propulsion sans rejet local. Cette transformation de la ville est désormais un choix politique assumé par les plus grandes villes du monde. Les Etats ont fixé une date : 2040. A partir de ce moment-là il n devrait plus être possible de commercialiser des voitures à "gaz de pétrole". Les industriels, les utilisateurs, les flottes ont le temps de s'adapter. Mais cette annonce concomitante partout dans le monde laisse furieux les amateurs de grosses cylindrées. Qui regrette les 11000 fiacres parisiens de 1907 et leurs cargaisons de crottins ?  Il est possible de gérer cette mutation nous en en avons le temps, nous en avons besoin et surtout les villes deviendront des lieux de vie et de travail confortables. L'innovation que cette mutation va induire est multiforme et sera source d'emplois et de compétences nouvelles. C'est un enjeu majeur de civilisation.

Si les débats sur les causes sont aujourd'hui clairement établis, les solutions vont faire l'objet dans les années à venir d'âpres controverses. or il faut que le débat soit documenté pour être serein, démocratique et permettre à chacun, collectivités, industriels, urbains, citoyens de trouver des réponses appropriées.

https://www.franceinter.fr/emissions/le-telephone-sonne/le-telephone-sonne-17-octobre-2017

https://www.lesechos.fr/idees-debats/cercle/030699740970-jean-pierre-corniou-lautomobile-nest-plus-une-solution-pour-les-villes-2121718.php


Science et usage, la dialectique de la transformation

1/ Le monde est bouleversé, hier comme aujourd'hui, par l'ingéniosité, la curiosité et l'instinct de survie des hommes qui les poussent à découvrir sans cesse de nouvelles réponses aux questions qu'ils se posent et aux problèmes qu'ils génèrent. Pour cela ils inventent des concepts, des outils, des méthodes qui repoussent les limites antérieures, défient les pouvoirs, mettent à bas les croyances... et font émerger de nouveaux problèmes, de nouvelles questions. Cela s'appelle le "progrès". Mais si l'humanité a toujours été secouée périodiquement par une remise en cause brutale de ses acquis, ce que nous vivons au XXIe siècle  est marqué par l'accélération sans précédent des savoirs.

Capture d’écran 2017-09-13 à 11.06.51

2/ Nous sommes les premiers terriens à vivre une révolution scientifique et technique, planétaire, qui nous permet de construire un "modèle artificiel "de notre existence, à travers des capteurs, des réseaux, des mémoires, des processeurs qui multiplient dans des propositions extraordinaires (c'est à dire imprévisibles) notre capacité de modélisation antérieure. Si Pic de la Mirandole avait connu Google, si Einstein avait eu accès au calcul à haute performance, si Leonardo avait connu la modélisation en 3D ! Avec ce modèle, nous pouvons mieux comprendre comment nous fonctionnons, nous pouvons mieux prévoir et agir sur notre environnement, et donc le modifier. Il est même devenu envisageable de propulser les terriens hors de notre planète. Nous sommes passés d'un progrès incrémental, avec des périodes de fortes poussées, comme la fin du XVIIIe siècle, ou les années 1890-1914, à un progrès exponentiel. Cela nous met ans une situation enviable par rapport aux 115 milliards de terriens qui nous ont précédé. Mais cela provoque aussi de nouvelles angoisses car nous touchons à l'essentiel de notre condition humaine, notre relation avec la mort. Nous commençons à considérer la mort non plus comme une fatalité, attachée à notre destin, et compensée par nos croyances religieuses, mais comme un accident technique évitable.

3/ Cette immense source de savoir  disponible est un défi considérable pour tous ceux qui faisaient commerce (lucratif) d'une fraction infime du savoir actuel, et parmi mille, les notaires, médecins, prêtres, politiciens, enseignants, contrôleurs de gestion et surtout les dirigeants politiques et économique qui avaient inventé le système hiérarchique pyramidal pour se mettre au sommet et cadenasser l'accès... ! Leur source de revenu et de pouvoir, la rareté de la connaissance, est tarie. Rendre facile l'accès au savoir et à la capacité de faire que cela apporte à chacun les fait frémir. Cette source de mépris et d'humiliation qui créait un fossé infranchissable entre les sachants et les ignorants n'a plus de raison être. Le cerveau d'œuvre fonctionne en réseau maillé collaboratif, sa capacité de reprogrammation est illimitée car elle s'appuie sur l'intelligence collective qui n'est plus verrouillée par une petite minorité.. 

4/ Cette situation révolutionnaire conduit à des violentes résistances, à de retours sanglants à la barbarie (Daesch prétend régler tous les détails de notre vie en fonction des pensées primaires d'un soldat du VIIe siècle) , au culte de l'ignorance (dont Trump est un grand prêtre). Les dirigeants les plus obscurs s'attaquent à la science, veulent remettre en cause les théories scientifiques comme celles de l'évolution au profit des croyances religieuses ... Bien sûr la technique qui est à l'origine de notre capacité actuelle doit être connue, enseignée à tous, pour être exploitée par tous à la source, le code, et démystifiée. Mais c'est bien l'usage qui est révolutionnaire, en sachant bien que sans Pascal, Babbage, von Neumann, Turing, et Vint Cerf , et quelques autres, nous n'en serions pas là. C'est dans l'usage quotidien d'outils de transports, de communication, de gestion de notre santé, de nos relations avec les autres que s'incarnent les avancées scientifiques, rapidement métabolisées par nos pratiques quotidiennes au point même que nous oublions les prouesses scientifiques qui ont rendu possible cette banalisation de l'usage.

C'est cela le système socio-technique, le ying et le yang de la science et de l'usage.

Capture d’écran 2017-09-13 à 11.12.18


Cybersécurité, l'enjeu industriel

Fullsizeoutput_2720

L'économie numérique a engendré son double maléfique, le monde sombre de la cyber criminalité. Les attaques se suivent. Et vont continuer. Cette situation n'est pas surprenante, elle est vieille comme l'humanité. Les compétences développées pour mettre en place en moins de trente ans une économie fluide, mondiale, fondée sur l'échange d'informations et de connaissance, sont aussi utilisées pour développer la criminalité et poursuivre par des moyens violents la compétition séculaire entre nations et groupes sociaux. La cyber criminalité s'est installée durablement comme une branche du crime organisé et des politiques d’intimidation entre états. 

L'enjeu de la sécurité se joue donc sur deux plans distincts : 

- celui des individus et des entreprises dont l'intégrité physique peut être engagée par des offensives criminelles opérées depuis internet

- celui des États, confrontés au traitement d'une nouvelle forme d'insécurité qui menace leurs intérêts vitaux et leur souveraineté, et où ils se retrouvent aussi bien prédateurs que proies.

Identifier en permanence les menaces, comprendre les faiblesses, se mettre en situation de réagir pour diminuer les dommages causés, puis organiser la riposte sont autant de techniques éprouvées dans l'histoire qui doivent aujourd’hui se déployer dans l'univers numérique. La puissance publique, garante de la sécurité des citoyens, et de la stabilité du cadre économique, ne peut durablement laisser le privilège de l'offensive aux forces de déstabilisation et de destruction de l’ordre. Comme pour chaque évolution technique, les forces criminelles savent capter l'innovation au service de leurs intérêts plus rapidement que la société ne se met en situation de gérer ces menaces nouvelles, tant par la réglementation que par la répression.

Mais l'ampleur des enjeux dans une économie mondialisée et sur le chemin d'une numérisation totale n'a plus rien à voir avec la menace que pouvait faire peser sur les banques à la fin de la guerre « la bande des tractions »,  gangsters technophiles, avec leurs Citroën traction avant plus rapides que les voitures de la police. La menace est omniprésente et protéiforme, l’ingéniosité des cyber attaquants sans limite. Ils n’ont pas de règles, de processus, de budgets à respecter. Leur agilité est totale, ce qui les rend totalement dangereux.

Il ne faut donc plus considérer la sécurité comme une activité marginale car elle s'insère désormais au cœur de la conception des systèmes et doit être présente dans chacun des usages. Tout étant désormais numérisé et connecté, tout devient vulnérable. Cette politique de sécurité change de nature. Elle sort du périmètre des organisations, limité à quelques règles simples gérées par des spécialistes. Elle est désormais centrale, systémique, cohérente et a pour objectif d'assurer une continuité totale des opérations tout au long de la chaîne de valeur. Elle implique chacun au quotidien tout en devenant une discipline à part entière, hautement technique.

Si tous les États s'équipent pour faire face à ces nouvelles menaces, l'Etat d'Israël, compte tenu de son histoire, de sa taille et de sa vulnérabilité a été un des premiers à mettre en place une organisation puissante dès 2002, la NISA, National Information Security Authority, couvrant aussi bien les acteurs privés que les autorités publiques. Mais, c’est dès 1952 que l’armée israélienne avait constitué une unité spécialisée dans le renseignement électronique, l’unité 8200, qui est considérée comme le creuset de toute la pensée de l’Etat israélien en matière de cyber défense. Ses membres ont essaimé dans toute l’industrie et constituent une élite aux postes de responsabilité publics comme privés. 

Depuis 2011 la structure centrale, au cœur du système public et privé de défense contre la cybercriminalité, se nomme Cyber Bureau et dépend du Premier ministre.

Autour de ce rôle fédérateur de l'Etat, s'est développé un écosystème complet qui est reconnu pour sa créativité et joue un rôle de leader dans le monde. On estime que 25% des dépenses de R&D mondiales consacrées à la cyber sécurité sont effectués en Israël. Et les sociétés israéliennes, dans le secteur militaire comme dans le civil ont atteint un haut degré de performance et sont actives dans le monde entier, et principalement aux Etats-Unis avec lesquels se sont tissés des liens étroits. La plupart des grands entreprises mondiales du secteur disposent d'un centre de recherche en Israël dédié à la cybersécurité. L’Etat a encouragé la création d’un pôle spécialisé dans la cybersécurité dans le désert du Néguev à Beer’Sheva.

La sécurité prend une dimension nouvelle avec le déploiement du contrôle numérique des infrastructures et des installations industrielles. Même isolés du réseau internet, ces équipements dépendent aujourd'hui d'un fonctionnement numérique. 80 % des systèmes industriels sont de fait connectés à internet par l'intermédiaire de certains de leurs composants. Les grandes infrastructures vitales, comme les réseaux ferrés, les aéroports, la distribution électrique, les systèmes d’approvisionnement, dépendant pour leurs performances de logiciels et d’outils informatisés. Leur sécurité de fonctionnement dépend de multiples facteurs qu’il faut inventorier et monitorer sans relâche. Ce sont précisément ces fonctions que les nouveaux outils de cyberdéfense instrumentent. Dans le domaine grand public, les produits connectés, conçus aujourd'hui, sont eux la plupart du temps connectés directement au réseau IP par Wi-Fi. Cette facilité d’usage présente aussi une grande vulnérabilité.

Les bénéfices clients de cette connexion sont devenus vitaux. L'Internet des objets est fondé sur les avantages que donne la connexion de tous les composants d’un système, permettant la collecte des données et l'intervention à distance, tissant un système dont les bénéfices ne sont liés qu'à l’interopérabilité et au traitement des données connectées.  Les futurs réseaux intelligents, avec les véhicules autonomes, ne pourront livrer leurs promesses qu’au prix d’une sécurité sans aucune faille.

Ce besoin de connectivité bilatérale, fiable, impose de conférer au traitement des problèmes de vulnérabilité des réseaux connectés une place centrale. Le premier facteur de protection est de connaître les composants de ces nouveaux ensembles, en identifiant leurs propriétés, c’est-à-dire les paramètres de leur fonctionnement nominal, mais également leurs vulnérabilités. Mettre en place des outils de traitement des seules vulnérabilités aux frontières de l’entreprise - comme la gestion des identifiants et des pare-feux - ne suffit plus. Il faut identifier les composants du système global et mettre en œuvre les règles de sécurité adaptées à chaque composant. Il n'est plus possible d'additionner des outils dans des architectures de plus en plus complexes sans les connaître et les comprendre.

Le seul moyen de gérer cet ensemble composite est de développer l’automatisation en confiant à des robots et à des logiciels de soin de gérer les tâches quotidiennes d’authentification, de suivi, de mesure et d’analyse des flux pour en tirer une vision dynamique et identifier les situations anormales. L’accent est désormais mis dans la recherche de l’anticipation des attaques en comprenant les comportements de leurs auteurs, en anticipant les cheminements des logiciels infectants, en multipliant les pièges pour les traquer avant qu’ils ne deviennent actifs. Les spécialistes de sécurité ont en charge, dans ce modèle, l’architecture générale de la cybersécurité, l’analyse des comportements, l’anticipation et la veille technique. Ils ont également un grand rôle de sensibilisation et de formation. Les opérationnels doivent désormais intégrer dans leurs missions la responsabilité du suivi en temps réel du système.

De fait, la montée de l’insécurité numérique oblige à considérer que si qu'internet a été conçu de façon brillante, il est sorti depuis longtemps de son objet initial. C'est un outil qui se trouve désormais au cœur de l'économie mondiale et attire toutes les convoitises. Il doit subir un sérieux lifting et être enrichi pour intégrer la sécurité "by design".  A court terme, il est impératif de donner aux professionnels de la cybersécurité les outils et les moyens nécessaires, et développer massivement la formation. Pour fixer le niveau d’effort, il faut mentionner que, dans les administrations israéliennes, le budget de cybersécurité doit être fixé à 8% du budget informatique…


L'impossible consensus... ou comment malgré tout y parvenir !

Chaque individu abrite plusieurs personnages aux intérêts contradictoires. Nous jouons chacun de ces rôles alternativement avec conviction. Et nous nous attendons à être chaque fois pleinement satisfait sinon nous sommes furieux et frustrés. Cette colère devient rapidement, quand on est français, révolte. Forcément légitime. Et bien sûr nous attendons de nos gouvernants qu’ils satisfassent chacun de nos personnages avec un zèle égal.

Comme « fournisseur de service », que ce service soit une prestation intellectuelle, ou une prestation technique ou physique, soit simplement des heures de notre liberté qui nous sont prélevées par un patron, nous attendons, et si besoin, revendiquons une juste rémunération de notre contribution.

Comme « client », nous attendons, voire nous exigeons, d’avoir une qualité irréprochable pour le prix le plus bas possible, ceci au pied de notre porte et sans délai.

Comme « épargnant », même modeste, nous voulons que le sacrifice de notre non-consommation de revenu soit, d’une part, sécurisé contre les aléas économiques, et d’autre part justement rémunéré pour en tirer un revenu additionnel. Nous sommes allergiques aux risques mais friands d’une confortable sécurité.

Comme « contribuable », nous considérons que chaque centime arraché à notre poche et à notre libre arbitre pour être confié à des mains inexpertes de fonctionnaire anonyme est une pure spoliation, l’objectif de chaque contribuable étant de payer le moins possible pour lui en faisant payer les autres.

Comme « citoyen », nous exigeons des routes en parfait état, des écoles qui fassent de chacun de nos enfants des génies, des hôpitaux qui guérissent de tous les maux, une police exemplaire, une armée moderne, bien équipée, efficace pour nous protéger, une « vraie » politique familiale, une retraite confortable. Et tout ceci évidemment pour un coût tendant vers zéro…

Il y a donc en chacun d’entre nous, tout à tour, une montagne d’exigences qui doivent être satisfaites par… les autres. Car nous sommes hélas entourés d’incapables. Les patrons qui ne trouvent pas les bonnes commandes au bon moment, les enseignants qui font des fautes d’orthographe et bien sûr les transmettent à nos gamins, les salariés-du-public-en-grève, les syndicats, et au cœur de tout cela, deux responsables majeurs : le CAC 40, entité aveugle et anonyme, et les banques, cupides et prédatrices. Je pourrais ajouter, mais ce serait certainement excessif, que parmi les incapables majeurs qui nous nuisent avec acharnement il y a les étrangers, uniquement quand ils nous concurrencent comme fournisseurs de services, pas quand ils contribuent au paiement des factures collectives comme contribuables, et surtout le grand Satan coupable de tout cela, l’Europe. Certaines raffinent le modèle et les campagnes électorale sont un festival de vœux pour éliminer tous les obstacles à notre bonheur de citoyen, de contribuable, de fournisseur, de consommateur et d’épargnant…

Regardons de plus près le fonctionnement de ce modèle. Le fournisseur de service, de son temps, de son travail, de ses compétences, veut être mieux rémunéré de son effort. C’est légitime. Mais vu de l’entreprise qui intègre cette contribution dans le prix de revient total du produit ou du service qu’elle va mettre sur le marché, la rémunération devient un coût. Si ce coût de production ne permet pas de vendre le produit plus cher, il deviendra trop cher aux yeux du consommateur qui veut lui limiter les coûts de ses acquisitions. Donc le consommateur qui cherche les prix les plus bas nuit à son voisin de palier fournisseur qui veut les revenus les plus hauts. Le contribuable qui veut réduire sa facture d’impôt en cherchant à dissimuler des revenus ou acheter sans taxe, au noir ou en contrebande, nuit au citoyen qui veut les meilleurs services publics. On estime à une soixantaine de milliards le coût de la fraude fiscale directe. Toute fraude, même mineure, est une atteinte au partage de la contribution collective aux services que l’Etat fournit aux citoyens. L’épargnant qui exige les taux d’intérêt les plus élevés nuit à l’investisseur qui va créer des activités et des emplois par le financement de biens productifs et qui a besoin de payer le moins cher possible les capitaux dont il a besoin. Nous devons bien comprendre que l’économie est un jeu à somme nulle, les gains des uns étant les coûts des autres. La croissance, l’ouverture internationale et l’inflation, déforment cette mécanique de redistribution en augmentant les opportunités car le cadre devient plus large et les flux plus importants. Cette vision implique une compréhension de la difficulté des arbitrages. Chacun de nous sait par expérience qu’une dépense va accroître notre satisfaction immédiate au détriment de notre épargne. Mais l’épargne peut nous offrir une satisfaction différée et donc aléatoire car le long terme est un pari. Il en est de même pour une collectivité nationale qui va préférer donner immédiatement satisfaction aux électeurs-citoyens par une augmentation d’une prestation de rentrée scolaire, par exemple, plutôt que d’investir pour le long terme sur le développement du haut débit mobile. Mais ce ne sont pas les mêmes décideurs, les mêmes mécanismes, les mêmes budgets et les mêmes effets induits. Les arbitrages personnels, comme les arbitrages collectifs, sont donc des choix difficiles qui ne peuvent garantir à chacun le même niveau de satisfaction. Par ailleurs tout ceci se déforme dans le temps !

Cet impossible consensus, qui pourrait mener à des tensions inacceptables, et se traduit périodiquement par des crises, nécessite pour être toutefois résolu que les acteurs économiques acceptent des compromis. La transparence, le débat, la négociation et le respect des arbitrages sont donc indispensables dans une économie complexe. Le marché y pourvoie, pour partie seulement car le signal prix, s'il fonctionne bien, ne suffit pas à résoudre tous les problèmes. C'est bien parce que le consommateur tend à remporter sur le producteur que l'on transfère la fabrication de sèche-linge de France en Pologne.

Le débat collectif, documenté, le vote fréquent sur des questions précises doivent être largement exploités pour rendre les arbitrages et leur conférer une autorité forte pour éviter la remise en cause systématique des décisions prises. Ainsi écrivait Condorcet en 1794 : « Ainsi, l’on n’osa plus partager les hommes en deux races différentes, dont l’une est destinée à gouverner, l’autre à obéir ; l’une à mentir, l’autre à être trompée ; on fut obligé de reconnaître que tous ont un droit égal de s’éclairer sur tous leurs intérêts, de connaître toutes les vérités, et qu’aucun des pouvoirs établis par eux sur eux-mêmes, ne peut avoir le droit de leur en cacher aucune. » Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain.

Ce travail est encore loin d'être accompli. Il est pourtant la clef de la recherche de solutions collectives dont nous avons besoin pour continuer à progresser.


Propos de campagne

 

Si le blog reste le support du temps long, Facebook et Twitter sont les champs du débat en temps réel. Néanmoins certains propos dépassent le temps instantané pour toucher des ressorts plus profonds sur une vision de l'évolution de la démocratie dans un monde global et numérisé. C'est pourquoi j'ai repris ici mes commentaires faits sur Facebook car, à leur relecture, il me semble qu'ils éclairent l'ampleur du débat qui divise, non seulement la France, mais tous les grands pays qui voient leur monde ancien, celui de leur suprématie impériale et coloniale, s'effriter et laisser la place à un monde où les acteurs nouveaux n'ont nullement peur du progrès. Car se plaindre de la mondialisation dans le Pas-de-Calais est légitime, mais pour les centaines de millions d'Indiens, de Chinois, de Vietnamiens et autres peuples qui sont sortis en cinquante ans de la soumission coloniale et du sous-développement, la mondialisation et le numérique ont précisément été le vecteur de leur accession à la prospérité. Comprendre d'où on vient, pour essayer de donner une vision du futur et des objectifs reste la base des grand rendez-vous démocratiques que sont les élections.

Capture d’écran 2017-04-24 à 11.34.34

La réflexion sur l'impact de la transformation technique sur notre contexte économique  social et culturel est depuis onze ans l'unique philosophie de ce blog qui tente de ramener dans le champ du rationnel  les débats de l'époque.

13 avril

Cette hystérie qui caractérise les débats sur les réseaux sociaux traduit bien l'extrême faiblesse de la culture politique dans une société où on "like" et on zappe sans discernement... Si on croit qu'au-delà des images de salles plus ou moins vides, des drapeaux et de chants, on vote pour Mister ou Missiz France 2017, on se trompe lourdement. On est pas dans Top Chef. Non que le président de la République soit l'alpha et l'omega de la vie publique, mais quand même il faut choisir quelqu'un qui incarne la France à l'étranger, qui anime une équipe gouvernementale confrontée à 2000 milliards de dettes , qui soit, accessoirement, le chef des armées avec des zozos comme Poutine ou Trump. Il faut donner envie et espoir à tous ceux qui produisent dans ce pays pour développer notre compétitivité et notre attractivité, former les nouvelles générations à un monde complexe et exigeant. Une vision et une ambition qui apportent du sens, mais surtout laissent chacun les interpréter dans son environnement personnel. Car ce qui compte c'est d'accélérer le mouvement de transformation de notre pays dans les fondamentaux : initiative individuelle, créativité, qualités techniques, respect de l'environnement, respect mutuel. Il faut écarter l'émotion, car cinq ans d'émotion, ce sera long, pour identifier la personne la mieux apte à favoriser ce cadre qui permettra à chacun, dans sa sphère, d'avoir envie de résoudre les problèmes. Il est vain de penser qu'un président va "créer" des emplois, soigner les malades, sauver la biodiversité. Arrêtons la pensée magique. Soyons pragmatiques pour fabriquer un cadre propice à la résolution des problèmes de notre communauté nationale dans le cadre plus large des interactions qui nourrissent la vie de notre planète dont on ne peut ignorer aujourd'hui qu'elle constitue un système unique.

21 avril

Au terme de cette campagne qui n'a pas été percutante au niveau de la lucidité économique, nous sommes confrontés en tant que citoyens à un terrible dilemme. Ce n'est pas tant le choix du président qui compte, mais surtout celui de la méthode. La situation économique de la France qui croule sous les déficits et n'a depuis des années qu'une croissance anémique n'offre que peu de marge de manœuvre. L'équation économique est pesante mais claire : retrouver des moyens pour financer nos besoins structurels induits par notre territoire, notre population, notre rôle international, les besoins cruciaux de montée en compétences de tous, les risques sociaux, communautarisme, ghettoïsation, exclusion. Quel que soit le point de vue adopté, nous ne pourrons nous entendre sur les solutions que si nous sommes d'accord sur le diagnostic... Or nous avons besoin d'une vision systémique avant de plonger dans les solutions sectorielles. Il y pour moi un point incontournable, les solutions ne peuvent en aucun cas se trouver dans la poursuite de l'augmentation infinie du déficit public en fonctionnement. Nous avons atteint les limites de l'exaspération en matière de prélèvements. Il faut donc chercher l'efficience du moindre euro de prélèvement public en examinant à la loupe toutes les poches d'inefficience. C'est un travail qui doit être conduit de façon décentralisée en motivant les agents publics sans donner le sentiment de les punir. Car le paradoxe de l'action publique est que malgré le niveau considérable des prélèvements, les services publics sont très souvent mal dotés en moyens de fonctionnement appropriés. Il faut donc provoquer avec les agents publics une révolution de la productivité du secteur public. Pour retrouver du dynamisme productif, il faut s'appuyer sur le tissu économique local, fédérer les PME autour des grandes entreprises de taille mondiale, orienter l'éducation vers les compétences utiles à l'exercice professionnel, abaisser les charges sur les salaires les plus faibles, autant de règles de bon sens dont il faut éliminer l'interprétation idéologique. Après c'est une question de pondération, de pédagogie collective, de négociation et d'équilibre de tout ceci. L'arme atomique qu'est la sortie de l'euro et de l'UE représente un risque systémique majeur. Une dévaluation compétitive n'a qu'un effet de court terme lorsque le tissu économique est fragilisé. Le problème est que nous ne devrions pas avoir besoin des conseils de l'UE ou de Mc Kinsey pour construire le diagnostic et décider. Pourquoi serions-nous incapables de raison, tous seuls, sans voir besoin de se faire admonester par le FMI, l'OCDE, l'UE, le WEF, tous agents de Satan de l'impérialisme anglo-saxon à entendre la plupart des candidats qui n'ont jamais vraiment travaillé en entreprise ?? Qu'est ce qui pourrait changer durablement dans ce pays pour retrouver de la sérénité dans l'analyse des problèmes et dans l'exécution de plans opérationnels de solution ? Arrêtons la dramatisation révolutionnaire, cessons d'exacerber le sentiment que nous, peuple le plus génial de la Terre, nous sommes persécutés par tous les autres, n'adorons pas les idoles du passé, le "grand roman national", le CNR, Mitterrand, Castro, et même de Gaulle qui était un personnage du XIXe siècle plus que du XXIe. Ne cherchons pas le salut dans la fuite improbable, éphémère rideau de fumée qui nous laisserait encore plus seuls face à nos problèmes et à l'ironie du monde. Vision cohérente de notre futur, pragmatisme de l'exécution, décentralisation responsabilisée, confiance dans la capacité individuelle à relever les défis dans le respect mutuel, tel sera mon choix..

21 avril

Au terme de cette campagne qui n'a pas été percutante au niveau de la lucidité économique, nous sommes confrontés en tant que citoyens à un terrible dilemme. Ce n'est pas tant le choix du président qui compte, mais surtout celui de la méthode. La situation économique de la France qui croule sous les déficits et n'a depuis des années qu'une croissance anémique n'offre que peu de marge de manœuvre. L'équation économique est pesante mais claire : retrouver des moyens pour financer nos besoins structurels induits par notre territoire, notre population, notre rôle international, les besoins cruciaux de montée en compétences de tous, les risques sociaux, communautarisme, ghettoïsation, exclusion. Quel que soit le point de vue adopté, nous ne pourrons nous entendre sur les solutions que si nous sommes d'accord sur le diagnostic... Or nous avons besoin d'une vision systémique avant de plonger dans les solutions sectorielles. Il y pour moi un point incontournable, les solutions ne peuvent en aucun cas se trouver dans la poursuite de l'augmentation infinie du déficit public en fonctionnement. Nous avons atteint les limites de l'exaspération en matière de prélèvements. Il faut donc chercher l'efficience du moindre euro de prélèvement public en examinant à la loupe toutes les poches d'inefficience. C'est un travail qui doit être conduit de façon décentralisée en motivant les agents publics sans donner le sentiment de les punir. Car le paradoxe de l'action publique est que malgré le niveau considérable des prélèvements, les services publics sont très souvent mal dotés en moyens de fonctionnement appropriés. Il faut donc provoquer avec les agents publics une révolution de la productivité du secteur public. Pour retrouver du dynamisme productif, il faut s'appuyer sur le tissu économique local, fédérer les PME autour des grandes entreprises de taille mondiale, orienter l'éducation vers les compétences utiles à l'exercice professionnel, abaisser les charges sur les salaires les plus faibles, autant de règles de bon sens dont il faut éliminer l'interprétation idéologique. Après c'est une question de pondération, de pédagogie collective, de négociation et d'équilibre de tout ceci. L'arme atomique qu'est la sortie de l'euro et de l'UE représente un risque systémique majeur. Une dévaluation compétitive n'a qu'un effet de court terme lorsque le tissu économique est fragilisé. Le problème est que nous ne devrions pas avoir besoin des conseils de l'UE ou de Mc Kinsey pour construire le diagnostic et décider. Pourquoi serions-nous incapables de raison, tous seuls, sans voir besoin de se faire admonester par le FMI, l'OCDE, l'UE, le WEF, tous agents de Satan de l'impérialisme anglo-saxon à entendre la plupart des candidats qui n'ont jamais vraiment travaillé en entreprise ?? Qu'est ce qui pourrait changer durablement dans ce pays pour retrouver de la sérénité dans l'analyse des problèmes et dans l'execution de plans opérationnels de solution ? Arrêtons la dramatisation révolutionnaire, cessons d'exacerber le sentiment que nous, peuple le plus génial de la Terre, nous sommes persécutés par tous les autres, n'adorons pas les idoles du passé, le "grand roman national", le CNR, Mitterrand, Castro, et même de Gaulle qui était un personnage du XIXe siècle plus que du XXIe. Ne cherchons pas le salut dans la fuite improbable, éphémère rideau de fumée qui nous laisserait encore plus seuls face à nos problèmes et à l'ironie du monde. Vision cohérente de notre futur, pragmatisme de l'exécution, décentralisation responsabilisée, confiance dans la capacité individuelle à relever les défis dans le respect mutuel, tel sera mon choix..

21 avril

Evidemment, le terrorisme s'invite dans l'isoloir. Face à ces menaces diffuses, impossibles à juguler sans instaurer un état policier, les surenchères verbales sont de peu de poids. La fermeté déclamatoire ne sert à rien, car même les pays les plus experts en la matière ne peuvent rien contre la détermination suicidaire d'un homme seul. Néanmoins il faut lutter avec la plus totale énergie contre les idéologies attentatoires à la liberté de conscience et d'expression, dont le radicalisme religieux est une forme particulièrement toxique. Il n faut rien céder au communautarisme, lutter pour libres les femmes du joug patriarcal, développer l'éducation sans cesse, lutter contre les croyances en faisant de la laïcité un modèle de liberté et de confiance en l'homme. Mais aussi éviter que la misère et le desepoir ne constituent le terreau dans lequel fermentent ces croyances délétères.

24 avril

Le scrutin n'est pas surprenant : il y a bien toujours deux France, mais ce ne sont plus une France de gauche contre une France de droite partagées par une conscience de classe. La fracture, douloureuse, est entre une France ouverte sur la transformation socio-technique, métropolisée, mondialisée, numérique, écologique et une France qui a le sentiment d'avoir perdu cette bataille, périphérique, insuffisamment formée, impuissante à comprendre car non préparée, mais, contrairement aux Etats-Unis nullement abandonnée par la première par le jeu des transferts sociaux considérables qui sont l'honneur de notre pays. C'est une France de nomades contre une France sédentaire. Certains pensent que c'est voulu parce qu'ils voient dans cette situation la main invisible des prédateurs, des banques, du CAC 40, des journaux. Une version nouvelle des 200 familles.

D'autres, dont je suis, n'ignorent pas que le partage de la valeur ajoutée a toujours été un combat, et qu'il y a et aura toujours des prédateurs dans un jeu inégal mais qu'il faut consacrer plus d'attention à la production localisée des richesses qu'à leur distribution irraisonnée. Sont-elles réconciliables ? Et surtout pourquoi les opposer durement. Elles ont besoin l'une de l'autre car nous sommes ensemble un pays unitaire dont la caractéristique unique est justement la solidarité. Il faut donc trouver les moyens de réduire cette fracture par la redynamisation des territoires dépréciés, l'entrepreneuriat de proximité, la formation ininterrompue, la réforme des mécanismes de sécurité sociale pour les rendre plus efficients, une stratégie de sortie des énergies fossiles, la reconnaissance du besoin d’une école dissymétrique qui donne plus à ceux qui en ont le plus besoin…