CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..


Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau http://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie http://www.iconomie.org


L'impasse française : oser la comprendre pour mieux en sortir

Quelques expatriés japonais qui aiment la France, lassés de voir les rues et squares de Paris mal entretenus, y ont créé une association, les Green birds, qui organise des expéditions de nettoyage collectif. Ce fait, humiliant, est symbolique. Ce pays qui jouit d’une position géographique, d’un climat et d’un patrimoine exceptionnels, suscitant l’envie de toute la planète, perd sa lucidité au point de négliger le fondement même de son attractivité, son aspect physique ! Plus encore, il parait normal à tout parisien fumeur de jeter son mégot au sol car c’est l’expression d’une valeur bien française, la liberté… Et ne paye-t-on pas des impôts pour exercer ce droit inaliénable, même au risque très peu probable  de devoir payer 68 € d’amende?

La France vit sans cesse le grand écart entre l’expression bravache de grands principes qui ont fait sa réputation et une incapacité très concrète à les mettre en pratique. C’est sûrement pour mieux concrétiser nos valeurs que le chef de l’Etat a cru nécessaire de créer un secrétariat d’Etat à « l’égalité réelle » qui doit être un cas unique dans les 193 états membres des Nations Unies !

Les causes sont… ailleurs !

La France vit avec beaucoup de difficultés un double changement historique: une perte d’influence mondiale et un ralentissement durable de son économie. Ces deux tendances lourdes se traduisent par une réduction de la population en emploi et donc du revenu disponible, alors que les frais de structure d’un grand territoire, morcelé en une multitude de collectivités, restent identiques. Cet effet ciseau a des conséquences immédiates : poids des transferts sociaux, dégradation des infrastructures, alourdissement des déficits. L’économie française, privée des armes classiques des pays en difficulté – la dévaluation, l’inflation, l’accroissement sans limite des déficits –, incapable, faute de consensus, de résoudre quelques problèmes structurels récurrents, est paralysée et ne progresse plus. Plutôt que d’en comprendre les causes, la classe politique, soutenue en cela par une partie notable de l’opinion, préfère s’en tenir à une vision archaïque de la défense du « modèle français », voir même, sans hésitation, du « génie français »[i] remis au goût du jour par tous les partis.

Dans cet exercice récurrent d’autojustification, dont le débat sur la loi Travail offre un florilège, le reste du monde s’acharne à attaquer la France dans ses valeurs républicaines et la superbe de son modèle. Bruxelles, l’euro, les Etats-Unis, l’inflexible Allemagne ou la perfide Albion, la Silicon Valley et l’immonde hydre du GAFA, la Chine avec ses industriels copieurs et ses salaires bradés, constituent une coalition hétéroclite mais efficace au service de la mondialisation, bras armé d’une revanche contre la France éternelle, celle de la joie de vivre, de l’humanisme, des valeurs du XVIIIe siècle. Qu’on soit nationaliste, populiste, écologique, de gauche ou de droite, on partage largement le sentiment que si nous trainons la patte dans la plupart des classements mondiaux, c’est parce que l’arbitre est clairement du côté de l’adversaire. Comme le répètent à l’envi nos dirigeants, la France est un « grand » pays qui ne mérite certes pas ce sort. Mais comme le disait le très regretté Pierre Desproges, nous n’y sommes pour rien parce que, simplement, « les étrangers sont des cons », sentiment largement répandu dans tous les bistrots de France.

La loi d’airain des classements

Mesurer la situation réelle de la France en termes de situation économique, éducative, technologique, sanitaire n’est pas très difficile. Les organisations de l’ONU, l’OCDE, le FMI publient des statistiques et analyses qui sont corroborées par des études menées par des organismes privés comme le Word Economic Forum. De cette masse d’informations, il ressort que le recul de la France est réel et se mesure sur une série d’axes objectifs.

Avec moins de 1% de la population mondiale, et un PIB de 2423 milliards $ en 2015 qui la classe au 6e rang mondial, la France n’est que 21e pour le PIB par habitant. Chaque France vit beaucoup moins bien qu’un Suisse, dont le PIB est 2,2 fois le sien, qu’un Suédois (1,3 fois supérieur) ou qu’un Canadien (1,2 fois) sans parler des britanniques ou des allemands. Au classement mondial de l’IDH (indice de développement humain), qui intègre le PNB par habitant, le niveau d’études et l’espérance de vie à la naissance, la France est 22e. Cette réalité chiffrée contraste avec les chants de gloire de nos gouvernants successifs.

Faire une liste exhaustive des preuves de ce déclin de long terme serait impossible. Mais au-delà des indicateurs significatifs de résultat, qui traduisent l’impact actuel de décisions anciennes, il faut aussi s’intéresser aux indicateurs qui traduisent une capacité à faire, qui conditionne les résultats futurs.

Une des clefs de l’avenir économique est la maîtrise des composants de la société numérique. Parmi ceux-là, figurent les réseaux de télécommunications haut débit et les logiciels. Selon le rapport 2015 sur les technologies de l’information du World Economic Forum, la France occupe le 26e rang mondial pour son degré de préparation à intégrer les technologies numériques (indice NRI : Networked Readiness Index). La France souffre d’un handicap en matière de couverture de son territoire en haut débit, fixe et mobile. Ce fait est reconnu et chaque gouvernement en fait une priorité… L’objectif d’Eric Besson, secrétaire d’Etat à l’économie numérique, était ainsi, en avril 2008, de « donner à l'ensemble de ses concitoyens et pour chacun des territoires l'accès à l'Internet haut débit fixe et mobile, ainsi qu'à la télévision numérique terrestre, à l'horizon 2012 ». Le plan Très haut débit de Fleur Pellerin dit en 2013 la même chose, pour… 2022. Après avoir bien réussi le déploiement de l’ADSL, la France a négligé le haut débit fixe et se situe en 2016 au 26e rang mondial pour le raccordement en fibre optique et 59e pays mondial pour le taux de couverture en 4G.

Le second sujet d'avenir est l'éducation. Dans une économie où le  niveau scientifique et technique va être de plus en plus exigeant, l'éducation est le facteur clef de compétitivité. L’enquête PISA de 2013 montre une dégradation du niveau des élèves français au cours des dix dernières années en mathématiques où les performances se situent désormais dans la moyenne. Plus encore l'école française est de plus en plus inégalitaire.  L’origine sociale des enfants dans leurs résultats pèse plus en France que dans les autres pays de l’OCDE. De manière générale, l’inégalité de la différence de niveau entre les élèves croît en France depuis 2003 ! Chiffre très révélateur : la proportion d’élèves issus de l’immigration se situant au dessous du niveau 2 en mathématiques atteint 43 % en France et ne dépasse pas 16% en Australie et au Canada. Le retard de l'apprentissage en France est largement reconnu et chaque gouvernement s'en indigne, sans résultat. En matière d’informatique scolaire, en l’attente périodique d’une « grand plan numérique pour l’école », qui se résume le plus souvent à des équipements, les résultats des enquêtes de l’OCDE, qui situe la France légèrement au dessus de la moyenne, démontrent qu’il n’y a pas de miracle numérique et l’impact de l’usage des outils numériques est d’autant meilleur que les enseignants sont formés et les programmes adaptés.

Il n’y a que sur le plan démographique que la France qui jouit d’un système reconnu de soutien à la petite enfance atteint un taux de fécondité constamment proche de 2, le meilleur de l'Union européenne avec l'Irlande, qui écarte tout risque de vieillissement prématuré, même si le vieillissement biologique inévitable des baby-boomers va se traduire par une augmentation importante des plus de soixante ans dans la population, avec les dépenses de santé inhérentes à cette tranche d’âge.

Changer, mais comment ?

Depuis vingt ans les rapports s'accumulent,  les ouvrages se multiplient, les rayons croulent sur les solutions de chaque homme politique mais la situation continue à se dégrader. Ce n'est donc pas dans les constats et les programmes que se situe "la" solution. Il faut donc admettre enfin qu’il faut réagir individuellement. Nous ne pouvons plus glisser sur la pente fatale de l’appauvrissement en attendant un miracle venu "d'en haut", homme providentiel ou situation magique. Le sursaut ne peut venir que d'une envie partagée de ne pas se résigner au déclin.

Toutefois cette réaction individuelle peut aussi être  un constat d’échec collectif, motivant un départ de la France. Beaucoup de Français, lucides et actifs mais impatients, préfèrent quitter ce pays pour aller développer leurs talents ailleurs, Londres, la Californie, l’Australie, ou le Canada. Les retraités partent au Portugal ou au Maroc au risque de se désocialiser. Si ce phénomène est largement médiatisé, il ne bouleverse pas encore les équilibres fondamentaux puisqu'il n'y a officiellement que 1,566 million de français recensés à l'étranger, chiffre certes en hausse de 17% entre  2006 et 2013, et surtout au profit des pays proches comme la Suisse, la Grande-Bretagne, la Belgique... Toutefois, ce qui est le plus préoccupant dans ce flux de départ, c'est qu'il touche de plus en plus les jeunes diplômés.

Rester pour construire un avenir meilleur en France est la solution la plus simple et la plus évidente. Avant, toute mesure technique fiscale ou sociale, c'est la confiance sur la capacité collective des Français de faire face aux problèmes par un désir de renouveau et d'engagement qui peut stimuler cette motivation. Retrouver une place acceptable dans les classements mondiaux sera un résultat ultérieur heureux de cette capacité de réaction retrouvée.

Or ce pays a la capacité d’offrir à tous les entrepreneurs et à tous les entreprenants le territoire de leurs ambitions.

La France dispose de tous les moyens techniques pour prendre toute sa place dans la société numérique. C’est bien en misant totalement sur les technologies numériques, qu’elles soient exploitées dans les industries classiques ou déployées dans des usages nouveaux. Il ne faut plus chercher à corriger les défauts structurels de notre modèle économique, il faut résolument tourner la page du XXe siècle, car le modèle a totalement changé, pour attaquer les sources de richesse et d’influence futures. Elon Musk dit que « le passé est notre plus mauvais conseiller « .

Le changement est scientifique et technique. Le numérique, omniprésent, aide à redéfinir les standards de performance dans tous les secteurs, agriculture, industrie, services et service public. On peut, partout, faire mieux, plus vite et moins cher. Mais de peur de déstabiliser des processus établis depuis longtemps, qui ont figé les hiérarchies, les normes, les contrôles, les modèles de management, dans le modèle antérieur du productivisme industriel, on - et derrière ce « on » anonyme il est possible de mettre beaucoup de gens - diffère les changements. On plaide pour les réformes alors que chacun s’enferme dans le conformisme prudent et paresseux. Tout le monde sait qu’il faut simplifier les règles, partout. Et il est très commode d’incriminer le seul secteur public alors même que le plupart des entreprises ont réinventé une bureaucratie qui casse l’initiative et valorise le conformisme. Or simplifier implique toujours l’abandon de systèmes inutiles, auxquels sont associés des équipes, des personnes, des dirigeants. Ce sont autant de talents qui pourraient largement être utilisés à mettre en œuvre les innovations qui vont nous permettre de progresser en efficience plutôt que s'acharner à pérenniser des modèles obsolètes.

Industrie-futur371

Intelligence artificielle, sciences cognitives, biotechnologies, énergie décentralisée, automobile à faible consommation, technologies de l’habitat, biotechnologies agricoles, aéronautique, lutte contre le cancer et les maladies neurodégénératives, nouvelles techniques de la confiance ( blockchains…) voici autant de sujets clefs où il faut investir massivement, avec de l’intelligence et des capitaux. Ces thèmes sont traités dans les neufs dossiers de « la nouvelle France industrielle ». Mais il y a encore beaucoup de réticences à abandonner un saupoudrage des moyens. La lisibilité des messages en souffre. Faute de clarté et de simplicité dans les engagements, dans un climat de scepticisme et de défiance, on n'obtient pas de résultats suffisamment rapides et visibles pour en tirer toute l’énergie nécessaire au changement. Les conséquences de cet engagement indispensable pour l'industrie du futur mettront des années à avoir un impact sur l'emploi.. et le moral ! Mais il ne faut pas relâcher cet effort de long terme en cédant au découragement et aux contingences de court terme. 

Car les idées sont là, pertinentes, en phase avec le potentiel scientifique et technique. Et même sur le sujet controversé de  la  baisse des charges, un dispositif lourd a été mis en place. Le CICE (Crédit d'Impôt pour la Compétivité et l'Emploi) organise depuis janvier 2013  une réduction massive du coût de la main-d'oeuvre de l'ordre de 20 milliards €. La mesure a été critiquée pour sa complexité. Néanmoins rien ne permet d'enrayer le chômage de masse dont les causes sont anciennes, profondes et complexes. Les messages positifs ne suffisent pas à écarter les nuages alimentés par un climat morose et le manque de puissance des discours politiques.

Les gouvernants ne sont certes pas responsables de l’embauche individuelle. Mais leur stratégie doit contribuer à desserrer les freins qui pèsent sur la décision individuelle. On constate que les grandes réformes ne fonctionnent pas vite et butent sur les contraintes de court terme, trésorerie, carnet de commande, contexte économique mondial. Les entrepreneurs persistent à penser qu'embaucher est difficile et contraignant. Or la compétitivité ne se décrète pas. C'est un travail  de longue haleine qui porte sur la qualité de l'offre, sur l'image de marque, sur la qualité des services, les prix n'étant qu'un facteur parmi tous les éléments qualitatifs qui influencent les clients.

Il faut donc avancer sur le plan macroscopique en déminant les obstacles de façon pragmatique et décentralisée sur les sujets qui conditionnent les performances économiques futures, et donc la qualité et la standard de vie : formation, notamment en alternance, embauche des jeunes; soutien aux jeunes entreprises, renforcement des liens entreprises-écoles-universités,  innovations dans le domaine de la santé. L'économie est au coeur de la réussite d'un pays même si les sujets sociétaux peuvent se réveler  mobilisateurs pour stimuler  l'innovation et l'investissement, comme la lutte contre l'accidentologie routière ou le cancer. 

Mais plus que toute grande stratégie de réforme, lente et complexe, l'économie française doit se réinventer sur une base décentralisée, fondée sur les initiatives locales et l'entrepreneuriat. Les grandes entreprises à vocation mondiale peuvent y contribuer efficacement en soutenant les écosystèmes par un flux de commandes, de prises de participation dans les start-up, de prêt de personnel qualifié. Il ne faut pas attendre de réformes globales pour commencer à se prendre en charge. Tout repose sur un sursaut individuel. Maintenant. 

 

Sources et références

https://fr.wikipedia.org/wiki/Green_Bird

[i] Marie-Noëlle Lienemann, Le Monde, 25 mars 2016


Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


Faire basculer la France dans le XXIe siècle : le numérique

Le G9+, think tank informatique, télécoms et numérique des anciens des grandes écoles, a lancé une démarche de réflexion collective pour 2017 : "100 idées pour une France numérique". Ce texte, sous une forme adaptée,  s’intègre dans cet ensemble de contributions qui sera débattu le 19 novembre.

De multiples rapports ont été consacrés au développement numérique de la France. Un des plus importants est celui publié en 2014 par la commission Lemoine sur « la transformation numérique de l’économie française ». De nombreuses structures, think tanks et organismes professionnels, ont émis des propositions et réunis les acteurs engagés dans la révolution numérique. Ce n’est donc pas l’originalité, ni l’exhaustivité, des mesures qui doit être prise en compte dans le cadre de cette réflexion, mais la recherche d’un effet de masse sur la société. Dans la situation actuelle de la société et de l’économie française, il est indispensable de sortir du champ de l’intention et de l’expérimentation pour franchir un seuil irréversible d’adoption massive.

Bureaucratie-paperasse

Dans ce débat qui  a commencé à la fin des années quatre-vingt dix quand certains ont commencé à prendre conscience que le développement mondial de l'internet et du web était un phénomène d'une ampleur qui promettait d'être exceptionnelle. La France a beaucoup hésité face à ce processus clairement américain dont elle n'avait pas été à l'origine, et qu'elle avait sous-estimée, malgré les courageuses initiatives de Louis Pouzin. Vingt ans plus tard, internet et les services du web ont conquis le monde avec trois milliards d'internautes.

Aussi les ultimes résistances tendent enfin à s’estomper devant la prise de conscience de l’irréversibilité de la transformation en cours partout dans le monde. Plus que la somme des techniques de communication, désormais disponibles à faible coût et sans complexité,  qui permettent d'accéder sans limite à des informations de toutes natures, ce sont les changements culturels et comportementaux qui marquent la vie sociale. Or l’expérience des succès de l’économie du web démontre que c’est la rencontre entre un besoin, souvent latent, et une offre, ergonomique et économique, qui déclenche l’adoption. La créativité des start-upers  est sans frein ce qui conduit les magasins d'applications à proposer des millions d'applications diverses dont certaines ne sont jamais exploitées par ceux qui les ont téléchargées. Cet usage privé, que chacun gère en fonction de ses envies et de ses besoins, est une première étape plaisante et pratique dans la numérisation. Mais il faut aller au-delà pour ancrer le numérique dans les pratiques sociales qui, en France, nécessitent la plupart du temps l'engagement de l'Etat. Car, dès lors qu’il s’agit de rechercher un effet de masse qui dépasse l’adoption privée, poussée par l’innovation, les évolutions du cadre législatif et réglementaire se révèlent nécessaires pour rendre possibles ces transformations.

Au-delà d'un mouvement comme  la French Tech, qui mobilise les talents des entrepreneurs,  et la dynamique des start-ups, relayée par les écosystèmes régionaux, ce sont les pratiques régaliennes qu'il faut revisiter à travers le prisme de la culture numérique. Dématérialisation, réactivité, engagement, décentralisation sont les vecteurs de cette transformation qui doit transformer nos modes de fonctionnement conventionnels pour faire basculer notre culture du papier et de l'autorité vers celle du numérique et de la responsabilité.

1191_696_Capture-d-e-cran-2014-11-12-a-13

Si, en France, les infrastructures sont globalement capacitaires, si l’adhésion spontanée des consommateurs est forte,  Il s’agit maintenant de fournir un cadre de confiance collective envers le numérique qui ne peut être produit sans impulsions législatives et réglementaires. Il faut également améliorer l’offre de services collectifs, sans qu’ils soient nécessairement publics, au-delà des propositions du marché pour produire un effet de transformation collective des comportements.

Les mesures proposées, qui s’inscrivent dans le prolongement de mesures déjà engagées,  ou incluses dans les projets de loi d'Axelle Lemaire et Emmanuel Macron, visent une accélération du développement universel des usages en stimulant la confiance envers les solutions numériques de tous les citoyens et la créativité numérique. Il s’agit de renforcer les motivations des pionniers et développer l’adhésion des milieux encore sceptiques, ou hostiles, en créant les conditions transparentes d’adhésion lucide et responsable à la société numérique du XXIe siècle. Le besoin de sécurité et de confidentialité est un élément structurant de la demande sociale. Faute d’y répondre clairement, la transformation numérique reste partielle et ne livre pas ses promesses économiques et culturelles. Cinq mesures ne suffisent pas. Mais il est important de créer un cadre général sur des sujets pour lesquels le changement de pratiques pourra induire le développement d'une nouvelle culture d’initiatives et de responsabilités dont la France a besoin.

1/ Rendre obligatoire la facturation électronique pour tous les échanges inter-entreprises au 1er janvier 2019

La dématérialisation des commandes et des factures est le seul mécanisme collectif déclencheur d’une transformation numérique des processus. En effet, l’échange de documents informatisés implique la mise en place de processus et d’outils dans toutes les entreprises et organisations, quel que soit leur taille. C’est donc le moyen d’obtenir que se mettent en place des processus numérisés de bout en bout.

2/ Mettre en œuvre un titre universel d’identification numérique individuelle

Contexte :

Le projet d’une carte d’identité numérique est ancien. Il a été  lancé en 2003 et visait  de produire une’identification forte associant un cadre régalien et un cadre commercial.  Ce qui fait l’originalité de ce projet a justement conduit à de multiples tergiversations qui ont finalement différé son adoption qui nécissattn une loi n’a pas trouvé le cadre et les supports requis.

Relancé en 2012 sous l’appelation IDéNum, le projet a été adopté mais de nombreuses dispositions ont été jugées anticonstitutionnelles.

Objectif

Doter chaque personne d’un outil d’identification numérique irréfragable, sécurisé et garanti par l’Etat, permettant à la fois de répondre aux objectifs régaliens et d’assurer dans toutes les transactions, publiques ou commerciales, une preuve d’identité.

3/ Dématérialiser tous les documents concernant la vie professionnelle et la gestion du patrimoine avec l’instauration d’un service de coffre-fort électronique personnel.

Objectif

Eviter l’émission de millions de documents en double (papier et numérique)  notamment la feuille de paye avec stockage électronique à vie,  les actes de gestion individuelle et patrimoniale (contrats, titres de propriété…)

Faciliter la liquidation des droits à pension de retraite et de façon générale simplifier la gestion des actes administratifs personnels

Fournir sous forme numérique tous les éléments validés pour des transactions (achats immobiliers, achats de véhicules…)

Unifier toutes les informations sociales

Garantir  la sécurité juridique des éléments clefs de la vie sociale

Offrir un cadre pérenne, sécurisé, permettant la sécurisation de long terme

 

4/ Déployer le « contrat de coopération » pour fluidifier la circulation des compétences 

Contexte

L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, l’esprit entrepreneurial constituent des propriétés naturellement développées et encouragées par les écosystèmes numériques. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. Les entreprises qui sauront devenir des fédérateurs naturels de talents individuels gagneront la compétition économique. Affranchie des contraintes conventionnelles issues de la fragmentation de la société, la mise en synergie des talents peut trouver des réponses radicalement nouvelles aux problèmes de notre société et combler les lacunes des mécanismes classiques. 

Quand on fait appel au « cerveau-d’œuvre », plus il y a d’acteurs, plus il y a d’idées qui germent et réussissent. Il faut donc abattre toutes les barrières à l’entrée à l’activité en renforçant, avec un code du travail simplifié, l’efficacité des sanctions.

Mesure

Introduire un « contrat de coopération »  à échéance variable, de 2 à 5 ans,  qui n’est pas un contrat de subordination, mais définit contractuellement les droits et obligations des deux parties, et précise la nature de la contribution et les règles d’évaluation. La rémunération reste un salaire, chargé, mais le salarié ne figure pas parmi les effectifs statutaires de l’entreprise et n’entre pas dans le comptage des seuils sociaux.  Il est soumis aux conditions de travail de l’entreprise mais peut également inclure le télétravail.

5/ Développer l’industrie du logiciel éducatif et pédagogique à travers les enseignants et le diffuser à travers l’enseignement

Contexte

Le développement des supports numériques pédagogiques inclus dans les programmes  est très lente alors que l’échec scolaire s’accroît, surtout sur les disciplines fondamentales comme la langue française, les langues étrangères, les mathématiques, l’histoire géographie…

Objectif

L’objectif est d’exploiter l’appétit naturel des jeunes générations pour les outils numériques pour installer le numérique au cœur des processus pédagogiques. Ce mouvement ne peut passer que par les enseignants eux-mêmes et par l’inclusion des outils numériques dans tous les processus d’apprentissage.  Il ne s’agit pas d’ajouter le numérique comme matière d’enseignement ( même si la question est pertinente pour la formation à la programmation) mais d’inclure les outils numériques dans la progression pédagogique et l’évaluation ;

La mesure proposée est donc d’inciter les enseignants à partager leur expérience pédagogique par la création de logiciels professionnels. C’est une action qui permettra l’émergence de start-up francophones produisant des produits totalement insérés dans les processus pédagogiques et dans les programmes.

 

 


Regards sur le monde : entre fragilité et transformation

 

Comprendre le monde a toujours été un exercice difficile. Le faire en temps réel, sous le bombardement continu des dépêches d’agence et le flot continu de la parole des dirigeants politiques et économiques, amplifiée sans nuance, oubliée instantanément, devient un exercice impossible. La surexposition au flux à haute énergie de l’information  a un premier effet pathologique : la dictature de l’instant rend l’époque encore plus illisible. Non seulement on ne comprend plus ce qu’il se passe, mais, ce qui est encore plus perturbant, c’est qu’on ne sait plus dire si un événement est une bonne chose ou une mauvaise chose. Faute de clef de lecture, tout se mélange, et l’opinion individuelle perd tout repère pour se structurer. Le bon sens a perdu le Nord… 

Auparavant, jusqu’en 1989, on pouvait se raccorder à un référentiel idéologique ce qui ne rendait pas le jugement plus juste, mais simplement plus confortable et plus prédictible. Dans un monde bipolaire on choisissait son camp et on passait facilement sur les nuances. Dans un monde « zéro-polaire », l’exercice est difficile. On pouvait facilement nourrir les dîners entre amis ou les longs débats dans la fumée des bistrots. Mais avant, c’était avant.  On était de droite ou de gauche, foot ou rugby, Renault ou Peugeot, gitane ou américaine, Bardot ou Garbo, Brassens ou Ferrat, Bécaud ou yéyé. Et quand on voulait mettre un peu de rationnel dans le débat, on se précipitait sur le Quid !

Aujourd’hui si on peut parler de tout puisque l’information est « à un clic »,  on a beaucoup de peine à se fâcher sur une analyse car pour cela il faudrait se construire ce qu’on appelle « une opinion ». Si les matériaux ne manquent pas, c’est clairement le ciment qui n’est pas là… On est entrés dans le supermarché Ikea des idées, mais sans mode d’emploi. La pensée brinquebale, et pas seulement celles des dirigeants politiques, si faciles à brocarder. La stratégie des entreprises est tout aussi complexe à analyser, parcours sinueux entre stratégie de long terme et opportunisme roublard.

Dans un monde où toute la tentative de conviction formalisée soulève une immédiate tempête de  critiques, de sarcasmes, de hurlements, l’audacieux qui a osé émettre une pensée articulée n’a d’autre choix que le démenti immédiat s’il veut éviter le lynchage. Il n’y a même plus de « politiquement correct », d’ébauche de pédagogie car cela passe tout de suite pour de la tiédeur et du conformisme. Les commentaires sur la situation de la Grèce ont atteint dans le champ de l’hypocrisie des sommets inédits. De toute façon, tout ceci ne dure que 24 heures et personne ne sera durablement atteint dans sa crédibilité…

Mais existe-t-il encore une « vraie vie » en dehors du discours ? La pensée de Feuerbach, qui date de 1841, est terriblement actuelle : « Sans doute notre temps préfère l’image à la chose, la copie à l’original, la représentation à la réalité, l’apparence à l’être. » Notre société du spectacle, de l’illusion, qui a fait du langage une arme naturelle, et du mensonge sa munition la plus facile, rend la compréhension de choses problématique et mine toute forme de confiance. Personne ne croit plus aux déclarations des acteurs politiques.

Et pourtant, le monde réel existe encore. D’un côté le bruit et la fureur de  l’information volatile, de l’autre les débats graves sur l’avenir de l’humanité occupent de façon dissymétrique le champ de l’analyse.

Depuis que l’homme a commencé à construire sa destinée, trois moteurs ont alimenté son évolution : la maîtrise de l’énergie, l’organisation des transports, la formalisation des idées. Ces moteurs ont alimenté la recherche d’une amélioration continue des conditions de survie, qui se sont transformées pour le grand bienfait d’une partie de l’humanité par une recherche permanente du bien-être. C’est une idée neuve pour l’espèce humaine dont la survie a été précaire pendant des milliers d’années. On imagine même effacer la dernière frontière, celle du déclin physique et de la mort. La seconde dimension de la quête humaine est  la recherche du sens. Si nous sommes autre chose qu’une collection d’individus animés par le seul instinct de survie, tel que nous imaginons les autres espèces animales, la question du pourquoi n’a cessé d’habiter la réflexion humaine. Cette quête s’est scindée en deux courants, la dimension religieuse qui fournit une explication sinon rationnelle, au moins commode, à l’origine et au sens de notre vie, et la dimension scientifique, qui a les mêmes objectifs, mais se donne la légitimité de l’objectivité et du démontrable. L’histoire de la science démontre que cette légitimité est toute relative ! Quant à elle, la religion, mue par la transcendance,  s’est construite pour ne pas avoir à faire la preuve de sa légitimité. Posture bien commode !

En ce début du XXIe siècle, où nous plaçons-nous les repères par rapport à ces grands axes de notre développement ?

On peut résumer en disant, pour l’optimiste, que nous avons autant de bonnes  nouvelles que de mauvaises nouvelles. Mais si l’on pense qu’un optimiste n’est qu’un pessimiste mal informé, alors ! Si  l’humanité a  beaucoup avancé sur les trois grands moteurs de son évolution, ceci n’a pas beaucoup permis de progresser sur le fond… Pire on peut même craindre que l’humanité ne se soit jamais autant mise en danger depuis le début de l’anthropocène.

Dscovr-earth-image

Il est clair que notre maîtrise simultanée de l’énergie, des transports et de la représentation des connaissances est spectaculaire.

Internet et le web ont parachevé la construction engagée dès la fin du XIXe d’une « société de la connaissance » dont l’informatique est le moteur toujours aussi puissant. Jamais l’humanité n’a produit, échangé, stocké autant d’informations et de connaissances qu’au cours des toutes dernières années. Et cette croissance exponentielle bouleverse tous les métiers de la connaissance, bousculés, remis en cause par le partage sans limite des connaissances naguère confinées dans les cercles étroits du savoir et du pouvoir qu’on appelait « l’élite ». La facilité à partager l’information a fait naître de nouvelles activités autour des plateformes de rapprochement, immédiat et peu coûteux, de l’offre et de la demande dans  tous les domaines variés de l’expérience humaine. Cette émergence de nouveaux services, effaçant  rapidement les équilibres antérieurs fondés sur le malthusianisme, fait voler en éclat de multiples secteurs dont les medias, le transport, le tourisme ont été les premiers à être touchés. Jamais notre capacité à comprendre le monde n’a été aussi intense tant les travaux de recherche circulent désormais entre les disciplines pour féconder les idées neuves à un rythme jamais atteint. Nous pouvons penser que cette effervescence va nous aider à résoudre nos problèmes.

Sur le front des religions, la situation est largement préoccupante tant se mêlent le spirituel et le temporel au service du pouvoir et des conséquences extrêmes, le nationalisme, la violence. Nous avons connu cette situation en Europe pendant des siècles pour en sortir presque guéris après des conflits qui nous ont coûté notre leadership. La Révolution française et le XIXe siècle avaient permis de dissocier ces deux mondes qui quand ils se confondent sont capables du pire. Tant du côté de l’islamisme radical que de l’extrémisme hindou, pour ne prendre que ces deux exemples,  nous assistons à des mouvements de bottes qui permettent de douter de la neutralité bienveillante de la spiritualité.

Notre capacité à extraire du sol l’énergie et les matières premières a été à l’origine d’un développement considérable des infrastructures et des produits. Nous savons nous déplacer d’un point à un autre de la planète en quelques heures, vivre dans les endroits les plus inhospitaliers en produisant sans précaution les ressources que la nature avait refusé, comme le gaz et le pétrole retenus dans les schistes. Nous avons défriché la terre pour la couvrir de champs cultivés avec des produits chimiques, de routes et de parkings bituminés, de voies ferrées, de bâtiments qui occupent 66 % du territoire français. Dans un pays comme la France, les surfaces artificialisées ont augmenté de 87% depuis 1981.  C'est une perte de 7 millions d'hectares de terres agricoles en cinquante ans.

Faire du ski à Dubai ou du golfe à Las Vegas sont des exploits sans intérêt. Cette voracité sans autre logique que l’appropriation des richesses créées par ces exploits futiles n’est que l’illustration de l’absurde auquel nous a poussé notre rêve prométhéen. L’homme a tellement changé la nature de la vie sur terre que le climat en est modifié. Il n’a fallu que quelques décennies pour dégrader le spectacle grandiose des glaciers alpins et remettre en cause partout dans le monde l’approvisionnement en eau douce que les grands massifs montagneux assuraient avec générosité.  La Californie souffre d’une sécheresse désormais structurelle qui bouleverse l’économie de cette région prospère. Avec plus de sept milliards de passagers avides de bien-être, bientôt huit, le vaisseau spatial terre consomme plus que jamais ses ressources non renouvelables. Depuis le début de l’ère industrielle

Oui nous avons réussi à domestiquer la planète et en connaître les moindres recoins, pour les exploiter. Et simultanément alors que l’espérance de vie moyenne n’a jamais été aussi élevée, nous prenons conscience que nous avons aussi fragilisé la vie des hommes sur terre, menacés par l’épuisement des ressources, dont les plus vitales, l’air respirable et l’eau douce,  le réchauffement climatique qui provoque des catastrophes naturelles et bouleverse les paysages, les productions agricoles, la santé végétale et animale et, in fine, celle de l’homme. Car au sommet de la chaîne de la biodiversité, l’homme en est le maillon le plus sophistiqué et le plus vulnérable.

Le grand rêve est toujours de corriger par la science et la technique  les désordres que nous avons provoqués au cours d’une si courte période de l’histoire. Peut-on inverser les tendances ? Réconcilier bien-être et sobriété, développement et frugalité ? Beaucoup de gens sérieux pensent qu’il est trop tard. Que même si nous arrivions à limiter de 1,5° la température de la planète nous ne pourrions inverser les phénomènes de dégradation structurelle que nous avons déclenchés. Les modèles semblent converger sur l’idée qu’un basculement climatique est possible si certains paramètres glissent, comme l’acidité des océans qui absorbent une partie du CO2 produit. L’acidité des océans a augmenté de 30 depuis le début de l’ère industrielle. 80%  des eaux usées dans le monde ne sont ni collectées, ni traitées. La chaîne alimentaire qui conditionne la vie sur terre est complexe et fragile, et surtout difficilement modélisable dans sa totalité. Nous ne connaissons pas toutes les interdépendances de ce système.      

Mais soyons rassurés. Ce qui sûr, c’est qu’il y aura une Fête de la rose à Prengy cette année, que des paroles définitives y seront prononcées, générant d’autres paroles aussi définitives. Et que bien sûr tout sera oublié le lendemain… What else ?


Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


French Tech et CES 2015

Voici la vidéo que j'ai enregistré pour Xerfi sur le thème de la présence française dans le monde des start-ups vue à travers le CES 2015 à Las Vegas

 

http://www.xerfi-precepta-strategiques-tv.com/emission/Jean-Pierre-Corniou-CES-2015-la-percee-de-la-French-Tech_2198.html


L'odyssée de l'innovation à travers le CES 2015

Quels messages retenir du CES 2015 ? Il ne faut pas se limiter à une vision immédiate de cet évènement car il s’inscrit dans une perspective de long terme. L’informatisation de la société est un processus engagé depuis la fin de la seconde guerre mondiale et en constante accélération, chaque étape préparant la suivante. C’est un des leviers majeurs des changements qui façonnent notre vie et permettent, grâce aux progrès convergents des sciences et des techniques, une amélioration des performances humaines qui se traduit, in fine, par l’allongement de la vie humaine.

Les formes de  l’informatisation ont évolué par grandes étapes en fonction des capacités techniques. Du premier processeur Intel en 1971, le 4004 et ses 2300 transistors, au Pentium Pro de 1995, avec 3,1 millions de transistors, au processeur i7 Haswell de 2014 avec 2,6 milliards de transistors, les performances ont connu une croissance exponentielle qui confirme, à chaque étape, la loi de Moore. Si la puissance de traitement des machines est désormais considérable, c’est l’exploitation de cette puissance à travers une multitude d’usages, dans toutes les situations, tous les contextes géographiques, et par tous les utilisateurs  qui est véritablement le déclencheur d’une révolution.

Car cette informatisation ne serait qu’une simple prouesse technique si elle ne provoquait pas une mutation sociale  sans précédent dans l’histoire de l’humanité par son ampleur et sa profondeur. La révolution informatique est aujourd’hui le moteur d’un changement de civilisation, avec ses promesses et ses angoisses. Il suffit de se plonger, au cœur du décor surréaliste de Las Vegas, dans la plus grande manifestation mondiale consacrée au numérique  pour comprendre que cette mutation est profonde, irréversible et va changer nos vies dans la plupart de leurs composantes.

La révolution numérique s'incarne au CES

Le CES, qui a débuté à New York, dans les années soixante, comme Consumer Electronic Show, salon consacré à l’émergence du règne de l’image télévisée et du son haute-fidélité, est devenu depuis dix ans le théâtre global de la révolution numérique. La différence sémantique entre informatique et numérique n’a pas de sens technique, mais traduit, dans une acceptation commune, le fait que l’informatisation du XXe siècle consacrée aux tâches professionnelles est désormais régie par le rythme des innovations grand public. L’entreprise n’est plus maîtresse du rythme de ses évolutions car elle doit intégrer dans ses fonctionnements internes ces innovations plébiscitées par ses clients et son personnel. Or si le PC en 1981 et la facilité d’accès à internet en 1993, grâce au navigateur, ont fait déjà vaciller l’informatique centralisée classique sur des bases en introduisant la liberté de l’individu dans la gestion des systèmes, c’est bien l’apparition de l’iPhone en 2007 qui, cumulant pour le première capacité de communication, puissance de traitement, mobilité et diversité des usages,  a marqué l’ouverture d’une autre ère.

A travers l’expérience d’une dizaine de CES, il est possible de visualiser cette accélération en surimposant les images de chaque CES. En effet, en mesurant la taille et le positionnement des stands comme en analysant le dosage des thématiques des conférences et le choix des intervenants, on comprend que ces mutations parfois subtiles sont à la fois les marques des changementsdésormais actés comme les signaux annonciateurs des transformations à venir.

S’il ne fallait retenir qu’un seul symbole de ces mutations, il faut se souvenir que dans l’entrée du hall central, cœur prestigieux du LVCC, Las Vegas Convention Center où était centrée la partie exposition du CES, se faisaient face Microsoft et Intel, les deux acteurs du monde Wintel qui a brillamment  façonné le monde du PC pendant trente ans. Mais en 2015 c’est un constructeur chinois de téléviseurs, encore méconnu en occident, Changhong, leader du marché chinois des téléviseurs, qui occupe cette place prestigieuse. Intel à cause de cette relation trop intime  avec le monde du PC a raté son entrée dans celui de la mobilité au profit de Qualcomm. Intel est toujours là, très combatif, pour retrouver sa place et son prestige dans le monde de l’informatique des objets dont la part dans la croissance de son chiffre d'affaires a déjà bondi de 19% en 2014

Withings  011
S’il y a cinq ans, la santé et le bien être occupaient quelques stands minimalistes, dont celui de Withings, timide start-up française montrant en 2009 un objet improbable, un pèse-personnes connecté. Aujourd’hui ce sont des travées entières qui y consacrées avec des stands richement dotés où brillent d'ailleurs les entreprises françaises comme Netatmo, Withings, Sculpteo, Sen.se...  Il a d’ailleurs fallu quitter le LVCC car la place y manquait. C’est un nouvel espace, immense, au Sands, qui est intégralement consacré au monde bruissant des objets connectés. De même, le cycle de conférences consacrées au monde de la santé est devenu une manifestation à part entière, the Digital Health Summit. Le système de santé est en effet devenu un ensemble complexe où interagissent de multiples disciplines et professionnels partageant des donnéees communes.

Healthcare  007

De façon générale, l’expansion de la sphère de l’informatisation se traduit par la multiplication des approches verticales où experts et firmes spécialisées discutent de la dynamique de ces nouveaux environnements numériques qui refaçonnent les activités traditionnelles que sont le bien-être et la santé, l’éducation, l’automobile, la publicité, les medias. Sur le socle de base de l’économie numérique, qui se consolide autour du smartphone, du cloud computing et des réseaux à haut débit, viennent se greffer une multitude d’écosystèmes verticaux qui embarquent entreprises conventionnelles et start-up dans une irrésistible dynamique de transformation accélérée.

Tout est connectable et connecté

Le CES est donc sur quatre journées non seulement une exposition commerciale où se croisent 170000 visiteurs de toute la planète et 5000 journalistes, face à 3600 entreprises, mais aussi des milliers de dirigeants qui dialoguent, analysent et construisent les transformations de demain, publiquement mais aussi discrètement dans les suites et salons des hôtels. C’est pourquoi les keynotes du CES sont aussi prisés. Véritables shows millimétrés, fort coûteux, ils traduisent la vision des dirigeants et la force des entreprises leaders. Il s’agit d’impressionner, de marquer les participants et par là les analystes de la planète entière. Ford s’illustre depuis des années dans cet exercice et le nouveau  président, qui a succédé à Alan Mullaly, Mark Fields, a bien montré que l’avenir de l’automobile ce n’était pas la puissance brute mais la capacité de faciliter la mobilité de la planète. Le président d’Intel, Brian Krzanich, a illustré de façon spectaculaire qu’il entendait bien mettre ses processeurs au centre de la réconciliation du réel et du virtuel qui pour lui est « the next big thing ». Et il a invité sur scène HP pour lancer officiellement l’entrée de ce constructeur dans le monde de l’impression 3D, scanneurs, imprimantes et puissances de calcul permettant de passer l’objet réel à sa définition numérique en 3D pour pouvoir être reproduit à l’infini… Mais c’est surtout la présentation du nouveau processeur Curie, qui intègre en un format unique de la taille d'un bouton, son système d’exploitation, des capteurs et des capacités de communication Bluetooth, qui a frappé en montrant la détermination d’Intel à prendre le leadership de l’équipement des objets connectés et du wearable computing.

Un nouveau modèle d'innovation

La leçon du CES ne réside pas dans la diversité des produits proposés, mais dans la convergence de chacune des approches. Par touches se construit un monde où l’ordinateur s’efface au profit d’une multitude d’objets qui vont échanger des informations pour alimenter la prise de décision dans chaque acte de la vie quotidienne, personnelle ou professionnelle.

Le monde des objets consacre un nouveau modèle d’innovation très éloigné du modèle classique de l’investissement en recherche-développement tels que les grandes firmes l’ont pratiqué depuis des décennies. Face au modèle planifié et méthodique de la R&D, l’innovation venu du monde grand public ressemble  à un grand bazar où des objets divers émergent entre le concours Lépine et la science-fiction. Le CES avec ses stands exotiques donne évidemment cette impression. Mais comme l’a vivement défendu le fondateur de Parrot, Henri Seydoux, peu importe que les produits qui sortent de la créativité des start-up soient qualifiés de « gadgets ». C’est l’usage qui fait le tri et révèle des potentiels insoupçonnés au départ par les créateurs. Citant l’exemple des drones qu’il avait imaginé comme étant une forme de jeu vidéo en 3D, il a constaté que les usages professionnels, comme pour l’agriculture et la bâtiment, étaient parfaitement pertinents. Le créateur de la semelle chauffante et connectée, Digitsole, une start-up française parmi les dizaines présentes au CES , visait le marché des équipements sportifs, mais le monde professionnel des travaux en plein air se montre tout à fait intéressé.

Digitsole  009

Ce processus s’applique également aux grandes entreprises. Plusieurs grandes entreprises ont clairement affiché leur choix d'ouvrir leur R&D, leurs brevets en favorisant l'open innovation. Samsung, Toyota, mais aussi Ford opérent ce mouvement pour injecter dans leur ADN historiquement fermée des processus d'innovation radicalement nouveaux. La présence active de ces grandes entreprises mondiales, qui ignoraient le CES, est le symbole d'un tournant dans la recherche de synergies entre start-ups et entreprises établies. La Poste, qui est victime de l’érosion du marché du transport de documents papier, a fait de son image robuste et reconnue par la population un vecteur de développement en devenant fournisseur de services de confiance, à travers son réseau physique de proximité, de bureaux et de facteurs, mais également par l’innovation logicielle dans les services numériques et son soutien aux start-ups. Il faut aussi saluer pour ce souci d'ouverture à la créativité la forte présence des start-up françaises, accompagnées par Emmanuel Macron, Axelle Lemaire, Pierre Gattaz, Louis Schweitzer, de même qu'une forte délégation de DSI du CIGREF autour de leur président, autant de symboles témoignant d'un vrétible changement dans la culture française, salué par le président du CES, Gary Shapiro.

La Poste  008

Il se crée un cheminement, impossible à planifier, entre ce que permet de faire la technique, les objets qui en découlent, et la réalité des usages décidée par les utilisateurs.

 Innover, ou disparaître

Le choix est au fond très simple, et c’était le thème d’un keynote essentiel, rassemblant les dirigeants de Cisco, Bosch et Comcast : « Fast innovation : Disrupt or be Disrupted ». Innover s’impose comme une forme indispensable d’évolution pour toute entreprise. Innover c’est écouter ses clients, mais aussi aller au-delà des attentes, des formes convenues, des logiques d’image. C’est oser aborder des sujets nouveaux qui ne peuvent s’explorer à travers des études de marché. Steve Jobs a été expert dans cette approche en rupture. S’il avait attendu des études marketing la réponse des clients potentiels, il n’aurait jamais fait l’iPhone et c’est pourquoi Nokia, champion absolu du téléphone GSM, ne pouvait pas imaginer autre chose qu’un meilleur... téléphone GSM. Lire le CES, c’est comprendre le  rôle de ces chemins de traverse, c’est admettre d’être surpris, choqué par des visions au premier abord futiles, mais qui peuvent se révéler des pépites porteuses de rupture. Le CES implique beaucoup d’humilité et se remémorer que toute innovation suscite un cycle de réactions en trois étapes. La première étape, c’est de penser que c’est inutile, farfelu, absurde. La seconde étape c’est de s’indigner en considérant que c’est dangereux. Et enfin, troisième étape, considérer que c’est tout à fait banal, normal…


La voiture sans conducteur, réaliste ?

Ce texte sera publié également sous une forme semblable sur le site  Atlantico le 27 octobre

2014 a vu soudain apparaître une nouvelle tendance technologique : la voiture sans conducteur. Il n’est pas de constructeurs qui n’aient annoncé, dans une surprenante surenchère, qu’ils allaient mettre « prochainement » sur le marché une voiture qui pourrait rouler sans que son conducteur ne se préoccupe de cette tâche désormais futile, conduire. Volvo, Daimler, Nissan, Ford, General Motors, Audi, BMW, Tesla ont tous annoncé des dates probables de commercialisation, d’ici 5 à 10 ans, de ces véhicules autonomes ou semi-autonomes sans toutefois préciser l’ampleur du service rendu. Si le projet n’est pas nouveau, la ruée vers ce concept est apparue comme une réponse des constructeurs automobiles établis aux ambitions de Google qui  prétendait pouvoir mettre sur le marché non seulement une voiture sans conducteur, mais aussi sans poste de conduite. Il est d’ailleurs bien curieux que, soudain, ceux qui exaltent et embellissent ce fameux plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à un automate le soin de s’acquitter de cette tâche.

Bmw-driverless-car_729-420x0Image BMW

Il faut toutefois questionner sérieusement l’intérêt de cette technologie en dépassant la fascination qu’elle inspire. Car après la valse des annonces, la réalité s’impose.

Les voitures modernes sont désormais très bien équipées en automatismes multiples qui assistent le conducteur dans sa tâche qui, dans les conditions réelles de circulation, est à la fois complexe et fastidieuse, mais aussi fatigante et dangereuse. Il n’y a que dans les publicités que l’on voit une voiture filer sur une route dégagée et sèche dans un paysage somptueux et sans aucun trafic. La réalité quotidienne de la route est bien éloignée de ces images du « plaisir de conduire » qui sont à la base du marketing de tous les  constructeurs. 

Les constructeurs ont tiré depuis longtemps profit des avancées de l’électronique pour équiper leurs véhicules d’outils d’aide à la conduite. De multiples capteurs et actionneurs ont été intégrés depuis l’apparition de l’antiblocage des roues au freinage, l’ABS, en 1978, pour aider à la conduite ou se substituer au conducteur en cas d’urgence. De fait, d’ores et déjà, une voiture moderne va prendre des décisions pour maintenir sa trajectoire avec l’ESP (Electronic Stability Program), assurer une vitesse constante avec le régulateur, améliorer l’adhérence en cas de pluie ou de neige, amplifier le freinage en cas d’urgence, avertir d’un franchissement de ligne ou de dépassement d’une vitesse autorisée, tout en pourvoyant le conducteur de multiples informations sur son itinéraire. La dernière Mercedes Classe S comprend une centaine de micro-processeurs pour s’acquitter de ces multiples tâches.  Ces assistances ne se substituent pas au conducteur, même si elles corrigent, à la marge, ses décisions inappropriées.

En fait le débat sur la voiture sans conducteur est parti de la volonté de Google de démontrer la suprématie de son système de cartographie, tellement précis qu’en suivant ses indications, n’importe quel ordinateur pouvait sans difficulté faire parcourir à une voiture des centaines de kilomètres sans incident. Les constructeurs ont réagi en montrant qu’en équipant une voiture de capteurs, radars, scanners laser, outils de géolocalisation et servomoteurs, on pouvait potentiellement se passer du conducteur. Et on a vu ainsi quelques dirigeants se montrer au volant de ces véhicules expérimentaux mais sans toucher le volant resté bien classique, position assez curieuse et très peu naturelle qui montre bien que le concept est plaqué sur des véhicules conventionnels…

Ces annonces soulèvent deux questions : est-ce utile ? Est-ce faisable ?

Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. L’inattention, l’utilisation d’un téléphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Plus d’1,3 millions de personnes dans le monde, selon l’OMS, perdent la vie dans un accident de la route chaque année. Dès lors mettre au volant un ordinateur doté de capacités sensorielles puissantes et dépourvu des limites biologiques de l’homme est tentant. La motivation est noble : tendre vers le zéro accident et le zéro mort. On attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages, un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage,  les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. Mais pour atteindre ces résultats il faudrait que la machine elle-même soit exempte de défauts.

Conduire un véhicule sur un parcours varié est une tâche complexe. Une voiture à conduite automatique qui se subsisterait aux véhicules actuels devrait remplir les missions polyvalentes d’un conducteur. Les obstacles sont multiples : emprunter un itinéraire varié, sur des routes hétérogènes, en milieu urbain dense ou en rase campagne, faire face aux aléas du trafic, aux comportements imprévisibles des piétons et autres usagers et aux conditions météorologiques, aux changements de la configuration  de la route, en cas de travaux par exemple... Cette compétence du conducteur, ce serait aux ordinateurs du véhicule de l’assurer en s’appuyant sur les informations stockées et sur celles acquises en temps réel.

C’est là où le pari devient plus compliqué. S’il est relativement facile de faire rouler sans solliciter le conducteur une voiture sur autoroute dégagée, il faut que le véhicule soit en mesure d’atteindre une telle route par ses propres moyens et s’en dégager. Il faut donc définir à quel moment l’automatisme rend la main au conducteur s’il ne peut assurer  en pleine sécurité une conduite en milieux variés. Il faut donc que le conducteur soit en permanence en situation de vigilance et que l’interface automatisme/humain soit parfaitement fiable. Même avec des pilotes expérimentés, et dans un espace dégagé, les pilotes automatiques des avions sont  parfois sources de confusion aux conséquences fatales.

Par ailleurs pour atteindre une telle fiabilité il faut multiplier les capteurs, les processeurs de traitement faisant appel à des algorithmes complexes et à l’intelligence artificielle, les automatismes pour se prémunir de la défaillance d’un composant ou d’un programme. Un tel équipement complexe ne peut qu’être très coûteux. Ainsi un laser 3D, ou lisar, coûte 50 000 € pièce. Les voitures sont soumises à des conditions de fonctionnement bien plus difficiles que les avions, dont les conditions d’usage sont  simples à modéliser et à programmer. Comment en revanche prévoir toutes les situations auxquelles un conducteur pourrait être confronté ? C’est pourquoi les démonstrations qui ont été faites ne sont pas probantes car elles se déroulent dans un contexte simplifié qui n’a rien à voir avec la réalité routière.

Il faut donc revenir à une réalité opérationnelle qui ne fera pas rêver mais qui a plus de chances de se concrétiser. Toyota a d’ailleurs pris ses distances au CES 2013 en prônant une approche pragmatique et graduelle qui parle de voiture autonome, par couches successives d’avancées techniques, mais non sans conducteur. L’humain, pour Toyota, doit en effet rester en permanence en situation de contrôle. Cette piste est la plus vraisemblable. Les constructeurs vont « simplement », même si le travail est déjà considérable, étendre progressivement le champ des automatismes déjà installés, en commençant par le très haut de gamme pour financer le coût de ces installations. Beaucoup de véhicules proposent déjà une assistance au stationnement en créneau, dont les résultats sont encore très imparfaits. On peut aussi disposer d’un régulateur de vitesse qui se cale sur le véhicule qui précède pour maintenir une distance de sécurité et de multiples aides à la vision, à la tenue de cap, au freinage, à l’évitement de collision. Pour tester sans attendre le charme de ces technologies il est possible pour 140 000 € ( !) de s’offrir la dernière Mercedes 500 S Plug-in Hybrid qui est un démonstrateur de tout ce qu’on peut mettre aujourd’hui dans une automobile. Elle peut notamment être équipée, en option, d’une assistance à la conduite dans les embouteillages.

Comp_carschart37

Par petites touches, ces outils permettront de rendre la conduite plus sûre en dotant le conducteur d’un copilote vigilant et efficace.  Par ailleurs, des expériences de véhicule sans pilote seront réalisées sur des itinéraires précis et balisés, ce qui peut rendre de multiples services dans des espaces appropriés. Il faudra certainement attendre plusieurs décennies avant de voir de véritables voitures sans pilote se mêler à la circulation courante !