Le marché automobile évolue-t-il : le test des nouveautés 2017 ?

Il y a le discours officiel des constructeurs, la volonté des pouvoirs publics… et la réalité du terrain. Dans la presse économique, il n’est plus possible d’aborder la question du futur de l’automobile sans que soient détaillées les menaces qui pèsent sur ce produit emblématique du XXe siècle. Elles sont majeures. Car elles impliquent à court terme la réduction de l’espace qui lui sera consacré et le durcissement des conditions d’usage, surtout en ville. Plus radicalement, l’interdiction future des voitures à « gaz de pétrole » est inscrite dans la plupart des agendas politiques.

Pour autant, est-ce que ces nuages noirs influent sur l’offre disponible en concession, est-ce que le marché amorce une évolution sensible préparant ces échéances futures ? Qu’en pense la presse automobile, acteur majeur de l’opinion sur l’automobile ?

Ce passage de la vision stratégique à la réalité opérationnelle est au cœur de toute grande transformation. Comment mesurer cela ? Toute méthode ayant ses imperfections, il m’est difficile de prétendre que celle que j’ai choisie est la meilleure. J’ai simplement choisi un numéro d’un magazine[1] représentatif de la presse automobile, présentant un dossier « exceptionnel » sur 100 nouveautés à l’essai.

La lecture détaillée des fiches consacrées à ces essais et le traitement simple des données livre un panorama de l’offre de véhicules nouveaux de cette fin d’année 2017. Ce qui est intéressant c’est que les échéances dont parlent les maires des grandes villes et les ministres en charge de l’environnement dans les grands pays sont désormais inférieures à l’espérance de vie des modèles neufs qui seront vendus en 2018. Quand on évoque une interdiction en 2040, cela parait très loin. La réalité est qu’une bonne moitié des voitures en circulation sur la planète rouleront encore dans quinze ans. On a de sérieuses chances de retrouver encore en pleine forme sur les routes en 2032 les modèles illustrés dans ce panel de fin 2017. En effet, les voitures actuelles sont mieux conçues, mieux construites, sont plus fiables et roulent moins.

1920px-FoS20162016_0624_132444AA_(27785299372)

L'extravagante Bugatti Chiron peut-elle encore faire rêver ?

Cet inventaire des nouveautés met aussi en évidence ce que les rédacteurs de ce journal ont envie de mettre en avant dans leur propre vision du monde automobile comme ce que les lecteurs ont envie de lire. Il est évident que les 1500 chevaux et 420 km/h de la Bugatti Chiron ont peu de chances de peser sur l’atteinte des objectifs de la COP 21. Néanmoins, le fait qu’elle puisse exister et que l’on fasse rêver avec ce type de véhicule est signifiant.

Livrons-nous à un décryptage de ce dossier.

Sur les 100 véhicules choisis par la rédaction, 53 affichent une puissance égale ou supérieure à 150 cv. Mais pour donner encore plus de place à la frugalité, 26 dépassent 250 cv. Cette hyper représentation d’une catégorie de véhicules qui représente quelques pourcents du marché traduit un attachement de la presse automobile à la voiture puissante et statutaire dont la performance reste théorique car personne ne peut utiliser ces chevaux sur la route. Elle démontre aussi que les constructeurs restent attachés pour des raisons de prestige à la conception de véhicules hors normes qui leur assure auprès d’un public traditionnel une image forte et, quand ils vendent ces véhicules, ce qui est marginal, de robustes marges. Le marché français est en effet beaucoup moins centré sur la gamme supérieure que la moyenne européenne : 7% contre 13% en Union Européenne. A l’inverse la gamme économique et inférieure représente 52% des ventes, contre 41% en Union Européenne, la gamme moyenne supérieure étant à 13% contre 18% pour la moyenne européenne. De fait la puissance moyenen des véhicules neufs vendus en France ets de 86 kW contre 95 en UE,  108 en Allemagne, 122 en Suisse et 102 en Grande-Bratagne.

Dns ce panel de cent véhicules figurent toutefois six voitures électriques et dix hybrides dont  4 rechargeables, de même qu’un véhicule au GPL.

Les véhicules diesel sont désormais minoritaires : 36 contre 44 modèles essence et 10 hybrides essence.  Toutefois ce sont des véhicules puissants puisque les petites cylindrées ne sont plus équipées de motorisation diesel en raison du coût et de la complexité du dispositif de traitement Euro 6. Ce panel amplifie la baisse réelle de part de marché des véhicules diesel observée en 2017 par rapport à 2016. Le diesel représente désormais, avec 47,6% des immatriculations des voitures particulières, moins de la moitié des ventes. Cette baisse est rapide.

Sur le plan des performances affichées, la vitesse reste le critère de sélectivité le plus courant. La vitesse de pointe annoncée – hors voitures à haute performance – s’établit en moyenne à 184 km/h sur ce panel. 40 voitures affichent même une vitesse de pointe supérieure à 200 km/h. La consommation moyenne annoncée est de 6,8 l/100 et 22 modèles affichent plus de 8 l/100. La sobriété et la discrétion ne sont pas les critères privilégiés, même pour les hybrides rechargeables souvent surpuissantes.

Il faut aussi noter que le poids des véhicules essayés est rarement en baisse et dépasse allégrement 1500 kg. La consommation et les émissions en pâtissent naturellement, mais n’apparaissent pas dans l’article comme une préoccupation. Au contraire, le poids est mis en avant comme argument pour critiquer le manque de puissance des moteurs.

Certes ce panel hétéroclite est arbitraire, mais résulte néanmoins de choix conscients. Il renvoie, dans un magazine de grande diffusion, à une image traditionnelle de l’automobile qui laisse une part essentielle à la puissance, à la vitesse et au statut. Mais l’émergence des véhicules hybrides et électriques traduit une inflexion significative. Absents il y 5 ans, ils sont l’avant-garde d’une mutation automobile qui s’installe sans hâte mais devrait connaitre d’ici 2020 une accélération majeure annoncée par les plans produit des constructeurs.  En 2016 en France les véhicules électriques ont représenté 1,1% du marché et les hybrides 2,9%, soit au total 80000 unités.

Iu-2Automatique, électrique, la navette Transdev

A l’heure de la COP 23, comme du Smart City Expo World Congress, qui s’est tenu mi-novembre à Barcelone, où l’on prépare un monde sans carbone, on peut déduire de cette analyse que les vieilles recettes ont la vie dure car la résistance du moteur à essence et des « belles mécaniques » est vive, même si une autre histoire commence timidement à s’écrire.

 

[1] N° du 3 novembre 2017 d’Auto Plus


L'impossible consensus... ou comment malgré tout y parvenir !

Chaque individu abrite plusieurs personnages aux intérêts contradictoires. Nous jouons chacun de ces rôles alternativement avec conviction. Et nous nous attendons à être chaque fois pleinement satisfait sinon nous sommes furieux et frustrés. Cette colère devient rapidement, quand on est français, révolte. Forcément légitime. Et bien sûr nous attendons de nos gouvernants qu’ils satisfassent chacun de nos personnages avec un zèle égal.

Comme « fournisseur de service », que ce service soit une prestation intellectuelle, ou une prestation technique ou physique, soit simplement des heures de notre liberté qui nous sont prélevées par un patron, nous attendons, et si besoin, revendiquons une juste rémunération de notre contribution.

Comme « client », nous attendons, voire nous exigeons, d’avoir une qualité irréprochable pour le prix le plus bas possible, ceci au pied de notre porte et sans délai.

Comme « épargnant », même modeste, nous voulons que le sacrifice de notre non-consommation de revenu soit, d’une part, sécurisé contre les aléas économiques, et d’autre part justement rémunéré pour en tirer un revenu additionnel. Nous sommes allergiques aux risques mais friands d’une confortable sécurité.

Comme « contribuable », nous considérons que chaque centime arraché à notre poche et à notre libre arbitre pour être confié à des mains inexpertes de fonctionnaire anonyme est une pure spoliation, l’objectif de chaque contribuable étant de payer le moins possible pour lui en faisant payer les autres.

Comme « citoyen », nous exigeons des routes en parfait état, des écoles qui fassent de chacun de nos enfants des génies, des hôpitaux qui guérissent de tous les maux, une police exemplaire, une armée moderne, bien équipée, efficace pour nous protéger, une « vraie » politique familiale, une retraite confortable. Et tout ceci évidemment pour un coût tendant vers zéro…

Il y a donc en chacun d’entre nous, tout à tour, une montagne d’exigences qui doivent être satisfaites par… les autres. Car nous sommes hélas entourés d’incapables. Les patrons qui ne trouvent pas les bonnes commandes au bon moment, les enseignants qui font des fautes d’orthographe et bien sûr les transmettent à nos gamins, les salariés-du-public-en-grève, les syndicats, et au cœur de tout cela, deux responsables majeurs : le CAC 40, entité aveugle et anonyme, et les banques, cupides et prédatrices. Je pourrais ajouter, mais ce serait certainement excessif, que parmi les incapables majeurs qui nous nuisent avec acharnement il y a les étrangers, uniquement quand ils nous concurrencent comme fournisseurs de services, pas quand ils contribuent au paiement des factures collectives comme contribuables, et surtout le grand Satan coupable de tout cela, l’Europe. Certaines raffinent le modèle et les campagnes électorale sont un festival de vœux pour éliminer tous les obstacles à notre bonheur de citoyen, de contribuable, de fournisseur, de consommateur et d’épargnant…

Regardons de plus près le fonctionnement de ce modèle. Le fournisseur de service, de son temps, de son travail, de ses compétences, veut être mieux rémunéré de son effort. C’est légitime. Mais vu de l’entreprise qui intègre cette contribution dans le prix de revient total du produit ou du service qu’elle va mettre sur le marché, la rémunération devient un coût. Si ce coût de production ne permet pas de vendre le produit plus cher, il deviendra trop cher aux yeux du consommateur qui veut lui limiter les coûts de ses acquisitions. Donc le consommateur qui cherche les prix les plus bas nuit à son voisin de palier fournisseur qui veut les revenus les plus hauts. Le contribuable qui veut réduire sa facture d’impôt en cherchant à dissimuler des revenus ou acheter sans taxe, au noir ou en contrebande, nuit au citoyen qui veut les meilleurs services publics. On estime à une soixantaine de milliards le coût de la fraude fiscale directe. Toute fraude, même mineure, est une atteinte au partage de la contribution collective aux services que l’Etat fournit aux citoyens. L’épargnant qui exige les taux d’intérêt les plus élevés nuit à l’investisseur qui va créer des activités et des emplois par le financement de biens productifs et qui a besoin de payer le moins cher possible les capitaux dont il a besoin. Nous devons bien comprendre que l’économie est un jeu à somme nulle, les gains des uns étant les coûts des autres. La croissance, l’ouverture internationale et l’inflation, déforment cette mécanique de redistribution en augmentant les opportunités car le cadre devient plus large et les flux plus importants. Cette vision implique une compréhension de la difficulté des arbitrages. Chacun de nous sait par expérience qu’une dépense va accroître notre satisfaction immédiate au détriment de notre épargne. Mais l’épargne peut nous offrir une satisfaction différée et donc aléatoire car le long terme est un pari. Il en est de même pour une collectivité nationale qui va préférer donner immédiatement satisfaction aux électeurs-citoyens par une augmentation d’une prestation de rentrée scolaire, par exemple, plutôt que d’investir pour le long terme sur le développement du haut débit mobile. Mais ce ne sont pas les mêmes décideurs, les mêmes mécanismes, les mêmes budgets et les mêmes effets induits. Les arbitrages personnels, comme les arbitrages collectifs, sont donc des choix difficiles qui ne peuvent garantir à chacun le même niveau de satisfaction. Par ailleurs tout ceci se déforme dans le temps !

Cet impossible consensus, qui pourrait mener à des tensions inacceptables, et se traduit périodiquement par des crises, nécessite pour être toutefois résolu que les acteurs économiques acceptent des compromis. La transparence, le débat, la négociation et le respect des arbitrages sont donc indispensables dans une économie complexe. Le marché y pourvoie, pour partie seulement car le signal prix, s'il fonctionne bien, ne suffit pas à résoudre tous les problèmes. C'est bien parce que le consommateur tend à remporter sur le producteur que l'on transfère la fabrication de sèche-linge de France en Pologne.

Le débat collectif, documenté, le vote fréquent sur des questions précises doivent être largement exploités pour rendre les arbitrages et leur conférer une autorité forte pour éviter la remise en cause systématique des décisions prises. Ainsi écrivait Condorcet en 1794 : « Ainsi, l’on n’osa plus partager les hommes en deux races différentes, dont l’une est destinée à gouverner, l’autre à obéir ; l’une à mentir, l’autre à être trompée ; on fut obligé de reconnaître que tous ont un droit égal de s’éclairer sur tous leurs intérêts, de connaître toutes les vérités, et qu’aucun des pouvoirs établis par eux sur eux-mêmes, ne peut avoir le droit de leur en cacher aucune. » Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain.

Ce travail est encore loin d'être accompli. Il est pourtant la clef de la recherche de solutions collectives dont nous avons besoin pour continuer à progresser.


Drôle de campagne, vrais enjeux...

Beaucoup de scrutins, peu de débats de fond

Cette drôle de campagne électorale pour les vrais scrutins d’avril, mai et juin entretient un malaise qui dure depuis le démarrage  de cette  longue campagne pré-présidentielle qui nous a valu déjà quatre scrutins. Tout se passe comme si l’opinion, oubliant les enjeux réels, usée par ces débats, et ces scrutins dont on peut aujourd’hui douter de l’utilité, se laissait aller, apathique, assommée face aux scandales qui offrent une dramaturgie renouvelée à chaque instant. Par ailleurs, tétanisée par l’improbable show quotidien qu’offre Trump, qui démontre que tout est possible et tout est à craindre d’une machine politique devenue folle, l’opinion se met sérieusement à s’inquiéter sur l’issue opérationnelle du scrutin. Car même si ce théâtre peut passionner par ses rebondissements, nul n’ignore que pendant les travaux les ventes doivent continuer. Avec les primaires et la mise en place de la nouvelle équipe de l’exécutif, c’est plus d’une année d’incertitude que le pays s’offre.

Malgré cet état d’apesanteur et ces manœuvres dilatoires qui retardent le moment où le débat va devoir finalement se dérouler pour dessiner le futur des cinq prochaines années, il va bien falloir travailler, réfléchir et in fine décider. Or le temps presse car même si le pouvoir du Président de la République est beaucoup moins large que ne laissent entendre les candidats, il occupe une place essentielle dans le jeu politique de la Ve République.

Pour prendre le temps de la réflexion, ce qui est toujours difficile quand on vit les événements en temps réel, il faut se rappeler que nous sommes dans un régime mixte, présidentiel et parlementaire. Les décisions qui sont prises impliquent une forme de consensus entre des deux pouvoirs également issus du suffrage universel. La plupart des décisions de gestion sont du ressort du gouvernement, responsable devant l’Assemblée, comme l’ont démontré les cohabitations toujours possible même si l’alignement des calendriers des élections présidentielle et législative a pour but de les éviter. Parfois la cohabitation se déroule au sein du même camp. Si l’affrontement  présidentiel surmédiatisé agite les esprits depuis des mois par sa dramaturgie, il n’est qu’une pièce d’un système plus large qui va également nous occuper en juin 2017 et bien au-delà….

Ces précisions nous incitent à mieux comprendre que si les enjeux électoraux sont décisifs, ils ne sont pas exclusifs car la vie économique et sociale d’un pays ne dépend que pour partie des choix politiques. Les déterminants socio-techniques jouent un rôle beaucoup plus important car ils fixent des limites et ouvrent des opportunités aux intentions des gouvernants en dépassant le cadre territorial et temporel de l’action publique. Toutefois les dirigeants surestiment de façon récurrente leur capacité à comprendre ces mécanismes systémiques complexes et à intervenir pour infléchir le jeu des facteurs. Ils ont tous le sentiment que le volontarisme, martelé avec plus ou moins de vigueur, pourra faire revenir les fleuves à leur source. Ceci serait facilité par un « retour » aux frontières nationales, la souveraineté nationale étant proposée à l’opinion comme le cadre magique de la résolution de la plupart de nos problèmes. 

Pour la première fois dans un tel scrutin, la question du protectionnisme est en effet au cœur du débat. Une majorité de candidats en fait un axe central de leurs propositions. Cette audace dans un pays qui depuis la fin de la seconde guerre mondiale a fait de son ancrage dans une Europe économique, puis politique, l’invariant de sa stratégie internationale, surprend car l’opinion semble s’accoutumer d’une idée qui tourne résolument le dos a une culture qui a marqué plusieurs générations.

L'ancrage international de la France

Les attendus du Traité de Paris de 1951 créant la Communauté européenne du charbon et de l’acier, en 1951, ont en effet ouvert la voie à un effort continu et ambitieux  de coopération en Europe. L’Europe a été conçue à la fin de la seconde guerre comme l’outil indispensable de la paix et de la prospérité. La France a ainsi  toujours été motrice dans le processus d’élargissement de l’Union Européenne,  mais également sur le plan mondial avec une adhésion sans réserve à l’Organisation Mondiale du Commerce.

« CONSIDÉRANT que la paix mondiale ne peut être sauvegardée que par des efforts créateurs à la mesure des dangers qui la menacent;

CONVAINCUS que la contribution qu'une Europe organisée et vívante peut apporter à la civilisation est indispensable au maintien des relations pacifiques;

CONSCIENTS que l'Europe ne se construira que par des réalisations concrètes créant d'abord une solidarité de fait, et par l'établissement de bases communes de développement économique;

SOUCIEUX de concourir par l'expansion de leurs productions fondamentales au relèvement du niveau de vie et au progrès des oeuvres de paix;

RÉSOLUS à substituer aux rivalités séculaires une fusion de leurs intérêts essentiels, à fonder par l'instauration d'une communauté économique les premières assises d'une commumaulé plus large et plus profonde entre des peuples longtemps opposés par des divisions sanglantes, et à jeter les bases d'institutions capables d'orienter un destin désormais partagé »

Si ces principes forts ne font plus aujourd’hui l’unanimité, ils n'ont toutefois pas perdu leur sens et leur actualité. L’Europe comme construction volontariste a été mal comprise et mal aimée des peuples.  Les bénéfices de cette coopération apparaissent insuffisants au regard des contraintes que des gouvernants peu courageux ont fait porter sur une Europe qualifiée de désincarnée, et donc jugée bureaucratique. Or ce n’est pas la Commission qui gouverne l’Europe, mais le Conseil de l’Union européenne, composé des chefs de gouvernement des Etats que rassemble l’Europe. La complexité des institutions européennes, le manque de soutien populaire à cette construction difficile à appréhender et mal expliquée ont rendu l’idée européenne peu porteuse au cours des dernières années, même si le Parlement européen, élu au suffrage universel, apporte une indéniable dimension de transparence et de démocratie. Mais à 28 membres, la cohérence et la lisibilité de l’action sont difficiles à valoriser. Est-ce que face à la Chine, aux Etats-Unis, à la Russie, la France seule peut aborder la complexité systémique d'un monde multiple mais confronté aux mêmes problèmes : menaces climatiques, raréfaction des ressources naturelles, fragilisation des océans, dégradation de la biodiversité, migrations non désirées ? Les Etats sont trop grands pour les petits problèmes, mais certainement trop petits pour las grands problèmes. Le moment est-il bien bien choisi pour détricoter l'oeuvre de la construction européenne, certes incomplète et imparfaite, mais qui constitue un cadre de résolution de problèmes existant, démocratique et améliorable. 

Le sentiment de déclassement nourrit la colère 

Mais c’est surtout la crise de 2009 et la transformation rapide des équilibres économiques du monde avec l’émergence de la Chine et de l’Asie qui ont conduit plusieurs courants politiques à développer dans les pays matures l’idée que la mondialisation était la cause des problèmes rencontrés dans ces nations qui, ayant été à l’origine du développement économique mondial, souffraient de voir leur leadership contesté et leur économie ralentie. Cette montée d’un désir de protection contre la concurrence mondiale, jugée déloyale, s’est incarnée dans le vote de sortie du Royaume Uni de l’Union européenne et dans l’élection de Donal Trump aux Etats-Unis.  Les peuples frappés par la remise en cause de leur environnement professionnel et social se sentent abandonnés, trahis par leurs dirigeants qui eux s'en sortent bien. 

Friches
Le discours d’investiture de Donald Trump présente une théorisation de ce mouvement. Une analyse intéressante du Guardian de ce discours met bien en évidence qu’il s’agit d’une déclaration de guerre contre les compromis conduits depuis des décennies par la classe dirigeante américaine dans le concert mondial. C’est une promesse de redressement national fondé sur le retour au protectionnisme et une vision sans nuance et sans précaution du "America first" au profit des classes moyennes et populaires qui auraient été victimes de la mondialisation... Analyse sommaire, discours sans nuance, tout ceci est nouveau dans l'histoire contemporaine car, malgré ce volontarisme cinglant, les Etats-Unis restent une démocratie avec des contre-pouvoirs, comme les premiers mois du mandat de Trump le démontrent,  et doivent respecter les engagements internationaux. Il reste que cette vision repose sur une analyse aussi limpide que celle des populistes européens : le peuple a été trahi par la classe dirigeante qui s'est enrichie par la mondialisation, alors qu'elle transformait un pays prospère en champ de ruines industrielles et de dégénération morale. Le diagnostic est sans précaution, les réponses sont simples : droits de douane élevés, arrêt total de l'immigration, préférence nationale en matière d'emplois et d'investissements. Cette vision prend le contrepied exact de cinquante années de croissance et de relations internationales.

Aujourd'hui nul ne peut dire si cette rupture majeure voulue en 2016 aux Etats-Unis et en Grande-Bretagne, qui ont avec Ronald Reagan et Margaret Thatcher initié la vague de libéralisation économique des années quatre-vingt, va ouvrir une nouvelle page de l’histoire économique mondiale. Il est certain que ces positions ouvrent le débat sur les limites de la libéralisation de l’économie mondiale et sur les conditions de la transformation technique et sociale des économies matures. Mais on ne tue pas une idée, car c'est trop coûteux, on l'améliore ! 

Et pendant ce temps-là, rien n'arrête la révolution numérique 

Car indépendamment de l’émergence cette culture protectionniste, d’année en année se dessine, de façon systémique, un monde où le numérique revisite chaque secteur, chaque métier, chaque processus. Le numérique se joue des frontières. Sur toute la planète, ce sont des milliards d'humains de tous âges qui utilisent le téléphone mobile, désormais "intelligent", et accèdent aux savoirs et services du web.Il ne s’agit pas de louer candidement une « digitalisation » à tout crin de la société pilotée par quelques entreprises si habiles, qu’elles pourraient en devenir cyniques, mais d'en comprendre les ressorts, les enjeux, les risques. L'iconomie, ce n’est pas chanter les louanges d’une disruption ravageuse, mais chercher à construire une société plus efficiente dans la gestion des ressources naturelles et plus ambitieuse dans le respect des hommes et la stimulation de leurs infinies compétences cognitives. 

Robots

Pour y parvenir nous allons, comme les générations précédentes, exploiter la science et la technique, mais plus vite et à plus grande échelle puisqu’il s’agit de notre planète Terre et plus seulement de l'Occident ou de la Chine. Tout ce que nous voyons chaque année au CES de Las Vegas, de l’hygiène bucco-dentaire à la voiture autonome, des exo-squelettes pour handicapés aux imprimantes 3D pour fabriquer des voitures,  aux jeux pour apprendre à construire et programmer des robots dès le plus jeune âge fait sens par rapport à une perspective historique globale : l’amélioration de nos compétences et de notre discernement. Lucidement, en mesurant les conséquences et en trouvant des parades aux problèmes potentiels, nous pouvons construire un monde meilleur où le progrès retrouvera tout son sens : vivre mieux, plus longtemps et en bonne santé, rendre le travail stimulant et non épuisant grâce à la coopération avec les robots, se déplacer en toute sécurité avec des véhicules autonomes, anticiper  les tensions sur les ressources et le climat grâce au big data, apprendre toujours et encore pour donner à chaque habitant de la terre ses chances dans le respect le plus total et sans discrimination avec le concours de l’intelligence artificielle.

Transférer à des machines et à des logiciels des tâches pénibles et peu valorisantes est plutôt une bonne nouvelle. Mais ce sont des humains qui vont, au moins temporairement,  perdre ces emplois et ces revenus, et on ne peut contempler ce phénomène ne se croisant les bras. Ce tarissement progressif d'une source d'emploi faiblement qualifiés impose une réflexion lucide et des mesures d'accompagnement de long terme.

C'est un chantier complexe qui ne peut que se développer dans un esprit de co-construction pragmatique visant l’intérêt général, c’est à dire la prospérité et la sécurité.  Peut-on le faire isolément ? Peut-on le faire à partir d'une lecture partisane, idéologique, du monde et du progrès ? La France seule a-t-elle la taille critique pour concevoir et mettre en œuvre la politique nécessaire pour embrasser ces problèmes ?

De toute évidence, non… L'exercice de la souveraineté n'exclut pas la recherche de solutions mutualisées au niveau régional face aux grands ensembles qui sont constitués sur la planète. Il faut rechercher inlassablement le bon niveau d'exercice de cette orchestration dont nous avons besoin pour éviter que le destin des nations et des peuples soit décidé par les nouveaux maîtres de la technologie. 


CES, amplificateur de la révolution numérique

Capture d’écran 2017-01-18 à 10.26.29 

La transformation numérique est la plus récente étape de la révolution cognitive de l’homme. Elle diffère des étapes précédentes par son caractère à la fois global et rapide. Elle concerne la planète toute entière, et se développe de façon exponentielle depuis la démocratisation de l’internet avec le web en 1995. Jamais dans son histoire l’humanité n’avait accumulé autant de potentiel technique et d’information pour transformer son environnement et ses connaissances. Et les progrès que nous avons accomplis en dix ans dans la maîtrise de chacun des composants techniques - processeurs, réseaux, logiciels - sont stupéfiants.

Le CES révèle la dualité de la révolution numérique. L’industrie informatique ne cesse de gagner en puissance et de se concentrer, quelques acteurs majeurs ayant la maîtrise de l’infrastructure technique qui constitue le socle indispensable de la performance. Simultanément, viennent se greffer sur ce socle une multitude de solutions, parfois marginales ou éphémères, issues de centaines de milliers d’entrepreneurs et d’innovateurs répartis sur toute la planète. De cette effervescence créative, brouillonne et spontanée, émergeront des pratiques et des usages qui contribueront à tisser les mailles d’un nouvel environnement socio-technique. Les formes de ce nouvel environnement émergent progressivement de ce double mouvement de transformation technique et de création d’opportunités. Elles sont encore floues, certaines pistes ne se concrétiseront pas comme nous l’avons vu pour la promesse avortée de la généralisation de l’image 3D ou de la transformation du système de production par la multiplication des imprimantes 3D. Elles prendront certainement des formes imprévisibles et une ampleur encore insoupçonnable. L’intérêt du CES est de nous plonger dans ce mouvement puissant de tectonique des plaques techniques et d’usages et de permettre sinon des prévisions fiables, tout au moins des analyses des vecteurs de force en présence.

La transformation continue des pratiques sociales

Chacun peut observer dans son environnement immédiat, au travail, dans la vie quotidienne, la transformation effective des pratiques courantes. Avec l’irruption du smartphone, on sait désormais, avec ce seul outil, prendre des décisions informées et contextuelles pour organiser son temps, ses itinéraires, l’usage des moyens de transport, ses relations personnelles et professionnelles. On sait choisir, comparer, acheter, payer. On peut améliorer sa forme physique, gérer la température de son domicile, surveiller ses enfants à distance, piloter sa consommation d’énergie. Et tout ceci sans délai, de n’importe quel point, à n’importe quelle heure.… Quand à chaque nouvelle version de smartphone, la presse boude en trouvant qu’il n’y a plus d’innovations, on a tout simplement oublié qu’avec cet outil, et son environnement technique de logiciels, de réseaux, de géolocalisation, de capteurs, tout a déjà profondément changé. Et si le marché ralentit, les chiffres font encore rêver avec environ 1,6 milliard de ventes en 2016.

L’innovation se porte massivement dans l’industrie qui a su rapidement apprendre à acclimater robots et capteurs, drones et imprimantes 3D, pour repenser les processus industriels dans un souci d’optimisation énergétique et de meilleure gestion des ressources naturelles. L’homme y trouve  sa place dans une coopération nouvelle homme/machines qui appelle de nouvelles compétences. La continuité numérique permet de gérer simultanément plusieurs niveaux d'implication personnelle et donc d'augmenter sa capacité d'interaction avec l'environnement. C'est certainement au prix d'effets secondaires, comme un risque de superficialité, une forme de distraction, ou encore de stress. Tout ceci commence à faire l'objet d'études scientifiques, mais force est de reconnaître que chacun d'entre nous a su apprendre à évoluer dans ce nouveau monde sans difficulté et sans douleur.

L’innovation, ce n’est plus une percée isolée d’un nouvel usage, d’un nouveau produit, c’est une avancée systémique qui englobe une multitude de nouvelles pratiques et de nouveaux services, tellement intégrés dans la vie sociale qu’ils sont immédiatement métabolisés.

Le CES de Las Vegas, dans les premiers jours de janvier chaque année, est avant tout un lieu d’observation de cette nouvelle réalité numérique, qu'il faut analyser à travers la visite des stands, écouter comme au spectacle lors des keynote et des conférences, humer lors des échanges entre participants. Plus exactement, il ne faudrait pas parler de "réalité numérique" mais d'"amplification numérique de la réalité". Car le numérique ne se substitue pas au monde réel, il y ajoute une couche de simplification et de mise en cohérence qui rend plus faciles les décisions les plus triviales comme les plus complexes. Mais nous vivons dans le réel. Notre rythme de vie est scandé par des activités réelles et notre rythme biologique. Jusqu‘alors, l’informatique était bien éloignée des considérations quotidiennes des terriens. Bien sûr, l’informatique est déjà présente depuis des décennies dans les grandes organisations, et imprime sa marque sur toutes les transactions. Mais c’est une action invisible souterraine, pilotée par d’autres. Ce n’est vraiment que depuis le début du web que l’on peut toucher chaque jour un objet informatique, produit et application, qui va nous aider à accomplir une tâche, à régler un problème, par nos propres moyens, sans investissement coûteux en ressources, en temps et en compétences.

L’ère numérique décrit cette situation nouvelle dans laquelle se multiplient les situations personnelles et professionnelles où l’utilisation d’un objet, généralement connecté au réseau internet, et doté de programmes quasiment gratuits et faciles à utiliser, va s’insérer dans notre vie pour nous aider de façon continue à accomplir des tâches. On observe depuis dix ans au CES l’amplification de ce phénomène dans trois directions:

  • le nombre d’objets connectés, couvrant un nombre croissant de cas d’usage, augmente
  • ces objets ne se contentent plus d’interagir de façon unitaire avec l’homme, mais coopèrent pour apporter un service qui recouvre plusieurs types d’interactions spécifiques
  • cette coopération laisse de plus en plus de place à l’utilisation des outils de l’intelligence artificielle pour affiner le service rendu de façon prédictive et contextuelle

Au-delà des fausses bonnes vraies idées qui foisonnent avec des start-up souvent éphémères, il y a plusieurs courants de fond qui, de fait, vont changer la manière dont nous vivons et dont la société est organisée. Robots, intelligence artificielle auto-apprenante ("machine learning"), traitements informatiques et stockages de données déportés dans des serveurs distants ("cloud"), déploiement de réseaux à bas coût pour les objets connectés, déploiement de la 5G à haut débit, tout ceci compose la couche technique qui permet d'inventer des services peu coûteux et facilement déployables. Les progrès fulgurants du matériel et du logiciel permettent de constituer aujourd'hui de nouvelles plateformes qui offrent un niveau de service aux intégrateurs que deviennent les constructeurs automobiles, les transporteurs, les institutions de santé, les opérateurs de voyage. Evidemment ce niveau de service élevé s'appuie sur la maîtrise fine d'une information personnalisée et géolocalisée, dont l'usage ouvre également des champs d'intrusion dans nos vies à un niveau jamais imaginé. Il y a donc un défi nouveau pour les législateurs : trouver le juste niveau d'équilibre entre les bénéfices fournis et le niveau de risque. Au CES, il y a encore beaucoup d'innovations et de transformations, parfois subtiles d’année en année, de l’écosystème mais aucune ne revêt de caractère spectaculaire. Désormais c'est la cohérence systémique qui va devenir révolutionnaire, tous les outils étant mis à profit simultanément pour délivrer un service efficient et utile. La technique doit servir l'homme, pour de grands projets comme pour la vie quotidienne. C'est moins spectaculaire mais plus profond. La question du sens de l’innovation technique, l’impact sur la transformation de l’emploi, le problème du traitement des données personnelles sont des sujets qui ont été abordés de façon directe pendant les conférences du CES 2017 avec une certaine gravité. La prise de conscience auprès des acteurs engagés dans cette révolution de son caractère anthropologique, avec des conséquences majeures sur la vie de hommes, est récente. C’est un fait important de ce CES 2017 qui replace l’innovation dans un contexte beaucoup plus large de l’intérêt de la technique pour les humains.

La France est désormais très présente

La France peut s'enorgueillir d'une forte présence au CES 2017 dans tous les secteurs. Le CES n’a longtemps été qu’une manifestation commerciale américaine. Depuis plusieurs années, les entreprises chinoises ont étendu leur présence passant du statut discret de fournisseurs de composants et d’assembleurs aux premières places désormais occupées par des entreprises de stature mondiale, comme Huawei ou Baidu, ou des acteurs majeurs en Chine mais encore faiblement implantés sur les grands marchés mondiaux comme Hisense ou Haier. Si l’influence japonaise s’étiole, avec la disparition de Sharp, les difficultés de Sony, Panasonic est encore largement présent notamment grâce à son partenariat avec Tesla dans les batteries. Les grands firmes coréennes LG et Samsung rivalisent en créativité pour faire de leurs stands au CES un brillant démonstrateur de leur savoir-faire dans tous les segments du marché.

Il faut se féliciter de la forte présence française en 2017. Car si les start-up sont actives, le tissu économique régional très présent, on peut rencontrer dans des stands plus grands et établis au cœur des grandes marques une première génération d'ETI qui ont fait leurs débuts au CES il y a quelques années, comme Netatmo, Sculpteo ou Withings, des éditeurs comme Dassault Systems, des services publics comme La Poste, des énergéticiens (EDF, Engie) des entreprises historiques comme Valeo, Air Liquide ou Somfy et Terraillon. Loin d'être une opération vitrine, la présence française au CES, il y a encore quelques années marginale, illustre un savoir-faire systémique qu'il faut valoriser et développer.

Plus que jamais il faut être tiré par ce futur entrepreneurial et innovant plutôt que poussé par un passé nostalgique. C’est la leçon pour la France d’un CES 2017 où la créativité est imprégnée de gravité face aux responsabilités des acteurs sociaux dans un monde qui se révèle avec ses multiples opportunités brillantes mais aussi fait émerger de nouvelles vulnérabilités..


La voiture autonome, utopie ou nouvelle frontière de l'automobile ?

Conservatrice, établie, ancienne, l’industrie automobile subit comme tous les secteurs économiques les pressions de la dynamique des firmes qui organisent la société numérique. Désormais vieille industrie, elle doit, pour garder son statut d’industrie majeure démontrer qu’elle est capable de renouvellement en assurant la fusion de ses compétences propres avec celles issues du monde informatique et numérique. C’est un enjeu d’image, pour continuer à attirer l’attention du public, notamment jeune, sur le produit automobile, et attirer les ingénieurs les plus innovants. L’innovation technique répond à cet impératif dans un monde d’ingénieurs qui ne peut accepter d’être détrôné. Mais dans le monde actuel, ce sont les entreprises numériques qui incarnent cette dynamique. Google, Apple, Amazon et beaucoup d’autres attirent l’intérêt collectif, les clients, les talents, les capitaux. Lorsque Google a annoncé être en mesure de réaliser une voiture autonome, en se présentant comme un concurrent potentiel, l’orgueil de l’industrie automobile a été atteint ce qui a entraîné une réaction unanime des constructeurs classiques.

Aussi, 2014 a vu soudain apparaître dans le paysage automobile une nouvelle tendance technologique : la voiture sans conducteur. Il n’est pas de constructeurs qui n’aient annoncé, dans une surprenante surenchère, qu’ils allaient mettre « prochainement » sur le marché une voiture qui pourrait rouler sans que son conducteur ne se préoccupe de cette tâche désormais futile, conduire. Volvo, Daimler, Nissan, Ford, General Motors, Audi, BMW, Tesla se sont tous risqué à annoncer des dates probables de commercialisation, d’ici 5 à 10 ans, de ces véhicules autonomes ou semi-autonomes sans toutefois préciser l’ampleur du service rendu. Des partenariats inattendus se font jour comme Volvo et Uber.

Le projet n’est pas nouveau. On en trouve des prémices dans les visons futuristes des constructeurs dès les années 1950. Cependant, la ruée actuelle vers ce concept est apparue comme une réponse aux ambitions de Google des constructeurs automobiles établis qui prétendait pouvoir mettre sur le marché non seulement une voiture sans conducteur, mais aussi sans poste de conduite. Il est d’ailleurs bien curieux que, soudain, ceux qui exaltent et embellissent ce fameux plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à un automate le soin de s’acquitter de cette tâche.

Il faut toutefois questionner sérieusement l’intérêt de cette technologie en dépassant la fascination qu’elle inspire. Car après la valse des annonces, la réalité s’impose.

Figure_1_-_vehicule_autonome_en_1956

Vue de la voiture autonome en 1956 (article de l'Association Québécoise des Transports, juin 2015)


Les voitures sont désormais très bien équipées en automatismes multiples qui assistent le conducteur dans sa tâche qui, dans les conditions réelles de circulation, est à la fois complexe et fastidieuse, mais aussi fatigante et dangereuse. Il n’y a que dans les publicités que l’on voit une voiture filer sur une route dégagée et sèche, sans aucun trafic. La réalité quotidienne de la route est bien éloignée de ces images du « plaisir de conduire » qui demeurent obstinément à la base du marketing de tous les constructeurs. Les glissements sémantiques des slogans, soigneusement calibrés, marquant l’identité de marque des constructeurs sont signifiants. Renault qui s’était illustré avec un slogan fédérateur des usages, « Des voitures à vivre » renvoyant à un univers familial, puis hésité entre « Créateur d’automobile » et « Changeons de vie, changeons l’automobile », a adopté en 2015 un slogan qui introduit clairement la passion et certainement une forme d’individualisme : « Passion for life ».

Les constructeurs ont tiré depuis longtemps profit des avancées de l’électronique pour équiper leurs véhicules d’outils d’aide à la conduite. De multiples capteurs et actionneurs ont été intégrés depuis l’apparition de l’antiblocage des roues au freinage, l’ABS, en 1978, pour aider à la conduite ou se substituer au conducteur en cas d’urgence. De fait, d’ores et déjà, une voiture moderne va prendre des décisions pour maintenir sa trajectoire avec l’ESP (Electronic Stability Program), assurer une vitesse constante avec le régulateur, améliorer l’adhérence en cas de pluie ou de neige, amplifier le freinage en cas d’urgence, avertir d’un franchissement de ligne ou de dépassement d’une vitesse autorisée, tout en pourvoyant le conducteur de multiples informations sur son itinéraire. La dernière Mercedes Classe S comprend une centaine de micro-processeurs pour s’acquitter de ces multiples tâches. Ces assistances ne se substituent pas au conducteur, même si elles corrigent, à la marge, ses décisions inappropriées.

En fait, le débat sur la voiture sans conducteur est parti de la volonté initiale de Google de valoriser la suprématie de son système de cartographie, élément fondamental d’un système de conduite autonome qui nécessite une précision de l’ordre du centimètre. Les constructeurs ont réagi en montrant qu’en équipant une voiture de capteurs, radars, scanners laser, outils de géolocalisation et servomoteurs, ils étaient également potentiellement en mesure de se passer du conducteur. Et on a vu ainsi quelques dirigeants se montrer au poste de pilotage de ces véhicules expérimentaux mais sans toucher le volant resté bien classique, position assez curieuse et très peu naturelle qui montre bien que le concept est encore plaqué sur des véhicules conventionnels… Plus encore, pour riposter à Google, les constructeurs automobiles ont décidé de se doter d’un accès direct aux technologies de cartographie de pointe. C’est pourquoi Daimler, BMW et Audi ont ensemble racheté en 2015 à Nokia sa filiale Here, l’ex-Navteq, pour 2,8 milliards €.

Est-ce utile ? Est-ce faisable ?

Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. L’inattention, l’utilisation d’un téléphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Plus d’1,3 millions de personnes dans le monde, selon l’OMS, perdent la vie dans un accident de la route chaque année. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement.

Dès lors mettre au volant un ordinateur doté de capacités sensorielles puissantes et dépourvu des limites biologiques de l’homme est tentant. La motivation est noble : tendre vers le zéro accident et le zéro mort. On attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages, un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. Mais pour atteindre ces résultats il faudrait que la machine elle-même soit exempte de failles, tant dans la conception que dans la gestion des décisions. Confier sa vie à des automates et des algorithmes impose le zéro défaut.

Soulignons d’abord qu’un nouveau vocabulaire est nécessaire pour rendre compte de cette nouvelle avancée technique. On ne devrait pas parler de « voiture autonome » mais de voiture à « délégation de conduite ». Une normalisation de ces niveaux de délégation de conduite a été élaborée. Ce terme de délégation de conduite à des ordinateurs, permet en effet de couvrir une large gamme de situations. Conduire un véhicule sur un parcours varié est une tâche complexe. Une voiture à conduite automatique qui se subsisterait aux véhicules actuels devrait remplir les missions polyvalentes d’un conducteur. Les obstacles sont multiples : emprunter un itinéraire varié, sur des routes hétérogènes, en milieu urbain dense ou en rase campagne, faire face aux aléas du trafic, aux comportements imprévisibles des piétons et autres usagers et aux conditions météorologiques, aux changements de la configuration de la route, en cas de travaux par exemple... Cette compétence du conducteur, ce serait aux ordinateurs du véhicule de l’assurer en s’appuyant sur les informations stockées et sur celles acquises en temps réel par dialogue avec les autres véhicules et les infrastructures au sol.

C’est là où le pari devient plus compliqué. S’il est relativement facile de faire rouler sans solliciter le conducteur une voiture sur autoroute dégagée, il faut que le véhicule soit en mesure d’atteindre une telle route par ses propres moyens et s’en dégager. Il faut donc définir à quel moment l’automatisme rend la main au conducteur s’il ne peut assurer en pleine sécurité une conduite en milieux variés. Il faut donc que le conducteur soit en permanence en situation de vigilance et que l’interface automatisme/humain soit parfaitement fiable. Même avec des pilotes expérimentés, et dans un espace dégagé, les pilotes automatiques des avions sont parfois sources de confusion aux conséquences fatales.

 La conduite automobile est en effet une tâche humaine complexe de plus en plus automatisée. Le travail du conducteur est assisté par de multiples copilotes prévenants. Ces outils vont de l’assistance à la tenue de trajectoire et au freinage, fonctions désormais largement déployées sur les véhicules neufs, à l’assistance au stationnement, à la régulation de vitesses liée au trafic et ultimement à la prise de contrôle totale dans les embouteillages. Ces assistances sont graduellement installées dans les véhicules de dernière génération, chaque nouveau modèle étant l’occasion de compléter l’équipement vers la prise en charge de fonctions nouvelles. Mercedes s’est fait une spécialité de ces équipements, aussi divers que coûteux, et sa Mercedes Classe S constitue un laboratoire roulant, et onéreux, de tous ces outils. Mais les véhicules de moyen de gamme ont aussi, parfois en dotation de base, des équipements qui auraient fait rêver il y a encore cinq ans. Il faut bien admettre que cette course en avant technologique ne fait pas mieux vendre les voitures et n’est plus entre constructeurs un élément suffisamment différenciant. C’est devenu un élément de confort et de sécurité auquel les automobilistes s’habituent et ne souhaitent pas payer.

Où en est la délégation de conduite totale ? Une expérimentation onéreuse.

Pour le moment la délégation de conduite totale, qui fait de la voiture un véhicule réellement autonome à qui il s’agit d’indiquer la destination, n’est qu’un rêve. Les voitures sont soumises à des conditions de fonctionnement bien plus difficiles que les avions, dont les conditions d’usage sont plus simples à modéliser et à programmer. Pour atteindre une telle fiabilité il faut multiplier les capteurs, les processeurs de traitement faisant appel à des algorithmes complexes et à l’intelligence artificielle («machine learning »), les automatismes pour se prémunir de la défaillance d’un composant ou d’un programme. Un tel équipement complexe ne peut qu’être très coûteux. Ainsi un laser 3D, ou lidar, coûte encore 50 000 € pièce. Chaque prototype de la Google Car est équipé de machines représentant plus de 100 000 $. Comment prévoir toutes les situations auxquelles un conducteur pourrait être confronté ?

ll faut donc revenir à une réalité opérationnelle qui ne fera certainement pas rêver mais qui a plus de chances de se concrétiser rapidement. Toyota prône une approche pragmatique et graduelle qui parle de voiture autonome, par couches successives d’avancées techniques, mais non sans conducteur. L’humain, pour Toyota, doit en effet rester en permanence en situation de contrôle. Cette piste est la plus vraisemblable. Les constructeurs vont "simplement" même si le travail est déjà considérable étendre progressivement le champ des automatismes déjà installés, en commençant par le très haut de gamme pour financer le coût de ces installations. Car un des aspects sous-estimés de la voiture autonome est son modèle d’affaire. Comment justifier un tel surcoût par véhicule, même si on peut penser que les progrès de l’électronique embarquée et des logiciels permettront d’en abaisser le coût ?

L’émergence d’un marché de véhicules professionnels ?

Il n’y a vraisemblablement que dans les usages professionnels que ces équipements pourront se justifier dans les prochaines années. Le projet CityMobil2, financé par l’Union Européenne, a permis de tester cinq expérimentations de transport urbain autonome (ARTS : Automated Road Transport Systems) entre 2014 et 2016. Ces expériences ont permis de valider positivement le concept auprès des usagers en termes de confort, service et sécurité, sans enthousiasme particulier, et de tester leur sensibilité par rapport aux voitures autonomes. On voit en 2016 se multiplier ce type d’expériences dans des environnements variés. Il s’agit généralement de navette de passagers autonome adaptée aux espaces sous contrôle comme les aéroports, les ports, les parcs d’attraction ou d’exposition. L’expérience menée par Keolis avec la firme française Navya porte ainsi sur deux navettes de 15 passagers sur une distance linéaire de 1,3 km à 20 km/h dans le quartier lyonnais de Confluence. Ces véhicules coûtent 200 000 €.

Il faut également suivre les travaux d’Uber pour valider un modèle de conduite automatique hautement sécurisée qui permettrait de fournir le service sans devoir gérer les chauffeurs. Ce n’est pas une expérience anodine car Uber emploie dans le monde un million de chauffeurs. Quelques SUV Volvo XC90 ont été équipés pour tester le service dans les rues de Pittsburg, avec toutefois un chauffeur à bord pour des raisons de sécurité et d’acclimatation des usagers. Il est prévu que la flotte comporte dès fin 2016 cent véhicules, ceci dans le cadre d’un plan d’investissement de 300 millions $ copiloté par Volvo et Uber pour commercialiser des voitures autonomes en 2021. Mais si on estime que le coût total d’un chauffeur Uber en France ne dépasse pas 60 000 € par an, il faudrait que le coût supplémentaire d’un véhicule autonome soit significativement intérieur pour prendre ce risque commercial. L’expérience de taxis autonomes de Singapour qui a démarré mi-2016, porte sur un test plus modeste de véhicules électriques rendus autonomes par une start-up, nuTonomy, spécialisée en robotique et intelligence artificielle. Il s’agit de six Renault Zoe et Mitusbishi i-MIEV qui opèrent à partir d’emplacements précis dans un quartier d’affaires de 200 hectares. Ces voitures ont toutefois un chauffeur prêt à prendre les commandes. L’objectif de la start-up est de réduire le nombre de voitures circulant à Singapour de 900 000 à 300 000.

Les véhicules lourds comme les engins de manutention, en site propre, et les poids lourds profiteront certainement de l’avancée de ces techniques.

Carlos Ghosn, parmi d’autres dirigeants, s’est risqué à annoncer en 2016 un plan précis en trois étapes pour Renault et Nissan: conduite automatique dans les bouchons en 2016, conduite automatique sur autoroute en 2018 et conduite en ville en 2020. La conduite automatisée en toutes circonstances ne pourrait être imaginée qu’à partir de 2025. Dans le concert des effets d’annonce que ne va pas manquer de susciter le Mondial de l’automobile de Paris il va être intéressant de distinguer les constructeurs sur le caractère réaliste sur le plan économique de leurs projets de voitures à délégation de conduiteLa voiture autonome, nouvelle frontière de l'automobile ? 

Ce texte est tiré d'une étude Fondapol-Sia Partners qui va paraître fin septembre 2016 sur les enjeux politiques du véhicule électrique


Uberisation, menace ou opportunité ?

« Uberisation », du nom désormais célèbre de la start-up née en Californie il n'y a que quatre ans, en 2012, "UberCab", est devenu en quelques mois un nom commun. C'est un privilège que les grandes marques mettent des décennies à acquérir. or le treme Uber et ses déclinaisons sont devenus sur toute la planète à la fois le symbole des vertus du web et un repoussoir absolu pour l’économie traditionnelle. Cette polarisation extrême des opinions illustre parfaitement  l’ampleur des bouleversements induits par Internet et le web. rappelons qu'entre quatre ans Uber s'est déjà installé dans 66 pays et 500 villes.

Uber dégage Uber-980x420Deux visions du monde s'affrontent

Nés seulement  à la fin du XXe siècle dans la sphère des usages domestiques,  l’infrastructure internet et les services du web ont bousculé le monde des entreprises qui ne considérait pas cette innovation grand public comme pertinente pour le monde professionnel. Douze ans après les premières apparitions du web, c’est l’iPhone qui allait en 2007 provoquer une nouvelle vague de mutations. En permettant l’accès mobile à toute l’information, en exploitant à large échelle le potentiel de la géolocalisation,  le smartphone mettait fin au règne de « l’informatique assise » qui servait de base à toutes les pratiques sociales de l’organisation du travail. Le traitement de l’information et de la connaissance, en situation de mobilité, casse les frontières et remet en cause les processus. En bousculant le temps et le lieu de travail, l’informatique nomade donne à celui qui est proche du terrain le moyen d’agir et d’interagir avec son environnement.

L’ubérisation, le rêve d’un marché efficace

Loin d’être achevée, cette révolution se traduit par une désintermédiation massive des métiers. Quand on peut trouver à travers une plateforme informatique agréable la solution à son problème, on ne cherche plus à utiliser les processus traditionnels, guichets, téléphone, intermédiaires obligés et coûteux. L’utilisateur va au plus simple et au plus agréable. Cette « ubérisation », redoutée par toutes les entreprises, est à l’œuvre partout au grand bénéfice du client, qui trouve dans ces outils le moyen de se libérer des carcans des processus bureaucratisés et de la mauvaise humeur des intermédiaires. A travers une interface ergonomique, il peut trouver, en toute transparence et sans stress, le meilleur outil de transport, le meilleur billet d’avion, le meilleur rapport coût/valeur pour un produit, le restaurant ou l’hébergement le mieux adapté à ses besoins, la référence de la pièce détachée qui lui manque.  La désintermédiation à travers une plate-forme répond à un vieux rêve : être capable de prendre lucidement la meilleure décision en temps réel et de façon contextuelle. La technologie le permet, les utilisateurs l’ont adopté.

L'agilité, plus qu'un outil, une culture

La généralisation de ce modèle et de ses dérivés nourries par l’évolution technique  est le moteur du changement que nous allons continuer à vivre dans le futur. Il sera graduel, continu, et va toucher tous les actes professionnels comme privés. L’informatique,  quittant le champ de l’industrialisation des processus répétitifs, est en marche pour conquérir tous les espaces de la conception, de la production, de la diffusion.  L’action se nourrit de l’information et de la connaissance, du rationnel comme des émotions. C’est la mise en relation, continue et riche, qui va donner à la décision, à tous les niveaux de l’organisation, une densité et une robustesse renforçant l’efficacité collective dès le niveau le plus fin, c’est à dire chaque personne.  

 Ce modèle d’organisation est agile et réduit la complexité pour s’adapter plus rapidement à un environnement changeant. L’agilité est une vision du travail basée sur l’idée de changement permanent, itératif et incrémental, où le produit final, matériel ou immatériel, doit pouvoir évoluer en s’adaptant au désir du client et aux conditions du marché. L’entreprise agile privilégie des cycles de développement courts, développe ses produits par itérations en fonction, en priorisant les évolutions identifiées,  se confronte très tôt au feedback du marché et des clients. Au besoin, elle peut « pivoter », c’est à dire changer radicalement son produit ou son business model si le marché l’exige. L’entreprise agile se nourrit de collaborations extérieures et remet en cause constamment, et sans drame, son modèle d’organisation. S’appuyant sur le réseau maillé collaboratif, l’entreprise agile est infiniment « scalable », c’est à dire qu’elle s’adapte au contexte sans délai ni rupture.

Revitaliser le sens du travail

Dans ce modèle, qui  n’a pas vocation à être marginal car il peut couvrir l’essentiel des activités, la personne est revenue au centre. Ceci peut apparaître comme scandaleux pour beucoup de tenants d'une économie plus stable et prédictive, plus administrée, telle qu'ils ont le sentiment de l'avoir vécue au cours des dernières décennies. Mais c'était une économie de rarété gérée au seul profit des productuers. Dans la mouvance du web, produire ou consommer ne sont plus des exercices frustrants imposés par d’autres, mais le moyen d’exprimer ses compétences, son talent, ses envies dans un cadre à la fois solide et fluide. Les tenants de l’économie conventionnelle peuvent se lamenter sur les conditions de travail des chauffeurs Uber, mais eux-mêmes considèrent que conduire une voiture et rendre des services est moins déshonorant que le chômage et génère un niveau de revenus satisfaisant dans un cadre plus libre que le salariat traditionnel. Uber affirme créer 20000 emplois dans le monde chaque mois.

Or pour beaucoup de gens aujorud'hui, ce n’est pas le travail qui pose problème mais la façon dont il s’exerce. La persistance de modèles autoritaires, inefficaces, prive beaucoup de collaborateurs du plaisir de la coopération, et alimente les dégâts du stress au travail. Uber n'est certes pas un modèle paradisiaque d'organisation du travail et de la gestion des compétences. Mais en existe-t-il vraiment ? Est-ce que le modèle de protection historique auquel est attaché nombre de salariés, en France, garantit, dans un monde qui bouge et avec une technologie qui ne cesse de rebattre les cartes, l'épanouissement, le développement des compétences, le sens de l'initiative et de l'innovation. La rigidté engendre la crise. Les exemples d'entreprises indestructibles qui ont fini par sombrer le démontrent.

Innover en matière de travail, c’est produire du sens et développer sans cesse la compréhension, le respect, la confiance et la formation, seuls moteurs de l’adhésion. Le numérique oblige à repenser le fonctionnement de  l’entreprise comme un réseau ouvert sur l’extérieur et non plus comme une pyramide fermée. L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, ne constituent pas des propriétés que l’on trouve à l’état naturel dans les entreprises. Il faut les fabriquer. C’est un travail de remise en cause des acquis. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. L’ubérisation n’est pas seulement un risque, c’est une opportunité pour la plupart des entreprises de se remettre en cause en relevant leur niveau d’exigence qualitative et leur capacité d’innovation pour séduire et fidéliser aussi bien les clients que les collaborateurs.


Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


L'économie collaborative est-elle fondée sur... le partage ?

La technologie avance, les grands acteurs se mettent en place et exploitent habilement leurs positions aux "postes de péage" de la société numérique. Faut-il craindre la construction de nouveaux monopole qui facilitant l'économie collaborative seraient les premiers à en tirer profit sans limite ? Le débat n'est pas simple alors que l'on s'interroge sur les emplois du futur et sur les mécanismes de financement des charges collectives mutualisées : fonctionnement de services publics, santé, prévoyance. Il faut inventer cette économie du XXIe siècle qui ne doit pas inquiéter mais faire réfléchir et agir sur des bases nouvelles. C'est le sens des travaux de l'Institut de l'Iconomie dont cet article est une production.

 

Article publié dans Le Monde du 4 février avec mes amis de l'Institut de l'Iconomie

 


Economie du partage ou hypercapitalisme ?
Les plates-formes numériques ne seront durables que si la rente qu'en tirent leurs propriétaires est redistribuée à leurs utilisateurs


Automatisation, robotisation, ubérisation : la révolution numérique porte la menace d'un chômage de masse. Il ne faudrait pas s'en plaindre, car la fin du travail ouvrirait, selon l'influent essayiste américain Jeremy Rifkin, une période d'activités bénévoles intenses. A l'image de Wikipédia, la connaissance, les images, les objets imprimables en 3D ne coûteront plus rien. L'énergie produite par chacun, le partage des objets et des services comme Vélib' ou Blablacar feront chuter les dépenses. L'économie du partage s'imposera ainsi jusqu'à éclipser le capitalisme et la nécessité de travailler.

Cette vision est séduisante, mais c'est un leurre. Cette nouvelle route du " communisme " conduit en réalité à l'hypercapitalisme. L'économie collaborative moissonne les richesses au profit d'une minorité, mais sans les redistribuer. Les contributeurs s'en indignent dès qu'ils en prennent conscience, ce qu'illustre le cas du Huffington Post aux Etats-Unis. Ce " Wikipédia du journalisme " faisait intervenir des milliers de chroniqueurs bénévoles, qui se sont révoltés le jour où le journal a été vendu pour 315 millions de dollars (plus de 288 millions d'euros) à AOL sans qu'ils reçoivent leur part.

Des milliers de crowdfunders (adhérant au financement participatif) se sont scandalisés quand Oculus, le développeur d'un système de réalité virtuelle auquel ils avaient apporté leur contribution,s'est vendu pour 2 milliards de dollars à Facebook. De plus, les grandes plates-formes de l'économie collaborative ne payent pas d'impôts. Sur ce point, cette économie ressemble à l'économie financiarisée, dans laquelle les plates-formes de trading à haute fréquence prélèvent leur dîme sans contrepartie. Dès lors, le cerveau, matière première du XXIe siècle, s'expose à la même surexploitation que les matières premières naturelles du XXe siècle. Dans sa forme actuelle, l'économie collaborative n'est pas durable.

Il faut donc introduire un nouveau mécanisme de partage des richesses. L'échec de la taxe Tobin nous a déjà montré que ce ne sera pas par l'impôt. Il vaut mieux s'inspirer des industries créatives, comme celles des jeux vidéo ou du cinéma, dont la production est monétisée par la propriété intellectuelle, ce que préconisait Maurice Lévy, le PDG de Publicis, dès 2006.

Innovations d'usage
Ce mécanisme doit intégrer une double détente, pour que le bénévolat initial puisse être rétribué équitablement dans le cas de sa monétisation indirecte, ce que recommande aujourd'hui le Conseil national du numérique. Il doit enfin s'adosser à des fonds souverains dont les actifs sont les brevets et les marques, sur le modèle déjà expérimenté de France Brevets, pour collecter des montants de redevances au lieu d'impôts.

Il faut aussi faciliter l'innovation d'usage, seule créatrice d'emplois, comme l'illustre la banque assurance. L'emploi de ce secteur était menacé par l'informatisation : le rapport Nora-Minc de 1978 anticipait 30 % de réduction d'effectifs à cause de l'automatisation du traitement des chèques, des distributeurs de billets, des relevés de compte, des virements, des prélèvements mensuels, de la comptabilité, etc. Mais, dans le même temps, les innovations d'usage apportées par l'informatique, comme la carte à puce ou la gestion personnalisée de portefeuilles de titres, ont plus que compensé ces réductions. Au final, les effectifs du secteur ont augmenté de 25 %. Aujourd'hui, le premier créateur d'emplois en France est de fait la société O2, dont l'innovation permet aux femmes de ménage de disposer de toute leur organisation dans leur smartphone.

La vision dominante de la révolution numérique est une menace. Quelques ajustements de partage des richesses et de doctrine économique permettraient d'en canaliser la puissance pour la rendre créatrice de nouveaux usages et de nouveaux emplois.

par Vincent Lorphelin, Jean-Pierre Corniou et Christian Saint-Etienne


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Décryptages du CES, suite...

On peut faire une première lecture du CES. Elle est déjà stimulante ! Elle consiste à lire en direct le flot des innovations techniques servi par la forme brillante que savent déployer les entreprises américaines. C'est le temps de l’enthousiasme. Il y a un second niveau de lecture, qui n'est plus dans le "quoi" de la révolution numérique mais dans le "pourquoi". A chaque étape de la remise en cause du système socio-technique, les humains ont cherché à comprendre le pourquoi de ce changement qui allait bouleverser leur vie, souvent d'ailleurs de façon tacite. Evidemment c'est une phase de questionnement et de doute. Le marketing du strass et des paillettes n'a plus cours : il faut trier ce qui est pertinent pour la vie des humains et qui va rester.  C'est le temps de la lucidité...

Le CES constitue une chambre de résonance exceptionnelle où se mêlent les histoires  des produits,  des entreprises et des entrepreneurs qui produisent l’économie numérique. Les key notes  en sont les amplificateurs. Le talent de communicateur des dirigeants invités est servi par des moyens techniques qui assurent une orchestration parfaite de l’histoire qu’ils ont choisi de raconter. Le casting de ces key notes est aussi révélateur du poids accordé par la CTA – Consumer Technology Association– à chaque entreprise et à chaque tendance structurante de la révolution numérique. La puissante CEA qui organise le CES, sous la férule de son dynamique président, Gary Schapiro,  a changé de nom cette année en abandonnant l’appellation historique de Consumer Electronics Association pour remplacer Electronics par Technology, ce qui illustre parfaitement le changement de positionnement du CES. La CTA demande d’ailleurs de ne plus décliner l’acronyme, l’évènement CES dépassant désormais largement les frontières du monde de la consommation.

Ces symboles savamment distillés traduisent bien l’évolution du CES. Naguère grand salon du son et de l’image, c’est aujourd’hui plus qu’un vaste marché. C’est un carrefour de rencontres, un lieu où s’expriment les tendances mondiales du marché. Derrière la force de ces démonstrations et l’habilité du spectacle, toujours réussi, il faut tenter de décrypter les messages porteurs de sens pour la grande histoire de la construction numérique dont nous sommes les témoins en temps réel. Car le CES provoque aussi un effet de halo qui projette des tendances sans lendemain. La montée et la chute de la télévision en 3D en sont un exemple récent. Au-delà des spectateurs immédiats, c’est le marché et les investisseurs qui sont les destinataires de ces messages. Les 3500 journalistes présents assurent une couverture médiatique unique à l’évènement. Emmanuel Macron à Las Vegas, surtout quand il intervient dans une key note, devient une star mondiale. La Poste présente au CES, c’est un message très fort qui a un retentissement majeur en France. Le détour par Las Vegas est un amplificateur de renommée, et un accélérateur d’affaires, surtout quand on y est couronné par un Award.

L’édition 2016 a vu apparaître plusieurs nouveaux venus - Reed Hastings, CEO de Netflix, Herbert Diess, CEO de Volkswagen, Mary Barra, CEO de General Motors, Ginni Rometty, CEO d’IBM, Robert Kyncl, Chief Business Officer de YouTube – relayer les habitués.

Si Diess était plus dans la contrition que dans la démonstration, Brian Krzanich CEO d’Intel est intervenu pour une seconde présentation  très « hype » pour démontrer qu’Intel est tout à fait  engagé dans l’internet des objets. IBM qu’on ne voit jamais est obligé de démontrer que son choix stratégique d’abandonner le matériel au profit des logiciels et des services de l’intelligence artificielle est justifié, alors que le chiffre d’affaires ne cesse de régresser. Mary Barra, qui remplaçait Ford un grand habitué du CES, a fait une démonstration sans révélation de l’intérêt de GM pour le véhicule électrique en présentant son dernier modèle.

La thématique majeure de tous ces acteurs est de montrer que le monde numérique constitue un ensemble homogène où tout – personnes et objets – est connecté. Cette omni-connexion n’a qu’un but : améliorer le sort de l’humanité. Cette affirmation, constante, ne souffre d’aucune limitation. Gary Shapiro admet bien toutefois que les « bad guys » peuvent aussi tirer profit de cet univers connecté. Mais cela ne doit en rien ralentir l’enthousiasme – « amazing » reste le maître mot -  et surtout justifier un interventionnisme gouvernemental.

Bien entendu les messages commerciaux ne sont jamais loin. Il faut convaincre les consommateurs et les investisseurs de la pertinence de la vision stratégique. Pour un Français, l’excès de publicité peut l’emporter sur la pertinence stratégique du message. Ce point a été notamment évoqué pour Netflix, qui n’a pas hésité à en rajouter pour montrer qu’Hollywood, désormais, c’était eux, en convoquant force acteurs et bandes annonces, ou pour Intel dont les invités multiples n’ont pas été avares de louanges pour expliquer que sans Intel, la musique, les drones, la mode et même la banque ne seraient pas les mêmes. La palme de la sobriété a été décernée à Samsung qui distillant le même message – nous sommes la plate-forme de référence – l’a fait avec méthode et pédagogie.

Trois idées fortes et partagées émergent de ces discours et de ces images:

  • Plus personne ne réussit seul. Le temps est à la coopération.
  • Laisser parler clients et partenaires, ils sont plus convaincants que vous pour expliquer que la coopération est indispensable
  • La disruption c’est vraiment mettre le client au cœur de son attention, et donc du business. Pour parler au client, il ne faut pas hésiter à se défaire de toute intermédiation. Il faut toujours se positionner au plus près du client de peur que quelqu’un d’autre le fasse.

L’éloquente démonstration de Netflix, au-delà du discours promotionnel, était centrée sur le caractère vital de la maîtrise technique pour être capable de servir le client.

Frank_Underwood_-_House_of_Cards

Oeuvre phare qui a lancé vraiment Netflix

Reed Hastings a expliqué comment, d’entreprise de vente par correspondance, mettant des DVD dans des enveloppes, Netflix est devenu producteur et diffuseur de contenus dans le monde entier. C’est par la maîtrise du video streaming, sur tous les réseaux, tous les formats d’écran qui a permis à la plate-forme de rentrer directement chez le client, et d’en connaitre les moindres réactions face au contenu diffusé. C’est cette connaissance intime, millimétrée, des clients qui permet à Netflix de devenir producteur de contenus à succès. Dès lors Netflix peut s’affranchir des autres producteurs de contenus en maîtrisant parfaitement toute la chaine de valeur. La leçon s’applique à tout acteur qui loin en amont du client dépend de l’improbable bonne volonté des intermédiaires pour améliorer sa performance. Il y a ainsi une forte aspiration vers l’aval des producteurs qui ne peuvent plus camper sur leur positionnement B2B historique.

Mais ce mouvement vital n’est pas à la portée de chacun. La culture interne, le poids des processus, la résistance des intermédiaires, l’image institutionnelle empêchent bien souvent de sortir du statu quo, quand ce n’est pas par simple inertie. Malgré ses efforts massifs, Intel a beaucoup de peine à sortir de l’image du couple Wintel et à apparaître comme un acteur majeur du monde de la mobilité contrairement à Qualcomm. Faute de succès rapide dans cette mutation, il tente de devenir incontournable dans le monde de l’internet des objets. Tous les constructeurs automobiles cherchent avec la voiture connectée à se rapprocher du client final en en connaissant les comportements. Mais c’est un mouvement tardif, qui peine à renforcer l’intimité client en hors de quelques constructeurs premium au moment où les clients se passent des constructeurs pour valoriser leurs véhicules par l’autopartage et le co-voiturage.

La leçon du CES 2016 est que le monde de l’internet et du web n’a pas fini de déstabiliser les acteurs en place au profit de nouveaux venus qui en ont compris, dans leur ADN, tous les éléments. L’internet des objets, nouvelle frontière, ne va pas simplifier la tâche des acteurs historiques. Dans tous les domaines, notamment le transport, l’énergie, la santé, la capture de l’information dans les objets en réseau va donner aux acteurs de l’information numérique une place majeure. Curieusement le peu de présence au CES de l’industrie bancaire tend à dissimuler une conséquence majeure de l’internet des objets : la prochaine disparition du cash, déjà largement engagée en Europe du Nord, et sa transformation par des échanges électroniques qui vont donner aux plate-formes de l’internet un rôle prééminent.

Le CES 2016 ne fait que marquer une étape dans la grande restructuration en cours de l’économie mondiale qui, pour l’instant, est dominée par les produits et la culture des Etats-Unis. L’information s’impose comme matière première du service  et de la création de valeur. Elle s’appuie sur les réseaux - internet et les réseaux de l’internet des objets -, le traitement des données, la restitution en temps réel et contextuelle des informations utiles, l’automatisation des processus enrichie par l’intelligence artificielle. Ceux qui comprennent les enjeux de cette nouvelle économie en deviendront, pour un temps, les leaders.

Chacun se bat pour se situer au plus près du client final au carrefour de la création de valeur entre objets, réseaux et service. C’est une quête risquée et passionnante dont l’issue ne peut être qu’incertaine. Derrière les déclarations d’autosatisfaction, savamment distillées, tous les acteurs de l’économie numérique ne peuvent être que lucides : tout peut changer vite. Et seule la vitesse d’action offre le moyen de s’adapter.