Le CES, un irremplaçable observatoire de la révolution numérique

 

S’il fallait résumer l’esprit de l’opus 2016 du CES, il faudrait insister sur le fait que l’innovation ne réside pas dans la pertinence d’une idée, mais dans la force de son déploiement. Bien entendu le CES 2016 fourmille d’idées nouvelles et les 250000 m2 des stands de  cette exposition hétéroclite et chatoyante recèlent des pépites qui deviendront certainement dans cinq ans d’évidents grands succès. Il suffit, pour se convaincre de la vitalité de la création numérique, d’arpenter les allées du Sands où sont installés les start-ups de l’Eureka Park ou exposés les Awards de l’année, distinction fort prisée à l’impact commercial convoité. Les idées foisonnent, la conviction des créateurs est contagieuse. Et la forte présence des stands de la French Tech rassure sur la capacité de notre pays à  innover, d’autant plus qu’on y rencontre de fortes délégations de dirigeants français, emmenés par Emmanuel Macron ou Pierre Gattaz.

375ece3498429295cb54f95f9cd0fe3b297af8c3

Mais la force qui émane du CES est la démonstration vivante du passage de l’idée au déploiement massif. D’année en année, la reconfiguration dynamique des espaces du CES, partagé désormais entre l’historique LVCC, Las Vegas Convention Center, et le Sands, dont il a chassé le salon de l’érotisme, montre bien, symboliquement,  la nature de la révolution numérique. C’est dans la vitesse et la profondeur de la propagation des idées neuves que se jouent les transformations. C’est dans l’adaptation permanente des structures, des comportements, des pratiques sociales que la métabolisation des percées techniques se transforme en innovation sociétale. Le CES, avec la souplesse d’adaptation de ses structures physiques, de ses programmes de conférences, le choix de ses conférenciers est la démonstration vivante et symbolique de la révolution numérique.

S’il a fallu soixante ans pour électrifier la France, il n’a fallu que huit ans pour que le concept imaginé par Steve Jobs d’un ordinateur mobile, pouvant téléphoner, léger et autonome, couplé à un magasin d’applications, séduise la totalité de la planète. C’est parce que la simplicité de ce modèle a convaincu les utilisateurs d’y adhérer sans réserve qu’aujourd’hui des milliards de smartphones, de tous prix, peuvent accéder à des millions d’applications, gratuites ou très peu couteuses, couvrant à peu-près toutes les situations, tous les besoins, tous les désirs. Le smartphone - dont on ne peut plus vraiment dire qu’il est un « téléphone », même intelligent, tant la partie de communication vocale s’est marginalisée pour ne représenter plus que 15% des usages - est devenu la porte d’entrée incontournable de toute application numérique.  Il s’en est vendu 1,4 milliard en 2015. C’est cette universalité, garantie par une standardisation des interfaces et l’interopérabilité des techniques, qui confère sa pertinence au smartphone, couplé à un foisonnement d’applications.

C’est aussi parce que l’industrie est passée d’un modèle d’intégration verticale, qui était la force de l’informatique des années soixante-dix à quatre-vingt-dix avec les exemples d’IBM ou de DEC, à un modèle  de « monopoles de couches », unifié par les techniques de l’internet, que l’on peut disposer d’une grande souplesse dans les solutions et dans les usages. Seul Apple, qui a toujours ignoré le CES,  apporte aujourd’hui le contre-exemple, brillant, d’un industriel qui réussit à maitriser l’ensemble de la chaine de valeur, des matériels au système d’exploitation et aux logiciels. Cette stratégie solitaire est payante car même dans le segment en déclin des PC, il est le seul à progresser.

Le CES illustre bien la nouvelle structure de l’industrie. L’universalité de l’accès renvoie au rang de commodités les outils – PC, tablettes, hybrides, smartphones – qui ne sont plus les vedettes du CES tant la profusion de modèles et leurs capacités analogues ne constituent plus un facteur de choix essentiel. Alors que mondialement le marché des PC est en décroissance continue (-10% encore en 2015) , les nouvelles générations de smartphones sont jugées peu innovantes et ne se jugent que par la taille de leurs écrans dans un marché où les positions des constructeurs sont figées, les clients démontrant une grande fidélité à leur marque. Le marché des smartphones pourrait atteindre rapidement la saturation. Le marché des tablettes n’a pas pris le relais attendu, mais les hybrides – tablettes avec clavier aux performances d’un PC – semblent profiter de l’atonie des marchés des produits matures pour émerger.  Les clients sont devenus pragmatiques. Ils conservent plus longtemps leurs appareils et construisent leur propre pratique d’usage à travers divers outils de façon souple et personnalisée. Ceci rend d’ailleurs incontournable le développement des pratiques de « BYOD », Bring Your Own Device, tant l’appropriation individuelle est forte.

L’âge de l’accès, c’est bien sûr les écrans, de toutes tailles, de toutes natures. L’image est omniprésente. Toute information est appelée à être visualisée sur un écran, fixe ou mobile, partagé ou intime. La course à la performance continue d’année en année. Après la Haute Définition, c’est la 4K, à 4096 pixels,  qui s’impose. La 8K est déjà présente. L'adoption par l'industrie du standard HDR s'inscrit dans cette volonté d'accroître le réalisme des images. Les écrans LED font de la résistance face aux OLED, encore plus lumineux et économes en énergie, dont la mise au point industrielle en grande série se révèle plus complexe que prévu. Seul LG semble en maitriser la production au point d’en inonder son stand, alors que Samsung fait la promotion de son interprétation de la UHD, Ultra Haute Définition. La taille des écrans de salon ne cesse d’augmenter, et leur prix de baisser. La qualité progresse continûment sans que les industriels ne soient en mesure d’en profiter tant la compétition est intense. La télévision en 3D, apparue si prometteuse en 2011, n'a pas atteint sa cible commerciale faute de contenu et par manque de confort de vison et les constructeurs n'en parlent plus. On voit toutefois encore quelques tentative d'écrans 3D sans lunettes. Toutefois la qualité d'image procurée par la 4K donne une impression de profondeur qui rend la 3D inutile.

Les industriels japonais sont frappés par cette course en avant, Panasonic est le seul à vouloir se maintenir, le stand Sony est terriblement triste alors qu’il était un des points d’attraction des dernières années. Sharp, pourtant innovant avec son quatrième pixel, jaune, n’est plus là. Toshiba non plus.  Parmi les industriels chinois, seul Hisense semble maîtriser la technique et le design pour être une alternative aux constructeurs coréens, ses confrères Haier et Hank Kong ne sont pas encore au niveau international.

Pour une manifestation qui fut longtemps exclusivement un salon du matériel, image et son, l’enjeu est d’intéresser aux usages par définition, multiples et immatériels.

C’est pourquoi le CES tend aujourd’hui à mettre en scène les usages avec une remarquable capacité d’adaptation.

Le numérique s’infiltre dans les métiers traditionnels comme l’automobile et l’habitat, mais fait aussi naître de nouvelles activités comme les objets connectés sportifs, les drones, les imprimantes 3D, les robots. Les stands attribués à tous ces métiers ne cessent d’année en année de grandir.

La mutation  des drones

Près de cinquante stands montrent des drones, qui n’étaient présents au cours des années précédentes que de façon anecdotique. Perrot, qui en fut l’initiateur, n’est plus qu’un acteur parmi d’autres. Mais les drones se diversifient en tailles en en usages. Leur professionnalisation est impressionnante. De jouets ils sont devenus incontournables dans l’industrie de l’image pour leurs capacités de prise de vue spectaculaire et peu onéreuse. Ils sont auxiliaires de force de sécurité et de surveillance. Armés de caméras infrarouges, ils contrôlent la performance thermique des bâtiments. Ils aident enfin à l’optimisation des cultures. Le drone s’imagine même comme moyen de transport logistique ou de passager.

L’imprimante 3D devient un centre d’usinage

Les imprimantes 3D vivent la même mutation. Initialement coûteuses et lentes pour être limitées à quelques objets basiques, elles connaissent une diversification spectaculaire pour constituer un outil industriel crédible. Toutes les matières sont accessibles, y compris le métal. Et la technique additive permet de produire des objets complexes en 3 D en petites séries. Non seulement elles s’imposent pour tout ce qui est maquette et prototype, mais elles deviennent de véritables centres d’usinage permettant de gérer tout le processus de production, en scannant n’importe quel objet pour le reproduire avec précision. La vitesse d’opération augmentant, la productivité de ces machines rend crédible leur présence dans les ateliers. C’est donc une révolution industrielle qui s‘engage progressivement, l’imprimante 3D s’inscrivant dans la démarche plus large de l’optimisation industrielle 4.0.

L’automobile un objet de consommation électronique

L’automobile, qui n’était présente dans un passé récent dans le hall Nord que sous forme de kits monstrueux d’amplificateurs de son est aujourd’hui riche de nombreux stands centrés sur le savoir-faire numérique des constructeurs. Presque tous les constructeurs sont là.  De même, ils participent désormais activement aux keynotes. Après Mercedes et Ford dans les éditions précédentes, cette année ce sont Volkswagen et GM qui ont voulu démontrer leur expertise dans les véhicules connectés et autonomes. De façon plus générale, la mobilité est à l’honneur avec son corollaire numérique, la géolocalisation. Les équipementiers Valeo, Bosch, comme Here, l’ancien Navteq, sont très présents.

Capture d’écran 2016-01-19 à 23.49.15

C’est bien entendu les capteurs, radars, lidars (télédétecteur laser) qui sont à l’honneur. Ils permettent, associés aux logiciels temps réel de reconnaissance de formes et de géolocalisation fine d’analyser l’environnement du véhicule pour aider le conducteur à prendre les meilleurs décisions, avant, stade ultime de la délégation de conduite, de le faire à sa place.  Tous les constructeurs montraient leur savoir faire en la matière, notamment Hyundai, mais c’est le fournisseur historique de cartes graphiques Nvidia qui démontraient avec le plus de pédagogie son expertise.

Le monitoring du moi

Dans la grande famille, en expansion continue, des objets connectés, le « monitoring du moi » occupe une place centrale. Il ne reste plus de fonction qui échappe à la possibilité de suivre en direct ses performances ! Que ce soit l’activité  sportive, sous toutes ses formes, le poids, la tension, le rythme cardiaque, tous les paramètres font l’objet de capture et de traitement sous forme de courbes et de conseils . On peut même connaitre la composition exacte des aliments que l’on consomme et avoir un conseil alimentaire personnalisé. Les grandes marques d’équipements sportifs comme Polar ont une expérience en mesure de l’activité sportive et proposent une gamme de produits pointus. Fitbit, Withings continuent à étendre leurs gammes plus grand public. La montre connectée devient un marché généraliste de grande con sommation. Aux Etats-Unis, un foyer sur dix disposait en 2015 d’un tracker d’activité représentant un chiffre d’affaires de 1,8 milliard $.

Le confort et la sécurité du domicile

Marché ancien, naguère fractionné, analogique et propriétaire, la domotique connait grâce au numérique une nouvelle jeunesse. Tout est connecté au web et accessible par l’intermédiaire du smartphone. Au carrefour de plusieurs préoccupations, la sécurité anti-intrusion, la sécurité des personnes, le confort thermique et la maîtrise de la consommation énergétique, la domotique embarque de nouvelles fonctionnalités en créant des liens entre différentes activités. Connaissant le rythme de vie des personnes de la maison, et leurs habitudes, il est désormais possible de gérer dynamiquement la température, l’éclairage, mais aussi la qualité de l’air, les habitudes musicales, les programmes de télévision, voire même les repas grâce au réfrigérateur connecté. Tous les capteurs installés dans la maison et dans les appareils peuvent orchestrer  des scénarios de vie. L’usage de ces outils pour le maintien à domicile des personnes âgées est un facteur naturel d’équipement et de services de télésurveillance et télédiagnostic. Si l’inventivité des fournisseurs est sans limite, se posent les questions de l’interopérabilité de ces capteurs et de ces fonctions, mais aussi celle de leur installation et de leur maintenance. Qui peut gagner la bataille de la maison ? Les fournisseurs historiques d’équipements cherchent à résister aux nouveaux acteurs numériques pour devenir le tiers de confiance du domicile. Il faut souligner le travail effectué par La Poste grâce à son hub numérique pour occuper cette place convoitée d’intégrateur.

Capture d’écran 2016-01-19 à 23.48.24

Foisonnant, vibrant, le CES 2016 confirme sa place de lieu emblématique de la révolution numérique qui se déploie dans tous les métiers, sous toutes les formes, dans tous les pays. C’est un carrefour dont on ressort saturé d’images, de sons, de messages dont il faut tirer les éléments de compréhension des potentialités et des risques du tsunami numérique. Il est impératif  à partir de ces données de construire des principes d’action lucides et résolus pour en bénéficier sans en être submergé.


Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor


A la recherche d’un nouvel équilibre

 

Le monde numérique n’est pas une abstraction théorique : c’est le monde physique d’avant auquel a été ajouté une couche nouvelle, pratique, esthétique, conviviale, permettant de faire rapidement et de façon simple des tâches souvent très basiques. Même si se prendre en photos sur Instagram ou s’envoyer des messages sur WhatsApp sont des activités qui absorbent beaucoup de temps, cela ne suffit pas à construire le monde de demain, qui sera aussi matériel. Les acteurs du numérique ne s’y trompent pas. C’est bien dans le monde physique que l’économie continue de se développer. Concevoir, produire, distribuer, consommer, se déplacer sont autant de tâches que le numérique contribue à faire évoluer mais qui demeurent, pour l’essentiel, physiques. Ce n’est pas un hasard si le président Obama a clairement annoncé à l’ouverture de la COP 21 que l’avenir de l’énergie résidait dans les géants du web, et que Bill Gates lance une fondation pour financer les travaux dans ce domaine. Cette initiative « Mission Innovation / Clean Tech » vise à financer les travaux destinées à trouver des solutions bas carbone dans l’énergie. La révolution numérique ne se joue pas seulement dans le monde étroit des « producteurs  de plateformes », elle se joue quotidiennement dans tous les secteurs d’activité en instillant dans les pratiques anciennes les idées neuves permettant de faire mieux pour les personnes et pour la planète. Or le web, décentralisé, fondé sur le fait que chacun est à la fois émetteur et récepteur des réseaux interactifs s'installe dans le paysage institutionnel comme étant le modèle de ce qu'il faut faire dans toutes les activités. Reconnaitre que l'intelligence est dans le réseau et non plus seulement dans le centre est une remise en cause de la pensée fondatrice du système hiérarchique pyramidal. Par vagues, l'utopie fondatrice du web se développe dans des secteurs bien lointains de ceux qui l'ont vu naître, l'énergie par exemple. Si le coeur de la forteresse du web est bien tenu par les tycoons milliardaires de la Silicon Valley, tout le reste est à conquérir. Il reste toutefois à démontrer que les entreprises du XXe siècle sauront s'adapter suffisamment vite avant que les leaders du web ne s'emparent de leurs domaines. Or ils ont prêts à le faire. La course est engagée.

 

6965447

Centrale solaire dans le désert de Mojaves aux Etats-Unis

Disrupter les disrupteurs

Le monde du web n’est pas figé. Les positions, même dominantes, ne sont pas définitivement acquises et les changements de pratiques des utilisateurs sont rapides. Aussi les contre-attaques sont possibles en trouvant de meilleures idées de produits et de services, de chaînes de valeur, d’alliances ou d’interfaces techniques. C’est souvent dans le détail que se fera la différence. La contre-offensive des secteurs conventionnels est engagée. Il est intéressant de voir comment G7 a réagi contre Uber en améliorant son service de façon rapide sur les mêmes plans que son compétiteur : paiement par carte, voiture impeccable, chauffeur attentionné. Mais G7 est allé plus loin avec le service de desserte des aéroports Wecab qui permet, avec un prix fixe, de partager le véhicule avec une autre personne pour réduire le coût par passager, mais aussi l’encombrement et les émissions. Le groupe Accor a engagé une riposte autant contre Booking que contre Airb’nb. La SNCF ne cesse d’améliorer son service numérique en dématérialisant totalement titres de transport et cartes d’abonnements. Les banques installées sont les premières à développer les services numériques en ligne. Il ne faut pas se réjouir des coups portés contre les entreprises du CAC 40, car c'est un système global qui assure notre prospérité qui est menacé. Il faut au contraire pousser les entreprises du XXe siècle à se transformer, parfois radicalement comme le fait avec talent la Poste depuis dix ans.

Ainsi, le journal montréalais de langue française, La Presse, fondé en 1884, vénérable institution de plus de 130 ans, a inventé un nouveau support numérique qui allie un format mobile original, la qualité rédactionnelle et la richesse de l’iconographie. Séduisant les annonceurs avec ce nouveau support, la Presse +, le journal numérique est rentable ce qui va permettre dès janvier 2016 de supprimer le coûteux format papier en semaine. Comme le déclare Jean-Marc de Jonghe, vice-président numérique de la Presse, l’objectif est de fournir « quelque chose de pertinent dans la vie des gens. » La technique doit s’effacer au service du sens.

Si l’économie européenne a perdu la bataille des plate-formes, elle n’a pas perdu celle du sens et c’est là où se situe véritablement la compétition de demain. Les techniques sont fragiles, volatiles, les fortunes obtenues par les tycoons ne sont pas pérennes, d’autres viendront changer cet ordre. Mais ce qui est pertinent c’est l’usage de la technique dans la vie des gens. Et sur ce point il n’y a pas de barrière ! Les brillantes jeunes pousses françaises comme Withings et Netatmmo, Criteo et Sigfox, Blablacar et Drivy doivent continuer leur essor et trouver les relais de financement leur permettant d'atteindre la taille mondiale sans céder aux milliards de dollars que la Valley peut avancer sans problème pour les ingérer.

Libérer les initiatives

La révolution numérique n’est pas venu du sommet de la pyramide. Elle s’est développée de façon anarchique, en rupture et à partir de la base. L’histoire de l’internet et du web est une histoire continue de prise de risque par des jeunes gens irrévérencieux dont beaucoup sont aujourd’hui devenus milliardaires, mais beaucoup également ont échoué. Ce n’est pas une longue marche tranquille. L’échec est même devenu culte dans la Silicon Valley ! Et  on innove d’autant plus que l’on a rien à perdre, sans  base installée, sans usine, sans distributeur, sans procédures figées. Il faut donc encourager systématiquement la prise de risque technique et économique en oubliant le vieux principe de précaution qui impose un business plan sur trois ans. Comme la mise initiale est très souvent faible, le risque est également faible, mais il faut multiplier les pistes. Le financement collaboratif est bien adapté à l’amorçage, mais le déploiement et l’industrialisation exigent des fonds plus importants, et plus solides.  

Plus que l’argent, c’est l’esprit d’innovation qui doit guider. Essayer sans cesse, échouer, corriger, repartir, c’est la méthode de travail qui doit s’appliquer à toutes les idées, et pas seulement au monde des start-up. Le respect de la prise de risque doit être encouragé dans toutes les entreprises, et surtout à l’école et dans le secteur public. Notre vieux principe républicain d’égalité devant le service public a conduit de fait à multiplier les inégalités par l’ignorance des différences de fond. A situation inégale, traitement égal ! Seule l’expérimentation décentralisée permet de valider des hypothèses de départ et de corriger l’action, au fil du temps, par touches continues et non pas par grandes réformes centralisées au déploiement improbable. Pratiquer à grande échelle « le crédit d’intention » fondé sur la confiance, gagé sur la formation, nourri par la transparence, coûte beaucoup moins cher à la communauté que la méfiance et le contrôle a priori.

Reconnaître les innovateurs

L’innovateur est forcément déviant : c’est celui qui ose autre chose qu’appliquer la « doxa », c’est celui qui se moque, de fait, des situations installées et du pouvoir en place. « On a toujours fait comme ça » est une pensée couramment admise dans tous les cadres professionnels. Mais quand tout bouge, cette posture confortable devient une imposture maléfique. « On a jamais fait comme ça et on va essayer » doit devenir le mode normal de fonctionnement des structures.

Il est clair que cette logique se heurte non pas à la résistance individuelle des personnes, mais à celle des organisations figées dans leur fonctionnement conventionnel. Mais une organisation n’existe pas en tant que telle, elle existe à travers un ordre structuré de relations de pouvoir. Changer cet ordre, c’est donc forcément prendre le risque sinon de changer les personnes au pouvoir, au moins l’exercice du pouvoir, et c’est là où se situe l’allergie au changement. C’est la raison pour laquelle les grandes entreprises qui ont réussi ont beaucoup de peine à innover en profondeur, comme le décrivait dès 1997 Clayton Christensen dans son ouvrage « The Innovator’s Dilemma ». Les entreprises bien gérées et qui réussissent ont beaucoup de difficultés à changer ce qui a fait leur succès et qui peut provoquer leur perte.

L’innovateur « paradoxal » reconnaît les faiblesses et les risques et n’hésite pas à bousculer les tabous de la pensée unique que les entreprises pratiquent aisément. Ce n’est certainement pas à lui qu’il faut couper la tête !


Trop de web ? Trop de numérique ? Quel avenir ?

 

Le débat sur l’impact du numérique sur l’économie s’accélère et se densifie dans notre pays. Deux lois sur le numérique sont en préparation, après la parution d’une multitude de rapports, documentés et stimulants, mais restés pour l’essentiel lettre morte. Cantonnée, Il y a peu de temps encore, aux secteurs de la presse, de la musique, du voyage, la prise de conscience de la transformation profonde engendrée par le web réveille aujourd’hui l’éternel débat sur la vitesse de la transformation induite par la technique. Comme à chaque étape de l’histoire humaine, la mise en tension des structures qu’implique l’émergence d’un nouveau système socio-technique bouscule l’ordre établi, déstabilise les pouvoirs, ravive les fractures sociales, remet en cause les hiérarchies et l’équilibre des territoires. Et inquiète tous ceux qui ne comprennent pas le mouvement et craignent, souvent à raison, d’en être les victimes ! La destruction créatrice de Schumpeter est en marche. Elle est violente et rapide d’autant plus qu’elle n’obéit pas à un plan prévisible et pré-établi comme nous les aimons dans notre pays marqué par la centralisme de notre culture politique et économique.

Néanmoins, la révolution numérique, en dépit de son caractère spectaculaire, n’est, comme les révolutions techniques qui l’ont précédé, qu’une œuvre humaine. Elle n’est pas magique mais résulte de l’action conjuguée de forces maîtrisables. Il est donc possible, et même absolument indispensable, de l’analyser avec lucidité. Il faut d’abord comprendre pourquoi cette révolution, venue d’ailleurs, nous heurte particulièrement en France, avant d’esquisser les pistes d’une prise en compte active de cette dynamique sur notre territoire.

  1. La révolution numérique est rapide et violente

Le tempo de cette transformation est imposé par les leaders nord-américains.

La santé insolente que manifeste les leaders du GAFA (Google, Apple, Facebook, Amazon) est une provocation pour l’économie européenne et l’aveu d’un cruel échec pour ce respectable terroir qui a dominé pendant plus de deux siècles l’économie mondiale par son talent et sa capacité d’innovation. En 2000, l’Europe s’était donné comme objectif pour 2010 de devenir leader dans la science et la technique ! En effet, il n’y a plus, après l’échec de Nokia, aucun point lourd dans les techniques numériques en Europe ! Parmi les entreprises du CAC 40, aucune n’appartient à ce courant des champions du web. Et on peut admettre que seuls Orange et Cap Gemini, Alcatel Lucent étant absorbé par Nokia, portent les couleurs de cette nouvelle vague d’informatisation, avec de pâles valeurs de capitalisation : 43 et 14 milliards €. Et cette domination n’est pas prête de se ralentir car les licornes, entreprises ayant dépassé une capitalisation boursière d’un milliard de dollars, se développent à toute vitesse aux Etats-Unis. Plus d’une centaine de ces entreprises sont ainsi apparues depuis 2014. Si toutes ne réussiront pas, il est clair que certaines viendront grossir le rang de leurs aînées ou seront absorbées.

Capture d’écran 2015-11-30 à 12.46.54

Les jeux sont faits : la Silicon Valley est devenue le centre du monde économique du XXIe siècle. La capitalisation boursière atteint, en novembre 2015, des niveaux jamais atteints : 651 milliard $ pour Apple, 500 milliards $ pour Google, plus de 300 milliards $ pour Facebook et Amazon. Seul, Apple vaut autant que les dix premières entreprises du CAC 40. Avec les profits de son année fiscale 2014-2015, soit 53,4 milliards $, Apple a battu le record du plus haut niveau de profits jamais atteint en une année dans l’histoire économique. Ceci représente 79% des bénéfices des entreprises du CAC 40 pour l’année 2014!

Dans le chaudron neuronal californien, où abondent les talents et les capitaux, s’invente, dans le style décontracté inimitable des tycoons californiens, l’économie de demain. Et rien n’est trop beau ni laissé au hasard : ni le nouveau siège d’Apple, ni la nouvelle ville de Facebook, ni l’appétit omnivore de Google pour le futur. L’ambition et la certitude d’avoir raison animent cette nouvelle génération d’entrepreneurs qui bousculent tous les establishments en imposant leurs codes. Leur vocation est de développer leur influence dans tous les secteurs, sans frein à leur appétit, sans précaution pour laisser vivre en dehors de leur écosystème les audacieux qui refusent d’y entrer. Le gagnant emporte toute la mise sans rien laisser aux concurrents. Cette logique d’universalité doit servir le bien de l’humanité car les tycoons ne sont pas avares de déclarations généreuses. Le « moon shot » est là et prend le pouvoir politique comme l’a démontré le rejet d’une proposition anti-Airbnb à San Francisco. Le moonshot, par similitude avec le programme Apollo, consiste à adopter des solutions radicales tant sur le plan technique qu'organisationnel, sans précaution majeure ni pour la prise de risque ni pour la rentabilité à court terme. Les pratiques fiscales des barons de la nouvelle économie sont opaques et ni dans les pays où ils opèrent ni même aux Etats-Unis, ces géants du web ne figurent pas parmi les entreprises citoyennes exemplaires. Mais est-ce vraiment différent des Carnegie et Rockfeller en leur temps, sinon que leur terrain d’action est mondial et qu’ils pénètrent beaucoup plus profondément les consciences que pouvaient le faire les rois de l’acier, du chemin de fer et du pétrole ? La logique d’un entrepreneur est d’exploiter, sans état d’âme, tout le terrain que lui laissent ses concurrents… et le législateur.

Les conséquences sociales sont considérables

La disruption – mot clef de ce et début de XXIe siècle – est un tsunami qui s’attaque à tous les secteurs économiques. Bien sûr la construction des fondations de l’internet a nécessites près de trois décennies pour créer, progressivement, ce réseau mondial universel. Mais l’accélération a été déclenchée par l‘irruption d’un nouvel objet. Le premier smartphone. L’iPhone, doté de fonctionnalités qui faisaient sourire en 2007 comme la géolocalisation, ou un appareil photo, a mis entre toutes les mains un puissant ordinateur, mobile et connecté au réseau internet. Passer de quarante années d’informatique « assise », coûteuse, lourde, complexe à une informatique « debout », ergonomique, mobile, accessible et géolocalisée, a créé une brèche spatio-temporelle dans laquelle se sont engouffrés développeurs et entrepreneurs pour inventer un monde poussé par la recherche de solutions utiles et simples à la plupart des problèmes de la vie quotidienne. Sans intermédiaires, grâce à l’idée géniale des magasins d’applications gratuites ou peu onéreuses, ils distillent l’élixir de la transformation numérique de la société directement vers les utilisateurs qui s’en emparent avec délectation, parce que c’est simple, utile et… pas cher ! Ce phénomène défie les lois de l'économie car la plupart des enteprises porteuses de ces nouveaux services ne gagnent pas d'argent en dépit d'une capitalisation boursière pharaonique. Néanmoins elles bousculent les secteurs établis, les forcent à s'adapter ou à disparaître. 

Citons quelques exemples. AirBnB, né en 2008, s’est développé ainsi de façon virale, sans autorisation, sans prévenir. Et sans que personne n’ait vraiment vu le phénomène se développer, sauf les pourvoyeurs d’espaces – promus « hôtes »- et leurs clients, ravis d’une telle aubaine, AirBnB capte des millions d’utilisateurs et, en pertes, génère un revenu de moins d'un milliard $ pour une capitalisation boursière de 24 milliards $. En 2020, l'entreprise devrait enfin être rentable ! Or tout peut changer dans ce secteur très ouvert...

Pour étendre son spectre d’activités, Google investit des milliards de dollars. Google, qui est désormais fractionné en plusieurs entités légales, sous une nouvelle holding, Alphabet, a nommé le pape de l’intelligence artificielle à la tête de son département de recherche, Ray Kurtweil, et fait de nombreuses acquisitions dans le domaine des robots, comme Boston Dynamics, spécialisé dans les robots militaires. la boulimie de Google est incommensurable mais son alimentation en cash est permise par une activité tout ce qu'il y a de plus classique, la publicité. 

Les structures politiques sont ébranlées

Pour la première fois dans l’histoire, l’innovation ne connait pas de frontière et se déplace instantanément, sans délai, entre les pays, supprimant l’avantage comparatif que donnait aux pays développés leur avance technique. Le développement des télécommunications bouleverse la séquence historique de développement. La totalité des habitants de la planète accède maintenant au téléphone mobile, et bientôt, grâce aux smartphones à bas prix qui se vendent par centaines de millions, bénéficiera de tous les services du web. Les gouvernements ne peuvent que constater que la révolution numérique se fait sans eux, sans leur autorisation et hors de leur contrôle.. Si le Parlement européen s’émeut, et vote en novembre 2014 une résolution pour démanteler Google, l'entreprise ne se plie pas pour autant aux exigences européennes.

Peu de dirigeants ont encore intégré le fait numérique dans leurs pratiques

Si les Français adorent les technologies numériques pour leur usage personnel, les pratiques en entreprise et dans la vie publique sont en retrait par rapport à cet engouement individuel, même si, au fil du temps, on observe des changements significatifs de comportement. Les images du bureau de François Hollande sans ordinateur et noyé sous les parapheurs ont choqué. Il n’est pas le seul à parler du numérique, pour les autres. Les dirigeants français ont dans l’ensemble raté la seconde vague de la révolution informatique, celle des années quatre vingt-dix avec les ERP. Ils trouvent aujourd’hui qu’avoir une stratégie « digitale » est beaucoup plus chic que de faire de l’informatique, activité reléguée au rang définitif et peu enviable de « centre de coûts ». Si utiliser un mot anglais permet d’avancer la prise de conscience, tant mieux. Mais il ne faudrait pas que ce soit un leurre de même nature que l’e-commerce au début des années 2000. Car si techniquement le numérique ne se dissocie pas de l’informatique, culturellement il n’en est rien. Là où l’informatique permettait d’accroître la productivité de l’existant, le numérique consiste à remettre en cause, ou simplement ignorer, cet existant pour inventer tout autre chose.

Bien peu de dirigeants acceptent l’idée que la révolution numérique est avant tout une révolution managériale qui s’appuie sur la compétence de la totalité des collaborateurs avec un minimum de technostructure et d’encadrement. La révolution numérique, c’est une large décentralisation avec des équipes petites, autonomes connectées en réseau. C’est la réactivité privilégiée par rapport au plan et au budget venus d’en haut. La reconnaissance ne se fait pas par la hiérarchie mais par les pairs. C’est une incitation permanente à l’initiative et au non-conformisme. On ne tue pas une idée, on l’améliore ! C’est une remise en cause radicale du système hiérarchique pyramidal, ses rituels et ses ordres.

La révolution numérique bouscule emplois et compétences

La désintermédiation, qui a désormais un nom, « ubérisation » est un processus simple et efficace. C’est pour cela qu’elle s’impose dans tous els secteurs. Elle consiste à supprimer tous les intermédiaires inutiles d’un processus pour délivrer un résultat, rapidement, efficacement et pour le moins cher possible. Le réengineering des processus, activité phare des années quatre vingt-dix se fait désormais de façon beaucoup plus radicale en mettant en place un outil informatique, une plateforme d'intermédiation, qui met en relation directe émetteur et récepteur La désintermédiation est aussi connexe à la dématérialisation. Comme le support physique n’est plus utile à l’accomplissement de la fonction, la production de l’information suffit. Et elle est immatérielle, peu coûteuse et se prête à tous les traitements qui assurent la traçabilité et le contrôle du dénouement physique et économique de la transaction.

Avec la suppression de fonction physique de production, de diffusion et de contrôle, ce sont des centaines de milliers d’emplois industriels et tertiaires qui sont d’ores et déjà supprimés ou encore seulement menacés. Les exemples sont multiples dans l'édition musicale, la presse, la photographie.. .Prenons l'exemple d’un produit récent qui fut innovant, le Compact Disc, diffusé à partir de 1982. Editer un CD à partir d’un fichier numérique, le presser, l’emballer, le transporter, le distribuer dans des points de vente représentait un grand nombre de tâches matérielles et l’utilisation de ressources physiques - papier, carton, plastique, stockage, véhicules, manutention - que la diffusion en un clic du même fichier sur un serveur supprime définitivement. Aujourd'hui les magasins de disques ont quasiment disparu, à l'instar du célèbre HMV à Londres, plus grand magasin de disque du monde, ouvert en 196 et fermé en 2014. Il en est ainsi dans les guichets, les points de vente, les caisses de supermarché, les bureaux… Il est bien naturel que les emplois directement associés à ces tâches physiques disparaissent également. Mais la logistique impose encore beaucoup de main-d’œuvre et Amazon propose un nouveau type de contrat de travail, Flex, pour ses livreurs occasionnels aux Etats-Unis. Il s’agit d’utiliser sa propre voiture, sans couverture sociale, pour livrer quand on le veut dans un périmètre restreint pour 18 à 25 $ de l’heure. Les initiatives de ce type se multiplient dans tous les métiers, sapant sans bruit les bases historiques du salariat.

Bruissante, tumultueuse, sans égards pour le passé, la révolution numérique apporte à tous et bouscule tout le monde. Elle n'est nullement morale ou vertueuse par elle-même, s'inscrivant dans une longue histoire de l'innovation, mais elle peut le devenir si elle sert l'intérêt général.

A suivre ...

  1. A la recherche d’un nouvel équilibre

Energie et information, une complémentarité vitale

Sans énergie, accessible et économique, rien n’aurait été possible pour l’homme. Toute l’histoire du développement est conditionnée par la capacité des terriens à domestiquer l’énergie. C’est le fruit d’un long et patient travail qui a commencé par la découverte du feu, il y a 400000 ans. La domestication du feu en permettant la cuisson des aliments, a changé fondamentalement la capacité physique des hommes et allongé leur espérance de vie  en limitant les maladies. Elle a aussi permis le développement de la vie sociale. A chaque étape, la maîtrise du vent et de l’eau, la conquête de la vapeur, l'exploitation    maîtrisée du charbon et du pétrole, puis avec le nucléaire, le système technique mis en place a conditionné le système social, et induit un mode d’exercice du pouvoir. Au moins autant que la lutte pour l’information et la connaissance, la maîtrise de l’énergie est le grand vecteur de structuration de la société. Nous en mesurant pleinement les conséquences avec l’avènement récent - les années cinquante - d’une géopolitique du pétrole qui a totalement transformé les rapports de force entre Etats depuis soixante-dix ans.

Mais en ce début du XXIe siècle, nous touchons à de nouvelles limites. Elles sont politiques, économiques, techniques, sanitaires. Nous avons pris conscience que les ressources énergétiques de la planète lorsqu’elles sont présentes sous forme de stocks ne sont pas renouvelables. Aller forer plus loin, plus profond, continuer par la fracturation hydraulique le travail inachevé des millions d’années pour libérer le gaz ou le pétrole des roches qui l’enferment, ne sont pas des actes anodins. Les conséquences sur l’environnement des océans, sur les nappes phréatiques qui nous alimentent en eau potable sont tangibles même si elles alimentent une controverse sans fin. Produire plus d’énergie fossile, c’est aussi  envoyer plus de carbone dans l’atmosphère… Mais l’engouement pour les énergies renouvelables ne règle pas par magie tous les problèmes. Car quelles que soient leurs vertus, les énergies renouvelables ne sont pas non plus sans impact sur l’environnement, tant pour les produire, comme les  panneaux photovoltaïques, que pour les faire fonctionner – énergie des fleuves ou des océans, éoliennes -. Elles ont aussi la faiblesse de dépendre de facteurs exogènes et instables, le soleil comme le vent,  et imposent leur rythme aux réseaux de distribution en l’absence, pour le moment, de moyens de stockage souples et économiques.

Nous avons le sentiment d’une profonde menace sur la sécurité de la planète quand Iran et Arabie Saoudite, surarmés et belliqueux, pour le moment par vassaux interposés, se font face et peuvent instantanément condamner le détroit d’Ormuz qui reste le cordon ombilical énergétique de la planète. Nous avons tous tremblé devant les conséquences de Tchernobyl ou Fukushima en nous appuyant sur la certitude que rien de ceci ne serait possible chez nous. Nous savons bien qu’il existe un lien fort, démontré,  entre les allergies, les affectations respiratoires, les cancers qui affectent les populations urbaines et les rejets atmosphériques de la combustion imparfaite des carburants fossiles.

Mais entre les peurs, la lucidité et le déclenchement de l’action pour changer, il y a un pas immense. Aujourd’hui, à quelques mois de la grande conférence sur le climat de décembre 2015, on peut reconnaître sans peine qu’il n’y a pas de consensus pour changer notre manière de vivre, ni encore moins pour y accéder pour les pays qui s’en sentent exclus, en remettant profondément en question notre relation ambigüe avec l’utilisation à bon marché des sources d’énergie. Cet arbitrage inconscient se déchire parfois  lors des drames et des crises pour bien vite revenir à la situation antérieure. Jusqu’à la prochaine crise.

Or si nous avons besoin d’énergie pour bien vivre, on peut aussi imaginer utiliser les possibilités de la science et de la technique pour vivre tout aussi bien, et certainement de façon moins angoissée, en repensant notre relation à l’énergie. L’équation est simple : consommer moins, tout produire différemment, dont l’énergie.

La lecture du rapport annuel de l’Agence internationale de l’énergie est un exercice de salubrité intellectuelle auquel devraient rituellement sacrifier dirigeants, hommes politiques et journalistes. Il n’y a rien de plus excitant que de comprendre les données collectées par des centaines d’experts. Tous nous disent sans ambigüité que d’ici 2040 l’approvisionnement énergétique de la planète sera composé en parts égales de pétrole, de charbon, de gaz et de sources à bas carbone incluant le nucléaire et les énergies renouvelables. Tous disent que d’ici 2040 nous n’avons aucune chance d’atteindre les objectifs d’émission nous permettant d’éviter une augmentation de la température de la planète supérieure au 2° C communément admis pour éviter des conséquences dramatiques non contrôlables

.Tesla home battery, which is currently produced for SolarCity's home energy storage system (House Photo: Shutterstock)

 

Si l’énergie est le vecteur principal de notre bien-être et de notre style de vie et de consommation, il est difficile d’extraire la composante énergétique de ce que nous produisons et consommons pour en faire un objet spécifique d’attention et donc d’action… Chaque produit, chaque service a en effet une composante énergétique importante. Quand on jette des produits alimentaires, on gaspille aussi l’énergie qui a été nécessaire pour les produire, les transporter, les distribuer, les stocker. Consommer moins d’énergie de façon consciente suppose en effet que l’énergie soit isolée et identifiée pour devenir un facteur spécifique de décision. Or il n’y a rien de plus complexe même si des efforts d’information sont faits, à l’achat de certains produits, grâce notamment aux étiquettes énergétiques. Néanmoins, il est difficile de pouvoir prendre des décisions rationnelles sur la consommation d’énergie car on ignore les conséquences de nos actes aussi bien sur le volume que sur le coût.

Si adopter un comportement vertueux dans la consommation est difficile, il est encore plus complexe de modéliser l’impact d’une décision d’investissement sur le moyen terme compte tenu des évolutions de la technologie, du prix et de la fiscalité. Les acheteurs de véhicules diesel  ou de véhicules GPL, les investisseurs en panneaux photovoltaïques, peuvent être déçus de leurs prévisions. Les industriels ont eu meilleure capacité que les consommateurs mais ne sont pas non plus à l’abri des variations des cours et de la fiscalité.

Que ce soit pour l’habitat ou pour l’automobile, les innovations énergétiques suscitent beaucoup d’interrogations et de scepticisme auprès des acheteurs, qui sont rarement guidés dans leur choix par un avis impartial et documenté des vendeurs eux-mêmes.

Nous sommes donc confrontés à des choix cruels. La prise de conscience de la nécessité d’une économie moins gourmande en énergie se heurte à la difficulté des consommateurs à comprendre cette composante énergétique et à prendre des décisions pertinentes.

Les Etats disposent de moyens puissants pour faire évoluer les comportements par la réglementation et la fiscalité, tant pour encourager les comportements réputés vertueux que pour sanctionner les choix critiquables peur leurs effets nocifs. Mais leur action n’est pas exempte de biais. Le manque d’études scientifiques  justifiant des positions tranchées, l’influence des lobbies, les choix idéologiques viennent nourrir des décisions nécessairement partiales. Si le subventionnement public peut créer l’incitation nécessaire pour convaincre les clients à opter pour une technique nouvelle, ce n’est pas toujours sans risque d’erreur ni d’effet secondaire non maitrisé. Par ailleurs cet usage des fonds publics pose le problème de l’utilité marginale des fonds limités ainsi affectés.

Les gouvernements, partout dans le monde, tendent à influencer les automobilistes dans leur choix de motorisation. Ils subventionnent largement les véhicules électriques ou hybrides pour faire naître un marché de masse, sensibiliser le public et baisser les coûts industriels. La réglementation vient encadrer cette politique pour forcer les constructeurs à réorienter leur offre. C’est une logique que l’on retrouve partout avec une sévérité diverse entre les Etats-Unis, la Chine, le Japon et l’Europe.

Mais in fine c’est le consommateur lui-même qui doit être en mesure d’opérer des choix les plus rationnels et c’est donc, par rapport à la valeur perçue,  le signal prix et le coût total de possession qui orientent réellement les choix.

La révolution numérique donne à la politique de l’énergie une autre voie d’action. Par l’information contextuelle captée par multiples objets de l’internet des objets, par les aides à la décision apportées aux utilisateurs d’énergie pour prendre à tout moment la décision la plus efficiente, par la multiplication des actionneurs automatiques, nous allons disposer d’un puissant  arsenal d’outils. Le but reste le même : prendre des décisions informées pour économiser la ressource rare. Mais là où les informations étaient incomplètes et diffuses, l’internet des objets et le traitement des données massives (« big data ») apportent les éléments qui faisaient défaut pour créer un réseau interopérable et efficient.

La révolution scientifique sur l’ensemble des moyens de production et sur les produits eux-mêmes va offrir des potentiels nouveaux pour consommer moins de ressource et gérer en temps réel de façon efficiente l’énergie.

Mais comme le souligne l’Agence internationale de l’énergie, ces changements nécessiteront des investissements considérables, consommateurs de capitaux, et prendront du temps.

L’énergie est au cœur de la civilisation. Nous n’avons pas toujours conscience des implications considérables d’une raréfaction de l’énergie à bon marché. Aussi l’action n’est pas seulement du ressort des entreprises et des Etats mais relève aussi de la prise de conscience collective. Le fait énergétique doit devenir un objet public, connu, compris et documenté aussi bien dans le débat public que dans la vie quotidienne.

 

http://www.developpement-durable.gouv.fr/L-Agence-internationale-de-l,41647.html

http://www.developpement-durable.gouv.fr/L-Agence-internationale-de-l,43313.html


Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


Automobile mondiale, sortie de crise ?

Le paysage automobile que présente le marché mondial en ce début d’année 2015, entre les salons de Detroit, qui ouvre l’année automobile début janvier aux Etats-Unis, et celui de Genève, qui marque le début de la campagne commerciale européenne, est complexe car il reflète des réalités bien différentes selon les pays. L’économie mondiale pots-crise est loin d’être homogène et l’automobile est un marqueur précis de ses clivages.

L’automobile connectée, un nouveau front

Il faut souligner qu’entre ces deux salons classiques du monde automobile, le CES de Las Vegas, début janvier, peut désormais apparaître comme le salon de l’automobile connectée, tant les constructeurs ont investi cet évènement dans les stands comme dans les conférences. Le fait qu’après Google c’est Apple qui envisage de produire des automobiles électriques montre que si la voiture, progressivement, s’est informatisée, elle risque à terme, comme le téléphone, de devenir ordinateur et donc d’être absorbée par l’ambition sans limite des tycoons de la côte ouest des Etats-Unis. Il faut dire que le cash dont dispose Apple, 178 milliards $, permettrait d’alimenter les dépenses en capital de GM pour 20 ans ! Toutefois l’argent ne suffit pas dans ce métier complexe qu’est l’automobile !  Tesla, qui a brûlé 1,3 milliards de cash depuis 2008, et ne pense pas être bénéficiaire avant 2020, peut considérer qu’avoir vendu en 2014 31000 voitures est un exploit quand il a fallu 3 ans à un industriel établi, Nissan, pour vendre 100000 exemplaires de sa Leaf.

Les ventes continuent...

Il faut dire que la voiture ne laisse personne indifférent,  aussi séduisante dans les show-rooms qu’agaçante dans les embouteillages, oscillant sans cesse entre les charmes du produit plaisir et les contraintes de l’outil de transport. Toutefois, l’automobile reste fondamentalement conservatrice, contrairement aux marchés de l’électronique grand public, et ne change guère ni d’architecture ni de fonctionnalité même si elle devient de plus en plus équipée d’outils hérités de la révolution numérique. C’est pourquoi bien que chacun ait une opinion bien tranchée sur l’automobile, la voiture continue inexorablement sa progression. Le marché mondial de ce produit, cher et encombrant, est une synthèse mouvante des passions et aversions que suscite l’automobile. Sans connaître le destin fulgurant du « téléphone intelligent », la voiture, de plus en plus intelligente elle-aussi, continue de croître sur la planète pour atteindre bientôt 100 millions de véhicules produits, vraisemblablement en 2017.

Th

 

Pollution automobile, Pékin

Le marché mondial est plus que jamais contrasté

Les résultats de la production mondiale de l’année 2014 marquent la poursuite tempérée de l’atonie des marchés européens et japonais, le ralentissement relatif du marché chinois, avec une croissance de 7% en 2014 contre 14% en 2013,  et le retour à la prospérité du marché américain. Pour les autres grands marchés mondiaux, Inde, Iran, Brésil, Russie, 2014 aura été une année décevante pour les constructeurs qui ont beaucoup misé sur ces marchés prometteurs mais très instables.

Le grand gagnant de la production industrielle est clairement la Chine qui en quelques années a su grimper à la première place du podium et reléguer les Etats-Unis au second plan. Les ventes de voitures ne représentaient en 2002 que 1,75 millions de véhicules en Chine ! En produisant en 2014 22,5 millions de voitures et utilitaires, le Chine fait deux fois plus que les Etats-Unis avec 11,4 millions de véhicules, doublement acquis entre 2008 et 2014 seulement. Tous les constructeurs mondiaux se sont implantés en Chine qui est devenue pour certains comme Volkswagen ou GM leur première base de production industrielle. C’est à la Chine que Volkswagen doit le fait en dépassant dix millions de véhicules produits de tenir la corde pour dépasser Toyota comme premier constructeur mondial. Les ventes sur le marché chinois représentent 50 % des revenus des constructeurs allemands. C’ets encore à la Chine que PSA doit la réussite de son année 2014 avec une croissance de ses ventes de 32% pour atteindre 734 000 véhicules.  Il faut noter que les constructeurs chinois, nombreux, régionaux, endettés et mal structurés, profitent moins de cet engouement que les constructeurs étrangers. L’émergence de champions chinois à vocation internationale tarde à se concrétiser, les ambitions planétaires des SAIC, Chery, BYD restant très limitées à quelques pays émergents. Les exportations de véhicules particuliers ne représentent que 3% de la production..

L’évolution géographique du marché est sans surprise

Le marché de l’automobile est la résultante de l’évolution de paramètres multiples. En premier lieu la santé économique et les perspectives de revenus des ménages, comme des entreprises, représentent la première motivation des acheteurs pour un produit qui reste le seconde poste de dépense des ménages après l’immobilier. Le prix du véhicule, liés aux conditions commerciales et au coût du crédit, permet le passage de l’intention à l’acte d’achat. Les perspectives d’usage – coût de l’essence et des assurances, prix du stationnement, taxes et péages – orientent le choix du véhicule notamment en matière de motorisation comme dans l’alternative véhicule neuf ou véhicule d’occasion. Cette équation est très sensible à l’ambiance générale envers l’automobile,  la perception des utilisateurs sur la facilité d’usage au regard des réglementations sur la vitesse et l’environnement pesant sur la demande générale et le choix du type de véhicule. Et tous ces facteurs agissent différemment s’il s’agit de marchés matures ou de marchés en phase d’équipement.

Aussi il n’est pas surprenant de constater que la principale bonne nouvelle pour les constructeurs provienne du marché américain. Après les années noires, Detroit a brillamment retrouvé ses couleurs, avec un marché 2014 de 16,5 millions de véhicules, contre 10 millions en 2009,  qui a rattrapé celui de 2007. Toutes les marques ont brillamment progressé en 2014 et le salon de Detroit a pu exhiber sans complexe ses néons et ses chromes pour afficher le retour au culte américain des voitures musclées. L’humilité écologique a fait long feu, place aux trucks ! Certes Ford annonce que son camion mythique, le F150, voiture la plus vendue sur le marché américain, fait une cure d’amaigrissement de150 kg grâce à l’emploi de l’aluminium, mais ses moteurs sont toujours des V6 et V8 qui ont certes progressé mais restent gloutons.

Les véhicules hybrides et électriques ont toutefois su trouver leur place  à la faveur de la crise sur un marché climato-sceptique. Avec des ventes cumulées en 2014 de 290000 véhicules les Etats-Unis sont  le pays où circulent le plus de véhicules à motorisations alternatives. La Chine vient plus loin avec 113 000 voitures  devant le Japon, 104 000.  C’est la Californie  où règne Tesla et les hybrides, menées par Toyota, Ford et GM qui a stimulé avec sa réglementation restrictive cet essor du marché.  Il faut souligner que Nissan Leaf est la voiture électrique la plus vendue dans le monde et aux USA. Mais le prix actuel de l’essence est une incitation à la puissance et à la consommation dans un pays de gros rouleurs qui n’a jamais vraiment été sensible à l’environnement.

L’évolution du marché chinois sera sur ce point intéressante à suivre attentivement. Car si tous les constructeurs considèrent que l’avenir de l’automobile mondiale, et le leur particulièrement,  se joue en Chine, les contraintes environnementales et sociétales risquent de tempérer cet enthousiasme.

90% des villes chinoises dépassent largement les critères de l’OMS en matière de pollution. L’encombrement ne fait que croître et plusieurs mégalopoles ont dû prendre des mesures restrictives. Le gouvernement a engagé en 2014 le retrait du marché de plus de 5 millions de voitures anciennes et polluantes, sur un parc de 230 millions de véhicules. Car la pollution atmosphérique, dont l’automobile n’est pas la seule cause, devient en Chine un problème politique sérieux.

Le Japon est le seul pays au monde où une réglementation spéciale a fait émerger un marché de petits véhicules légers, les Kei (moins de 660 cm3, moins de 3,4 m) dont la croissance en 2014 a été spectaculaire (+ 7%). Ces véhicules représentent désormais 40% du marché automobile ! Les hybrides sont la seconde spécialité du Japon, qui les a inventés. Ils représentent 40% du marché des voitures individuelles. 

Le diesel, dont les modèles les plus récents ont des performances très élevées en matière de rejet de particules amorce son repli sur le marché européen qui représente 70 % des ventes mondiales mais commence à percer, marginalement, sur les marchés dont il était traditionnellement exclu, Corée, Japon, Etats-Unis.

Notons que le paradis de la voiture électrique est en 2014 la Norvège où 65200 voitures électriques sont été immatriculées. 2014 aura vu également le lancement de la voiture à hydrogène de Toyota, la Mirai.

Capture d’écran 2015-02-17 à 18.16.54

Toyota Mirai
C’est déjà un véhicule accompli, performant, avec 500 km d’autonomie, qui s’appuie sur la longue expérience acquise avec les 7 millions de véhicules hybrides produits sous les marques Lexus et Toyota. Mais le réseau de distribution d’hydrogène reste encore plus confidentiel que les bornes de recharge électrique.

Et la France ?

Quant aux constructeurs français, ils ont réalisé une année en progression en chiffre d’affaires de 0,3 % pour Renault et Dacia, mais de 3,2 % en volume avec 2,7 millions de véhicules,  et de 4,3% en volume pour le groupe PSA, avec 2,93 millions de véhicules vendus. PSA, avec une nouvelle direction et un nouvel actionnariat, ouvre une nouvelle étape de son histoire après de sérieuses turbulences et mise sur le marché chinois pour retrouver une rentabilité durable.

Les constructeurs allemands enregistrent une nouvelle excellente année avec un haut niveau de volume et de profits qui consolide leur domination mondiale dans le marché premium. Obligés de réagir face aux règlements européens, qui les pénalisent, les constructeurs allemands font preuve d’ingéniosité pour baisser la moyenne des émissions de CO2 de leurs gammes en multipliant les petits modèles et en engageant des efforts significatifs vers l’hybridation ou l’électrique. BMW communique largement sur ses i3 et i8, qui sont des électriques à prolongateur d’autonomie et Audi fait de sa gamme e-tron un démonstrateur de son savoir-faire technique.

Marché de volume, le marché automobile devrait atteindre 88 millions de véhicules en 2015... Après le décrochage de 2009, l'automobile retrouve grâce à son territoire mythique historique, les Etats-Unis, suivis de la Chine, une croissance soutenue... Jusqu'à la prochaine crise, économique, pétrolière, environnementale...


Technologie, usage et marché : de l'informatique au numérique...

Chaque jour le secteur des "technologies de l'information" produit de chiffres impressionnants qui pulvérisent les records antérieurs. Apple ainsi a réalisé au cours du dernier trimestre 2014 le meilleur bénéfice enregistré par une entreprise dans l'histoire économique, 18 milliards $. Et tout ceci grâce à un smartphone, l'iPhone 6, que les analystes considéraient comme banal... Aussi l’expansion du monde des « technologies de l’information » semble infinie. La puissance des processeurs, la connectivité des machines et objets, les progrès d’autonomie des batteries sont  autant de potentiels exploités par la créativité des développeurs. Se dessine progressivement un monde nouveau, mobile et connecté où les interactions entre les hommes sont désormais amplifiées par l’usage de machines connectées en réseau, l'internet des objets.

IMG_0489

Mais derrière l’avancée fracassante des grands acteurs du GAFA (Google, Apple, Facebook, Amazon) qui sont devenus les nouveaux leaders de l’économie mondiale, tant par leur capitalisation boursière et leurs résultats spectaculaires que par leur influence, derrière le halo d’intérêt généré par la nuée de start-up, notamment françaises, qui démontrent avec brio leur inventivité, se dissimulent les réalités économiques de toujours. Qui gagne ? Qui perd ? Où sont les capitaux, les marges, les emplois, les secteurs porteurs, les activités déjà  déclinantes ? Le monde qualifié de "numérique" recouvre en effet des réalités économiques très différentes qu’il serait dangereux d’enrober sous une appellation unique. Le risque est  réel de développer une vue miraculeuse, mythique d’un secteur tellement composite qu’il rassemble les acteurs monopolistiques d’une industrie lourde comme des jeunes développeurs de quinze ans. Bien évidemment ni les moyens, ni les ambitions ni le destin de ces acteurs ne sont comparables.

Mauvaise nouvelle , le "digital" ce n'est que de "l'informatique"

Les activités numériques qui pénètrent et refaçonnent tous les secteurs sont pour  beaucoup d’acteurs économiques, et de dirigeants, une découverte d’autant plus magique qu’elle est parée du vocable, aussi flatteur que dépourvu de signification précise, de « digital ». Or elles s’inscrivent en fait dans la continuité historique de l’expansion de l’informatique engagée depuis les années cinquante.  Le numérique, c’est donc d’abord de l’informatique, c’est à dire des données, des programmes, des infrastructures de réseau et de l'exploitation de machines, ordinateurs et unités d stockage. Si tous les composants du système sont présents depuis les origines, formalisés en 1945 dans le modèle de Von Neumann, ils ont bien évidemment changé de forme, de niveau de performance et de prix.  La révolution numérique actuelle n’est qu’une étape d’une révolution industrielle majeure dont la finalité est la maîtrise de l’information et de la connaissance. C'est l'expansion considérable de la sphère de traitement informatique de l'information qui produit une société nouvelle. Pour marquer cette différence de dimension, on peut parler de "société numérique" fondée sur l'informatisation du traitement de toutes les informations.

Un changement de dimension et d'usage : du centre vers la périphérie

Les ordinateurs centraux ont changé, ce ne sont plus des « mainframes » propriétaires, installés dans les entreprises, mais des fermes de milliers de dizaines de milliers de serveurs standard regroupés dans des usines hautement sécurisées et optimisées sur le plan énergétique. Le poste de travail n’est plus un terminal passif ou même un PC avec son clavier et son écran, mais prend les formes les plus diverses du « téléphone intelligent » jusqu’aux écrans de toutes tailles. Le plus souvent mobile, l’ordinateur est désormais multiple et omniprésent, connecté en permanence au réseau internet. Ce réseau  couvre la totalité de la planète et son protocole de communication, TCP-IP, n’est pas propriétaire et permet à tous les serveurs et terminaux  de travailler ensemble. Les programmes, ce ne sont plus seulement les programmes maison en Cobol ou les lourds et coûteux ERP, fruits de longues années de projet d’implantation,  supportant la gestion des processus stables de l’entreprise, ce sont des centaines des milliers de programmes légers, téléchargeables instantanément, couvrant les besoins les plus divers au gré des utilisateurs.  Bien évidemment, ces transformations s’additionnent à des rythmes différents selon les contextes, les pays, les entreprises. Le numérique avance à la fois dans les entreprises sur les bases de l'informatique historique "legacy" comme il prend de vitesse ce monde historique en en cassant les normes et les règles pour s'appuyer sur les pratiques individuelles.

Deuxième mauvaise nouvelle, la base du numérique, ce ne sont pas les start-up

Il faut comprendre que la révolution numérique est une révolution technique et industrielle menée par une industrie lourde et concentrée. La baisse des coûts et l’accroissement des performances sont le résultat des progrès scientifiques et techniques conduits depuis des décennies par une poignée d’industriels qui ont su attirer les plus grands savants et travailler avec les universités de pointe notamment IBM, HP, ATT, Intel, Cisco... Si ces derniers subsistent, parfois en méforme comme IBM, beaucoup de ces acteurs pionniers ont disparu. Le monde informatique est exigeant, complexe et cruel pour les vaincus. Cette industrie capitalistique investit dans les usines de processeurs qui coûtent des milliards de dollars, entretient un réseau mondial de fibres optiques et continue à lourdement investir dans la recherche développement pour étendre sans cesse la capacité de la technique. Elle prend des risques considérables.

Si aujourd’hui on parle de révolution numérique, c’est que cette industrie lourde a su se rendre invisible pour nourrir une transformation des usages qui étant facilement accessible se propage  du grand public vers les entreprises, contrairement à la phase initiale où l’informatique se cantonnait au monde de l’entreprise. Cette invisibilité de la technique entretient une illusion, celle de la gratuité, ou du faible coût, du numérique. Elle met en valeur les start-up brillantes qui peuvent entretenir l'illusion qu'il suffit de quelques mois de développement pour percer mondialement.

Le numérique aujourd’hui ce sont également de nouveaux produits et services qui sont rendus possibles par la baisse des prix des composants et par l’interopérabilité des applications. Sur la couche historique des infrastructures informatiques et télécommunications peut se développer un monde d’innovations beaucoup moins coûteuses à produire et diffuser.  Ainsi le monde des objets connectés ne peut se développer que parce que ces objets envoient des informations, via généralement le smartphone, vers des serveurs installés sur le réseau. Certes il est désormais facile et peu coûteux d’écrire les programmes rendant ces informations intelligibles et utiles à l’utilisateur, mais les utiliser implique d'emprunter des machines et réseaux dont le développement et l'entretien est coûteux et complexe.

Le monde des objets connectés, nouvelle frontière volatile

Mais il faut aussi reconnaître que cette prolifération de services ne change pas spontanément la qualité de vie des utilisateurs. Il n’y a pas de miracle numérique parce qu’on peut régler à distance la température de son domicile et comptabiliser le nombre de pas effectués chaque jour. Chaque usage pris isolément peut répondre à un besoin réel ou encore se révéler inutile et tomber en désuétude. Mais derrière un produit, il y une entreprise, des capitaux, une attente de rentabilité, qui peuvent se révéler totalement volatile si le marché ne fabrique pas une demande solvable.

L’économie numérique diffère de la phase antérieure de l’économie capitaliste en autorisant beaucoup plus facilement un cycle d’essais et d’erreurs aux conséquences  certes désagréables pour les acteurs, mais non catastrophiques pour le tissu économique. Pour un constructeur d’automobile rater un modèle qui a coûté plusieurs milliards € en développement peut être fatal. Parmi toutes les start-up qui ont besoin pour se lancer de quelques dizaines de milliers d’euros, un grand nombre disparaîtra et seules quelques-unes atteindront une taille leur permettant ou de continuer à croître mondialement ou de se vendre confortablement. C’est le marché qui décide, et on a vu depuis 1995 avec l’essor du e-commerce des fortunes se faire et se défaire très rapidement. L’échec fait partie du modèle.

Mais à l’intérieur de la « galaxie numérique » tout le monde n’est pas confronté aux mêmes règles économiques. On voit que les fournisseurs d’infrastructures – concepteurs et fondeurs de processeurs, opérateurs de réseaux, services d’hébergement, fabricants de terminaux – sont confrontés à une concurrence sévère alors que leurs coûts d’investissements (usines, réseaux, marketing, R&D)  sont élevés. Une usine de production de microprocesseurs coûte 7 milliards $. La mise aux enchères des licences 4G aux Etats-Unis a coûté 28 milliards $ aux candidats à l’obtention d’une licence. La vulnérabilité de ces grands acteurs ne doit pas être sous-estimée même s’ils bénéficient, pour un temps, de positions dominantes sœur permettant d’engranger de confortables trésors de guerre. Aucun leader n’est à l’abri, ni Intel, concurrencé sur le monde mobile par Qualcomm, ni Samsung, concurrencé par les fabricants chinois, ni Cisco, attaqué par Huawei, ni même Apple, en dépit de son insolent succès actuel du à l’abandon du dogme maison de ne pas produire de grands smartphones.

Aussi rien n’est jamais joué dans ce marché turbulent.

Le CES 2015 a révélé une floraison d drones, d'imprimantes 3D, de montres connectées et de toutes sortes d'objets connectés qui vont envahir notre quotidien. Il y a beaucoup d'appelés et il y aura peu d'élus. Le secteur des imprimantes 3D est un exemple d’un marché qui stimule l’imagination mais qui reste aujourd’hui marginal. Il y aurait 110000 imprimantes 3D dans le monde. Est-il vraiment utile d’acheter une imprimante 3D aujourd’hui pour mettre des heures à fabriquer une Tour Eiffel de 5 cm de haut comme on le voit dans les démonstrations ? Quel est le véritable usage sur une base régulière justifiant un achat de plusieurs milliers d’euros ? Si on voit  se dessiner un usage industriel pertinent, pour quelques micromarchés de hobbyists passionnés, pour développer rapidement des prototypes, produire à la demande des pièces détachées, il est très prématuré de voir se construire une solution industrielle sur la base des outils actuels. Mais ce qu’il faut retenir, c’est un changement majeur dans le modèle de la production industrielle qui pendant des siècles était fondé sur la production de pièces par élimination de matière, induisant une forte consommation d’énergie et une production importante de déchets, alors que l’impression 3D est fondée sur une logique additive, économe en ressources.  Aussi ce marché encore embryonnaire peut totalement exploser pour les particuliers si les acteurs produisent des solutions acceptables, efficaces et répondant à de véritables besoins. L’entrée d’un acteur aussi expérimenté qu'HP dans ce marché, prévue pour 2016, pourrait rapidement le faire décoller. 

Le monde numérique est fascinant et procure une excitation largement partagée par tous les acteurs devant la pluralité des produits, des services, l'audace des entrepreneurs, la fulgurance des résultats. Mais derrière quelques réussites légendaires, il y a et aura beaucoup d'échecs. Le modèle de "chaos innovant" est stimulant, mais il ne doit pas fasciner les gouvernants et les décideurs au point d'ignorer les réalités économiques et technologiques solides qui rendent possibles  ces prouesses individuelles.

Pour que la société numérique livre ses promesses, il faudra à la fois des innovations d'usage et des infrastructures performantes.


Noël 2014, plus numérique que jamais !

Christmas-tree-digital-circuit-21305139

Depuis plusieurs années, les cadeaux numériques sont  sans conteste les préférés des familles au pied du sapin de Noël.  Ce blog en a déjà rendu compte. Ce choix est naturel : c’est tendance, il y en a pour tous les goûts, tous les âges, tous les prix… Les grands firmes du numérique comme les magasins et sites web  spécialisés se préparent à faire une fois encore de la fin de l’année une année record dans leurs ventes, cette période représentant jusqu'à 50% de leur chiffre. 

Mais les choix évoluent au fil des années en fonction du parc installé dans les familles, qui s’alourdit d’année en année, comme de l’innovation qui condamne les produits des années antérieures à l’obsolescence technique. Le panier de Noël change ainsi rapidement de contenu, même s’il y a quelques invariants qui certes se transforment, mais conservent leur fonction première, comme les  appareils photos.

Withings-pulse-app

 

Withings, réussite française 


Si le numérique est ainsi plébiscité, c’est que les produits qui accolent à leur fonctionnalité première le mot « numérique » sont devenus légion. Aucun compartiment de la consommation culturelle, du sport ou du loisir ne peut faire l’impasse sur l’inéluctable processus de numérisation qui concerne toutes nos activités et tous les objets qui y contribuent.

Est désormais numérique tout objet familier qui non seulement fait ce qu’il a toujours fait, mais désormais en rend compte à volonté et à distance, comme par exemple une station météorologique. Apparissent tous les jours  des objets qui remplissent des fonctions nouvelles pour capter chaque instant de notre vie quotidienne et nous apporter une aide  contextuelle à tout moment. Les nouveaux venus de 2014 touchent de nouvelles fonctions, comme les montres numériques, mais les appareils traditionnels sont revisités. Les appareils photos savent maintenant communiquer sans fil avec une fonction Wi-Fi et se localiser grâce à leur puce GPS… Les balances personnelles deviennent des auxiliaires de santé en captant, mémorisant et transmettant toutes leurs informations. Et le vieux téléphone connait avec le développement sans limite visible des fonctionnalités des « téléphones intelligents », véritables couteaux suisses de l’ère numérique, une mutation génétique de telle ampleur que le dernier snobisme est de ressusciter des téléphones vintage qui ne peuvent que… téléphoner.

Pour rendre compte de cette offre pléthorique, à la croissance exponentielle, qui ne concerne plus d’ailleurs que les seuls pays riches puisqu’il va se vendre en 2014 1,2 milliard de téléphones intelligents, il faut classer et hiérarchiser.

Commençons cet inventaire en différenciant les objets fixes et les objets mobiles. Les objets fixes sont de moins en moins nombreux, puisque la miniaturisation rend désormais toute chose mobile. Et parmi les objets mobiles, il faut distinguer ceux que l’on porte, comme le téléphone intelligent ou la tablette, ou ceux qui se portent, comme la montre ou le capteur d’activité. Il faut aussi introduire comme variable de choix le prix. Mais tous ces articles, sauf les derniers produits techniques les plus pointus, font l’objet d’une concurrence acharnée qui se traduit par une baisse constante des prix. Par ailleurs les distributeurs classiques se battent avec les acteurs du web ce qui crée un marché dynamique sur lequel il faut prendre le temps de faire des comparaisons, de lire les tests et les forums. Car aujourd’hui, sur les marchés de biens culturels ou de biens techniques, tous en baisse en valeur depuis plusieurs années, le consommateur est roi !

Parmi les objets fixes, attachés à la maison, il y a les ordinateurs fixes, dont l’attrait est en baisse, et les grands écrans  connectés au web. La révolution des écrans plats qui date de 1997, avec le premier téléviseur Philips de 42 pouces vendu 15000 $, a fait éclore dans les lieux de vie des écrans géants au réalisme de plus en plus saisissant. La haute définition laisse déjà la  place à la ultra haute définition  -UHD 4K-  et l’écran plat, LED et maintenant OLED, qui ne prenait pas de place, se courbe pour renforcer la profondeur de champ. Il n’est pas sûr que cette prouesse technique ait un succès durable. Tous ces écrans sont de fait 3D, mais là encore l’innovation qui devait être fracassante n’a pas véritablement tenu ses promesses, faute de  programmes adaptés et surtout de confort visuel. La tendance à la baisse des prix des téléviseurs, alimentée par la concurrence entre les coréens Samsung et LG, et bientôt par les constructeurs chinois, permet de dénicher de très beaux objets à la pointe de la technique de 2013 à moins de 400 €.

Aux objets classiques, il faut ajouter d’autres objets immobiles et connectés qui ont fait leur apparition, comme les pèse-personnes, les caméras de surveillance, en croissance de 10% par an, les stations météo, les thermostats, les alarmes. Tous connectés en Wi-Fi à la box du fournisseur d’accès internet de la maison, ces objets livrent leurs informations à distance à travers le réseau sur un smartphone, et peuvent être également actionnés à distance. Les français Withings et Netatmo font preuve sur ce marché d‘une forte dynamique créative.

Les objets mobiles représentent une famille en voie d’extension continue. On pense que chacun d’entre nous portera et transportera une dizaine d’objets connectés d’ici 5 ans. La place de choix revient au smartphone. C’est l’objet universel, terminal intelligent, truffé de capteurs qui tend à absorber les fonctionnalités des autres objets. Ainsi de plus en plus de photographies sont faites à partir d’un smartphone, au détriment des petits appareils photos numériques compact, comme les petits films vidéo destinés au web. Mais le marché de la photographie reste un vecteur très dynamique où les offres sont très segmentées et difficiles à trancher. Les compacts deviennent experts et adoptent même les objectifs interchangeables. Hybrides et bridges cherchent à concilier, autour de 500€,  qualité photographique, longues focales et compacité. Les caméras vidéo  souffrent de ces concurrences sauf les modèles destinés au sport, dont GoPro est le leader, qui connaissent grâce à You Tube un très beau succès. Au sommet du monde de l’image trône le reflex, qui sait aujourd’hui très bien faire de la vidéo soignée,  avec son aura de professionnalisme.

Le marché des montres numériques connectées est aussi un marché qui bien que récent est déjà très fertile. Des dizaines de produits s’affrontent certaines étant limité au suivi de l’activité sportive, d’autres modèles visant le haut de gamme et même le luxe pour être le prolongement au poignet des fonctionnalités des smartphones enfouis dans la poche ou le sac. Quelques capteurs sont plus discrets, et se fixent à la ceinture, comme le Pulse de Withings.

Alors, que choisir ?

Il faut d’abord réfléchir à l’usage réel de ces produits qui dans la vie courante peuvent encombrer sans être vraiment pertinent et créer un cortège de contraintes avec leurs piles, leurs alimentations toutes différentes qu’il faut emporter en voyage. Il faut se dire que traiter et classer photographies et vidéos représente un vrai travail que peu font réellement.

Ensuite il faut penser aux risques d’usage abusifs de ces produits, notamment sur les plus jeunes. Il est vraiment déconseillé d’utiliser longtemps des écrans, tablettes ou jeux vidéo, avant l’âge de 4 ans et il est toujours indispensable d’en contrôler l’usage avec discernement.

Enfin il faut se méfier de l’engouement qui laisse vite place à la lassitude et à l’abandon prématuré de produits dont le coût, ramené à l’heure d’usage réel, peut être prohibitif.

La consommation numérique  doit rester une consommation plaisir mais sans négliger la responsabilité éthique, éducative et environnementale.


La voiture sans conducteur, réaliste ?

Ce texte sera publié également sous une forme semblable sur le site  Atlantico le 27 octobre

2014 a vu soudain apparaître une nouvelle tendance technologique : la voiture sans conducteur. Il n’est pas de constructeurs qui n’aient annoncé, dans une surprenante surenchère, qu’ils allaient mettre « prochainement » sur le marché une voiture qui pourrait rouler sans que son conducteur ne se préoccupe de cette tâche désormais futile, conduire. Volvo, Daimler, Nissan, Ford, General Motors, Audi, BMW, Tesla ont tous annoncé des dates probables de commercialisation, d’ici 5 à 10 ans, de ces véhicules autonomes ou semi-autonomes sans toutefois préciser l’ampleur du service rendu. Si le projet n’est pas nouveau, la ruée vers ce concept est apparue comme une réponse des constructeurs automobiles établis aux ambitions de Google qui  prétendait pouvoir mettre sur le marché non seulement une voiture sans conducteur, mais aussi sans poste de conduite. Il est d’ailleurs bien curieux que, soudain, ceux qui exaltent et embellissent ce fameux plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à un automate le soin de s’acquitter de cette tâche.

Bmw-driverless-car_729-420x0Image BMW

Il faut toutefois questionner sérieusement l’intérêt de cette technologie en dépassant la fascination qu’elle inspire. Car après la valse des annonces, la réalité s’impose.

Les voitures modernes sont désormais très bien équipées en automatismes multiples qui assistent le conducteur dans sa tâche qui, dans les conditions réelles de circulation, est à la fois complexe et fastidieuse, mais aussi fatigante et dangereuse. Il n’y a que dans les publicités que l’on voit une voiture filer sur une route dégagée et sèche dans un paysage somptueux et sans aucun trafic. La réalité quotidienne de la route est bien éloignée de ces images du « plaisir de conduire » qui sont à la base du marketing de tous les  constructeurs. 

Les constructeurs ont tiré depuis longtemps profit des avancées de l’électronique pour équiper leurs véhicules d’outils d’aide à la conduite. De multiples capteurs et actionneurs ont été intégrés depuis l’apparition de l’antiblocage des roues au freinage, l’ABS, en 1978, pour aider à la conduite ou se substituer au conducteur en cas d’urgence. De fait, d’ores et déjà, une voiture moderne va prendre des décisions pour maintenir sa trajectoire avec l’ESP (Electronic Stability Program), assurer une vitesse constante avec le régulateur, améliorer l’adhérence en cas de pluie ou de neige, amplifier le freinage en cas d’urgence, avertir d’un franchissement de ligne ou de dépassement d’une vitesse autorisée, tout en pourvoyant le conducteur de multiples informations sur son itinéraire. La dernière Mercedes Classe S comprend une centaine de micro-processeurs pour s’acquitter de ces multiples tâches.  Ces assistances ne se substituent pas au conducteur, même si elles corrigent, à la marge, ses décisions inappropriées.

En fait le débat sur la voiture sans conducteur est parti de la volonté de Google de démontrer la suprématie de son système de cartographie, tellement précis qu’en suivant ses indications, n’importe quel ordinateur pouvait sans difficulté faire parcourir à une voiture des centaines de kilomètres sans incident. Les constructeurs ont réagi en montrant qu’en équipant une voiture de capteurs, radars, scanners laser, outils de géolocalisation et servomoteurs, on pouvait potentiellement se passer du conducteur. Et on a vu ainsi quelques dirigeants se montrer au volant de ces véhicules expérimentaux mais sans toucher le volant resté bien classique, position assez curieuse et très peu naturelle qui montre bien que le concept est plaqué sur des véhicules conventionnels…

Ces annonces soulèvent deux questions : est-ce utile ? Est-ce faisable ?

Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. L’inattention, l’utilisation d’un téléphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Plus d’1,3 millions de personnes dans le monde, selon l’OMS, perdent la vie dans un accident de la route chaque année. Dès lors mettre au volant un ordinateur doté de capacités sensorielles puissantes et dépourvu des limites biologiques de l’homme est tentant. La motivation est noble : tendre vers le zéro accident et le zéro mort. On attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages, un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage,  les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. Mais pour atteindre ces résultats il faudrait que la machine elle-même soit exempte de défauts.

Conduire un véhicule sur un parcours varié est une tâche complexe. Une voiture à conduite automatique qui se subsisterait aux véhicules actuels devrait remplir les missions polyvalentes d’un conducteur. Les obstacles sont multiples : emprunter un itinéraire varié, sur des routes hétérogènes, en milieu urbain dense ou en rase campagne, faire face aux aléas du trafic, aux comportements imprévisibles des piétons et autres usagers et aux conditions météorologiques, aux changements de la configuration  de la route, en cas de travaux par exemple... Cette compétence du conducteur, ce serait aux ordinateurs du véhicule de l’assurer en s’appuyant sur les informations stockées et sur celles acquises en temps réel.

C’est là où le pari devient plus compliqué. S’il est relativement facile de faire rouler sans solliciter le conducteur une voiture sur autoroute dégagée, il faut que le véhicule soit en mesure d’atteindre une telle route par ses propres moyens et s’en dégager. Il faut donc définir à quel moment l’automatisme rend la main au conducteur s’il ne peut assurer  en pleine sécurité une conduite en milieux variés. Il faut donc que le conducteur soit en permanence en situation de vigilance et que l’interface automatisme/humain soit parfaitement fiable. Même avec des pilotes expérimentés, et dans un espace dégagé, les pilotes automatiques des avions sont  parfois sources de confusion aux conséquences fatales.

Par ailleurs pour atteindre une telle fiabilité il faut multiplier les capteurs, les processeurs de traitement faisant appel à des algorithmes complexes et à l’intelligence artificielle, les automatismes pour se prémunir de la défaillance d’un composant ou d’un programme. Un tel équipement complexe ne peut qu’être très coûteux. Ainsi un laser 3D, ou lisar, coûte 50 000 € pièce. Les voitures sont soumises à des conditions de fonctionnement bien plus difficiles que les avions, dont les conditions d’usage sont  simples à modéliser et à programmer. Comment en revanche prévoir toutes les situations auxquelles un conducteur pourrait être confronté ? C’est pourquoi les démonstrations qui ont été faites ne sont pas probantes car elles se déroulent dans un contexte simplifié qui n’a rien à voir avec la réalité routière.

Il faut donc revenir à une réalité opérationnelle qui ne fera pas rêver mais qui a plus de chances de se concrétiser. Toyota a d’ailleurs pris ses distances au CES 2013 en prônant une approche pragmatique et graduelle qui parle de voiture autonome, par couches successives d’avancées techniques, mais non sans conducteur. L’humain, pour Toyota, doit en effet rester en permanence en situation de contrôle. Cette piste est la plus vraisemblable. Les constructeurs vont « simplement », même si le travail est déjà considérable, étendre progressivement le champ des automatismes déjà installés, en commençant par le très haut de gamme pour financer le coût de ces installations. Beaucoup de véhicules proposent déjà une assistance au stationnement en créneau, dont les résultats sont encore très imparfaits. On peut aussi disposer d’un régulateur de vitesse qui se cale sur le véhicule qui précède pour maintenir une distance de sécurité et de multiples aides à la vision, à la tenue de cap, au freinage, à l’évitement de collision. Pour tester sans attendre le charme de ces technologies il est possible pour 140 000 € ( !) de s’offrir la dernière Mercedes 500 S Plug-in Hybrid qui est un démonstrateur de tout ce qu’on peut mettre aujourd’hui dans une automobile. Elle peut notamment être équipée, en option, d’une assistance à la conduite dans les embouteillages.

Comp_carschart37

Par petites touches, ces outils permettront de rendre la conduite plus sûre en dotant le conducteur d’un copilote vigilant et efficace.  Par ailleurs, des expériences de véhicule sans pilote seront réalisées sur des itinéraires précis et balisés, ce qui peut rendre de multiples services dans des espaces appropriés. Il faudra certainement attendre plusieurs décennies avant de voir de véritables voitures sans pilote se mêler à la circulation courante !