L'impasse française : oser la comprendre pour mieux en sortir

Quelques expatriés japonais qui aiment la France, lassés de voir les rues et squares de Paris mal entretenus, y ont créé une association, les Green birds, qui organise des expéditions de nettoyage collectif. Ce fait, humiliant, est symbolique. Ce pays qui jouit d’une position géographique, d’un climat et d’un patrimoine exceptionnels, suscitant l’envie de toute la planète, perd sa lucidité au point de négliger le fondement même de son attractivité, son aspect physique ! Plus encore, il parait normal à tout parisien fumeur de jeter son mégot au sol car c’est l’expression d’une valeur bien française, la liberté… Et ne paye-t-on pas des impôts pour exercer ce droit inaliénable, même au risque très peu probable  de devoir payer 68 € d’amende?

La France vit sans cesse le grand écart entre l’expression bravache de grands principes qui ont fait sa réputation et une incapacité très concrète à les mettre en pratique. C’est sûrement pour mieux concrétiser nos valeurs que le chef de l’Etat a cru nécessaire de créer un secrétariat d’Etat à « l’égalité réelle » qui doit être un cas unique dans les 193 états membres des Nations Unies !

Les causes sont… ailleurs !

La France vit avec beaucoup de difficultés un double changement historique: une perte d’influence mondiale et un ralentissement durable de son économie. Ces deux tendances lourdes se traduisent par une réduction de la population en emploi et donc du revenu disponible, alors que les frais de structure d’un grand territoire, morcelé en une multitude de collectivités, restent identiques. Cet effet ciseau a des conséquences immédiates : poids des transferts sociaux, dégradation des infrastructures, alourdissement des déficits. L’économie française, privée des armes classiques des pays en difficulté – la dévaluation, l’inflation, l’accroissement sans limite des déficits –, incapable, faute de consensus, de résoudre quelques problèmes structurels récurrents, est paralysée et ne progresse plus. Plutôt que d’en comprendre les causes, la classe politique, soutenue en cela par une partie notable de l’opinion, préfère s’en tenir à une vision archaïque de la défense du « modèle français », voir même, sans hésitation, du « génie français »[i] remis au goût du jour par tous les partis.

Dans cet exercice récurrent d’autojustification, dont le débat sur la loi Travail offre un florilège, le reste du monde s’acharne à attaquer la France dans ses valeurs républicaines et la superbe de son modèle. Bruxelles, l’euro, les Etats-Unis, l’inflexible Allemagne ou la perfide Albion, la Silicon Valley et l’immonde hydre du GAFA, la Chine avec ses industriels copieurs et ses salaires bradés, constituent une coalition hétéroclite mais efficace au service de la mondialisation, bras armé d’une revanche contre la France éternelle, celle de la joie de vivre, de l’humanisme, des valeurs du XVIIIe siècle. Qu’on soit nationaliste, populiste, écologique, de gauche ou de droite, on partage largement le sentiment que si nous trainons la patte dans la plupart des classements mondiaux, c’est parce que l’arbitre est clairement du côté de l’adversaire. Comme le répètent à l’envi nos dirigeants, la France est un « grand » pays qui ne mérite certes pas ce sort. Mais comme le disait le très regretté Pierre Desproges, nous n’y sommes pour rien parce que, simplement, « les étrangers sont des cons », sentiment largement répandu dans tous les bistrots de France.

La loi d’airain des classements

Mesurer la situation réelle de la France en termes de situation économique, éducative, technologique, sanitaire n’est pas très difficile. Les organisations de l’ONU, l’OCDE, le FMI publient des statistiques et analyses qui sont corroborées par des études menées par des organismes privés comme le Word Economic Forum. De cette masse d’informations, il ressort que le recul de la France est réel et se mesure sur une série d’axes objectifs.

Avec moins de 1% de la population mondiale, et un PIB de 2423 milliards $ en 2015 qui la classe au 6e rang mondial, la France n’est que 21e pour le PIB par habitant. Chaque France vit beaucoup moins bien qu’un Suisse, dont le PIB est 2,2 fois le sien, qu’un Suédois (1,3 fois supérieur) ou qu’un Canadien (1,2 fois) sans parler des britanniques ou des allemands. Au classement mondial de l’IDH (indice de développement humain), qui intègre le PNB par habitant, le niveau d’études et l’espérance de vie à la naissance, la France est 22e. Cette réalité chiffrée contraste avec les chants de gloire de nos gouvernants successifs.

Faire une liste exhaustive des preuves de ce déclin de long terme serait impossible. Mais au-delà des indicateurs significatifs de résultat, qui traduisent l’impact actuel de décisions anciennes, il faut aussi s’intéresser aux indicateurs qui traduisent une capacité à faire, qui conditionne les résultats futurs.

Une des clefs de l’avenir économique est la maîtrise des composants de la société numérique. Parmi ceux-là, figurent les réseaux de télécommunications haut débit et les logiciels. Selon le rapport 2015 sur les technologies de l’information du World Economic Forum, la France occupe le 26e rang mondial pour son degré de préparation à intégrer les technologies numériques (indice NRI : Networked Readiness Index). La France souffre d’un handicap en matière de couverture de son territoire en haut débit, fixe et mobile. Ce fait est reconnu et chaque gouvernement en fait une priorité… L’objectif d’Eric Besson, secrétaire d’Etat à l’économie numérique, était ainsi, en avril 2008, de « donner à l'ensemble de ses concitoyens et pour chacun des territoires l'accès à l'Internet haut débit fixe et mobile, ainsi qu'à la télévision numérique terrestre, à l'horizon 2012 ». Le plan Très haut débit de Fleur Pellerin dit en 2013 la même chose, pour… 2022. Après avoir bien réussi le déploiement de l’ADSL, la France a négligé le haut débit fixe et se situe en 2016 au 26e rang mondial pour le raccordement en fibre optique et 59e pays mondial pour le taux de couverture en 4G.

Le second sujet d'avenir est l'éducation. Dans une économie où le  niveau scientifique et technique va être de plus en plus exigeant, l'éducation est le facteur clef de compétitivité. L’enquête PISA de 2013 montre une dégradation du niveau des élèves français au cours des dix dernières années en mathématiques où les performances se situent désormais dans la moyenne. Plus encore l'école française est de plus en plus inégalitaire.  L’origine sociale des enfants dans leurs résultats pèse plus en France que dans les autres pays de l’OCDE. De manière générale, l’inégalité de la différence de niveau entre les élèves croît en France depuis 2003 ! Chiffre très révélateur : la proportion d’élèves issus de l’immigration se situant au dessous du niveau 2 en mathématiques atteint 43 % en France et ne dépasse pas 16% en Australie et au Canada. Le retard de l'apprentissage en France est largement reconnu et chaque gouvernement s'en indigne, sans résultat. En matière d’informatique scolaire, en l’attente périodique d’une « grand plan numérique pour l’école », qui se résume le plus souvent à des équipements, les résultats des enquêtes de l’OCDE, qui situe la France légèrement au dessus de la moyenne, démontrent qu’il n’y a pas de miracle numérique et l’impact de l’usage des outils numériques est d’autant meilleur que les enseignants sont formés et les programmes adaptés.

Il n’y a que sur le plan démographique que la France qui jouit d’un système reconnu de soutien à la petite enfance atteint un taux de fécondité constamment proche de 2, le meilleur de l'Union européenne avec l'Irlande, qui écarte tout risque de vieillissement prématuré, même si le vieillissement biologique inévitable des baby-boomers va se traduire par une augmentation importante des plus de soixante ans dans la population, avec les dépenses de santé inhérentes à cette tranche d’âge.

Changer, mais comment ?

Depuis vingt ans les rapports s'accumulent,  les ouvrages se multiplient, les rayons croulent sur les solutions de chaque homme politique mais la situation continue à se dégrader. Ce n'est donc pas dans les constats et les programmes que se situe "la" solution. Il faut donc admettre enfin qu’il faut réagir individuellement. Nous ne pouvons plus glisser sur la pente fatale de l’appauvrissement en attendant un miracle venu "d'en haut", homme providentiel ou situation magique. Le sursaut ne peut venir que d'une envie partagée de ne pas se résigner au déclin.

Toutefois cette réaction individuelle peut aussi être  un constat d’échec collectif, motivant un départ de la France. Beaucoup de Français, lucides et actifs mais impatients, préfèrent quitter ce pays pour aller développer leurs talents ailleurs, Londres, la Californie, l’Australie, ou le Canada. Les retraités partent au Portugal ou au Maroc au risque de se désocialiser. Si ce phénomène est largement médiatisé, il ne bouleverse pas encore les équilibres fondamentaux puisqu'il n'y a officiellement que 1,566 million de français recensés à l'étranger, chiffre certes en hausse de 17% entre  2006 et 2013, et surtout au profit des pays proches comme la Suisse, la Grande-Bretagne, la Belgique... Toutefois, ce qui est le plus préoccupant dans ce flux de départ, c'est qu'il touche de plus en plus les jeunes diplômés.

Rester pour construire un avenir meilleur en France est la solution la plus simple et la plus évidente. Avant, toute mesure technique fiscale ou sociale, c'est la confiance sur la capacité collective des Français de faire face aux problèmes par un désir de renouveau et d'engagement qui peut stimuler cette motivation. Retrouver une place acceptable dans les classements mondiaux sera un résultat ultérieur heureux de cette capacité de réaction retrouvée.

Or ce pays a la capacité d’offrir à tous les entrepreneurs et à tous les entreprenants le territoire de leurs ambitions.

La France dispose de tous les moyens techniques pour prendre toute sa place dans la société numérique. C’est bien en misant totalement sur les technologies numériques, qu’elles soient exploitées dans les industries classiques ou déployées dans des usages nouveaux. Il ne faut plus chercher à corriger les défauts structurels de notre modèle économique, il faut résolument tourner la page du XXe siècle, car le modèle a totalement changé, pour attaquer les sources de richesse et d’influence futures. Elon Musk dit que « le passé est notre plus mauvais conseiller « .

Le changement est scientifique et technique. Le numérique, omniprésent, aide à redéfinir les standards de performance dans tous les secteurs, agriculture, industrie, services et service public. On peut, partout, faire mieux, plus vite et moins cher. Mais de peur de déstabiliser des processus établis depuis longtemps, qui ont figé les hiérarchies, les normes, les contrôles, les modèles de management, dans le modèle antérieur du productivisme industriel, on - et derrière ce « on » anonyme il est possible de mettre beaucoup de gens - diffère les changements. On plaide pour les réformes alors que chacun s’enferme dans le conformisme prudent et paresseux. Tout le monde sait qu’il faut simplifier les règles, partout. Et il est très commode d’incriminer le seul secteur public alors même que le plupart des entreprises ont réinventé une bureaucratie qui casse l’initiative et valorise le conformisme. Or simplifier implique toujours l’abandon de systèmes inutiles, auxquels sont associés des équipes, des personnes, des dirigeants. Ce sont autant de talents qui pourraient largement être utilisés à mettre en œuvre les innovations qui vont nous permettre de progresser en efficience plutôt que s'acharner à pérenniser des modèles obsolètes.

Industrie-futur371

Intelligence artificielle, sciences cognitives, biotechnologies, énergie décentralisée, automobile à faible consommation, technologies de l’habitat, biotechnologies agricoles, aéronautique, lutte contre le cancer et les maladies neurodégénératives, nouvelles techniques de la confiance ( blockchains…) voici autant de sujets clefs où il faut investir massivement, avec de l’intelligence et des capitaux. Ces thèmes sont traités dans les neufs dossiers de « la nouvelle France industrielle ». Mais il y a encore beaucoup de réticences à abandonner un saupoudrage des moyens. La lisibilité des messages en souffre. Faute de clarté et de simplicité dans les engagements, dans un climat de scepticisme et de défiance, on n'obtient pas de résultats suffisamment rapides et visibles pour en tirer toute l’énergie nécessaire au changement. Les conséquences de cet engagement indispensable pour l'industrie du futur mettront des années à avoir un impact sur l'emploi.. et le moral ! Mais il ne faut pas relâcher cet effort de long terme en cédant au découragement et aux contingences de court terme. 

Car les idées sont là, pertinentes, en phase avec le potentiel scientifique et technique. Et même sur le sujet controversé de  la  baisse des charges, un dispositif lourd a été mis en place. Le CICE (Crédit d'Impôt pour la Compétivité et l'Emploi) organise depuis janvier 2013  une réduction massive du coût de la main-d'oeuvre de l'ordre de 20 milliards €. La mesure a été critiquée pour sa complexité. Néanmoins rien ne permet d'enrayer le chômage de masse dont les causes sont anciennes, profondes et complexes. Les messages positifs ne suffisent pas à écarter les nuages alimentés par un climat morose et le manque de puissance des discours politiques.

Les gouvernants ne sont certes pas responsables de l’embauche individuelle. Mais leur stratégie doit contribuer à desserrer les freins qui pèsent sur la décision individuelle. On constate que les grandes réformes ne fonctionnent pas vite et butent sur les contraintes de court terme, trésorerie, carnet de commande, contexte économique mondial. Les entrepreneurs persistent à penser qu'embaucher est difficile et contraignant. Or la compétitivité ne se décrète pas. C'est un travail  de longue haleine qui porte sur la qualité de l'offre, sur l'image de marque, sur la qualité des services, les prix n'étant qu'un facteur parmi tous les éléments qualitatifs qui influencent les clients.

Il faut donc avancer sur le plan macroscopique en déminant les obstacles de façon pragmatique et décentralisée sur les sujets qui conditionnent les performances économiques futures, et donc la qualité et la standard de vie : formation, notamment en alternance, embauche des jeunes; soutien aux jeunes entreprises, renforcement des liens entreprises-écoles-universités,  innovations dans le domaine de la santé. L'économie est au coeur de la réussite d'un pays même si les sujets sociétaux peuvent se réveler  mobilisateurs pour stimuler  l'innovation et l'investissement, comme la lutte contre l'accidentologie routière ou le cancer. 

Mais plus que toute grande stratégie de réforme, lente et complexe, l'économie française doit se réinventer sur une base décentralisée, fondée sur les initiatives locales et l'entrepreneuriat. Les grandes entreprises à vocation mondiale peuvent y contribuer efficacement en soutenant les écosystèmes par un flux de commandes, de prises de participation dans les start-up, de prêt de personnel qualifié. Il ne faut pas attendre de réformes globales pour commencer à se prendre en charge. Tout repose sur un sursaut individuel. Maintenant. 

 

Sources et références

https://fr.wikipedia.org/wiki/Green_Bird

[i] Marie-Noëlle Lienemann, Le Monde, 25 mars 2016


Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


L'économie collaborative est-elle fondée sur... le partage ?

La technologie avance, les grands acteurs se mettent en place et exploitent habilement leurs positions aux "postes de péage" de la société numérique. Faut-il craindre la construction de nouveaux monopole qui facilitant l'économie collaborative seraient les premiers à en tirer profit sans limite ? Le débat n'est pas simple alors que l'on s'interroge sur les emplois du futur et sur les mécanismes de financement des charges collectives mutualisées : fonctionnement de services publics, santé, prévoyance. Il faut inventer cette économie du XXIe siècle qui ne doit pas inquiéter mais faire réfléchir et agir sur des bases nouvelles. C'est le sens des travaux de l'Institut de l'Iconomie dont cet article est une production.

 

Article publié dans Le Monde du 4 février avec mes amis de l'Institut de l'Iconomie

 


Economie du partage ou hypercapitalisme ?
Les plates-formes numériques ne seront durables que si la rente qu'en tirent leurs propriétaires est redistribuée à leurs utilisateurs


Automatisation, robotisation, ubérisation : la révolution numérique porte la menace d'un chômage de masse. Il ne faudrait pas s'en plaindre, car la fin du travail ouvrirait, selon l'influent essayiste américain Jeremy Rifkin, une période d'activités bénévoles intenses. A l'image de Wikipédia, la connaissance, les images, les objets imprimables en 3D ne coûteront plus rien. L'énergie produite par chacun, le partage des objets et des services comme Vélib' ou Blablacar feront chuter les dépenses. L'économie du partage s'imposera ainsi jusqu'à éclipser le capitalisme et la nécessité de travailler.

Cette vision est séduisante, mais c'est un leurre. Cette nouvelle route du " communisme " conduit en réalité à l'hypercapitalisme. L'économie collaborative moissonne les richesses au profit d'une minorité, mais sans les redistribuer. Les contributeurs s'en indignent dès qu'ils en prennent conscience, ce qu'illustre le cas du Huffington Post aux Etats-Unis. Ce " Wikipédia du journalisme " faisait intervenir des milliers de chroniqueurs bénévoles, qui se sont révoltés le jour où le journal a été vendu pour 315 millions de dollars (plus de 288 millions d'euros) à AOL sans qu'ils reçoivent leur part.

Des milliers de crowdfunders (adhérant au financement participatif) se sont scandalisés quand Oculus, le développeur d'un système de réalité virtuelle auquel ils avaient apporté leur contribution,s'est vendu pour 2 milliards de dollars à Facebook. De plus, les grandes plates-formes de l'économie collaborative ne payent pas d'impôts. Sur ce point, cette économie ressemble à l'économie financiarisée, dans laquelle les plates-formes de trading à haute fréquence prélèvent leur dîme sans contrepartie. Dès lors, le cerveau, matière première du XXIe siècle, s'expose à la même surexploitation que les matières premières naturelles du XXe siècle. Dans sa forme actuelle, l'économie collaborative n'est pas durable.

Il faut donc introduire un nouveau mécanisme de partage des richesses. L'échec de la taxe Tobin nous a déjà montré que ce ne sera pas par l'impôt. Il vaut mieux s'inspirer des industries créatives, comme celles des jeux vidéo ou du cinéma, dont la production est monétisée par la propriété intellectuelle, ce que préconisait Maurice Lévy, le PDG de Publicis, dès 2006.

Innovations d'usage
Ce mécanisme doit intégrer une double détente, pour que le bénévolat initial puisse être rétribué équitablement dans le cas de sa monétisation indirecte, ce que recommande aujourd'hui le Conseil national du numérique. Il doit enfin s'adosser à des fonds souverains dont les actifs sont les brevets et les marques, sur le modèle déjà expérimenté de France Brevets, pour collecter des montants de redevances au lieu d'impôts.

Il faut aussi faciliter l'innovation d'usage, seule créatrice d'emplois, comme l'illustre la banque assurance. L'emploi de ce secteur était menacé par l'informatisation : le rapport Nora-Minc de 1978 anticipait 30 % de réduction d'effectifs à cause de l'automatisation du traitement des chèques, des distributeurs de billets, des relevés de compte, des virements, des prélèvements mensuels, de la comptabilité, etc. Mais, dans le même temps, les innovations d'usage apportées par l'informatique, comme la carte à puce ou la gestion personnalisée de portefeuilles de titres, ont plus que compensé ces réductions. Au final, les effectifs du secteur ont augmenté de 25 %. Aujourd'hui, le premier créateur d'emplois en France est de fait la société O2, dont l'innovation permet aux femmes de ménage de disposer de toute leur organisation dans leur smartphone.

La vision dominante de la révolution numérique est une menace. Quelques ajustements de partage des richesses et de doctrine économique permettraient d'en canaliser la puissance pour la rendre créatrice de nouveaux usages et de nouveaux emplois.

par Vincent Lorphelin, Jean-Pierre Corniou et Christian Saint-Etienne


Le numérique est aussi une révolution managériale

http://www.labourseetlavie.com/videos//debat-economique/jean-pierre-corniou-directeur-general-adjoint-sia-partners-un-des-enjeux-c-est-aussi-de-changer-les-methodes-manageriales,2247.html#.Vq87HYnChz8.twitter

 

 

Une vue historique

https://www.youtube.com/watch?v=dmTOMxwil4g&list=PLNAnUl_bnDUfp7gGdPRyLchNQU3T_GOZV&index=7


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Décryptages du CES, suite...

On peut faire une première lecture du CES. Elle est déjà stimulante ! Elle consiste à lire en direct le flot des innovations techniques servi par la forme brillante que savent déployer les entreprises américaines. C'est le temps de l’enthousiasme. Il y a un second niveau de lecture, qui n'est plus dans le "quoi" de la révolution numérique mais dans le "pourquoi". A chaque étape de la remise en cause du système socio-technique, les humains ont cherché à comprendre le pourquoi de ce changement qui allait bouleverser leur vie, souvent d'ailleurs de façon tacite. Evidemment c'est une phase de questionnement et de doute. Le marketing du strass et des paillettes n'a plus cours : il faut trier ce qui est pertinent pour la vie des humains et qui va rester.  C'est le temps de la lucidité...

Le CES constitue une chambre de résonance exceptionnelle où se mêlent les histoires  des produits,  des entreprises et des entrepreneurs qui produisent l’économie numérique. Les key notes  en sont les amplificateurs. Le talent de communicateur des dirigeants invités est servi par des moyens techniques qui assurent une orchestration parfaite de l’histoire qu’ils ont choisi de raconter. Le casting de ces key notes est aussi révélateur du poids accordé par la CTA – Consumer Technology Association– à chaque entreprise et à chaque tendance structurante de la révolution numérique. La puissante CEA qui organise le CES, sous la férule de son dynamique président, Gary Schapiro,  a changé de nom cette année en abandonnant l’appellation historique de Consumer Electronics Association pour remplacer Electronics par Technology, ce qui illustre parfaitement le changement de positionnement du CES. La CTA demande d’ailleurs de ne plus décliner l’acronyme, l’évènement CES dépassant désormais largement les frontières du monde de la consommation.

Ces symboles savamment distillés traduisent bien l’évolution du CES. Naguère grand salon du son et de l’image, c’est aujourd’hui plus qu’un vaste marché. C’est un carrefour de rencontres, un lieu où s’expriment les tendances mondiales du marché. Derrière la force de ces démonstrations et l’habilité du spectacle, toujours réussi, il faut tenter de décrypter les messages porteurs de sens pour la grande histoire de la construction numérique dont nous sommes les témoins en temps réel. Car le CES provoque aussi un effet de halo qui projette des tendances sans lendemain. La montée et la chute de la télévision en 3D en sont un exemple récent. Au-delà des spectateurs immédiats, c’est le marché et les investisseurs qui sont les destinataires de ces messages. Les 3500 journalistes présents assurent une couverture médiatique unique à l’évènement. Emmanuel Macron à Las Vegas, surtout quand il intervient dans une key note, devient une star mondiale. La Poste présente au CES, c’est un message très fort qui a un retentissement majeur en France. Le détour par Las Vegas est un amplificateur de renommée, et un accélérateur d’affaires, surtout quand on y est couronné par un Award.

L’édition 2016 a vu apparaître plusieurs nouveaux venus - Reed Hastings, CEO de Netflix, Herbert Diess, CEO de Volkswagen, Mary Barra, CEO de General Motors, Ginni Rometty, CEO d’IBM, Robert Kyncl, Chief Business Officer de YouTube – relayer les habitués.

Si Diess était plus dans la contrition que dans la démonstration, Brian Krzanich CEO d’Intel est intervenu pour une seconde présentation  très « hype » pour démontrer qu’Intel est tout à fait  engagé dans l’internet des objets. IBM qu’on ne voit jamais est obligé de démontrer que son choix stratégique d’abandonner le matériel au profit des logiciels et des services de l’intelligence artificielle est justifié, alors que le chiffre d’affaires ne cesse de régresser. Mary Barra, qui remplaçait Ford un grand habitué du CES, a fait une démonstration sans révélation de l’intérêt de GM pour le véhicule électrique en présentant son dernier modèle.

La thématique majeure de tous ces acteurs est de montrer que le monde numérique constitue un ensemble homogène où tout – personnes et objets – est connecté. Cette omni-connexion n’a qu’un but : améliorer le sort de l’humanité. Cette affirmation, constante, ne souffre d’aucune limitation. Gary Shapiro admet bien toutefois que les « bad guys » peuvent aussi tirer profit de cet univers connecté. Mais cela ne doit en rien ralentir l’enthousiasme – « amazing » reste le maître mot -  et surtout justifier un interventionnisme gouvernemental.

Bien entendu les messages commerciaux ne sont jamais loin. Il faut convaincre les consommateurs et les investisseurs de la pertinence de la vision stratégique. Pour un Français, l’excès de publicité peut l’emporter sur la pertinence stratégique du message. Ce point a été notamment évoqué pour Netflix, qui n’a pas hésité à en rajouter pour montrer qu’Hollywood, désormais, c’était eux, en convoquant force acteurs et bandes annonces, ou pour Intel dont les invités multiples n’ont pas été avares de louanges pour expliquer que sans Intel, la musique, les drones, la mode et même la banque ne seraient pas les mêmes. La palme de la sobriété a été décernée à Samsung qui distillant le même message – nous sommes la plate-forme de référence – l’a fait avec méthode et pédagogie.

Trois idées fortes et partagées émergent de ces discours et de ces images:

  • Plus personne ne réussit seul. Le temps est à la coopération.
  • Laisser parler clients et partenaires, ils sont plus convaincants que vous pour expliquer que la coopération est indispensable
  • La disruption c’est vraiment mettre le client au cœur de son attention, et donc du business. Pour parler au client, il ne faut pas hésiter à se défaire de toute intermédiation. Il faut toujours se positionner au plus près du client de peur que quelqu’un d’autre le fasse.

L’éloquente démonstration de Netflix, au-delà du discours promotionnel, était centrée sur le caractère vital de la maîtrise technique pour être capable de servir le client.

Frank_Underwood_-_House_of_Cards

Oeuvre phare qui a lancé vraiment Netflix

Reed Hastings a expliqué comment, d’entreprise de vente par correspondance, mettant des DVD dans des enveloppes, Netflix est devenu producteur et diffuseur de contenus dans le monde entier. C’est par la maîtrise du video streaming, sur tous les réseaux, tous les formats d’écran qui a permis à la plate-forme de rentrer directement chez le client, et d’en connaitre les moindres réactions face au contenu diffusé. C’est cette connaissance intime, millimétrée, des clients qui permet à Netflix de devenir producteur de contenus à succès. Dès lors Netflix peut s’affranchir des autres producteurs de contenus en maîtrisant parfaitement toute la chaine de valeur. La leçon s’applique à tout acteur qui loin en amont du client dépend de l’improbable bonne volonté des intermédiaires pour améliorer sa performance. Il y a ainsi une forte aspiration vers l’aval des producteurs qui ne peuvent plus camper sur leur positionnement B2B historique.

Mais ce mouvement vital n’est pas à la portée de chacun. La culture interne, le poids des processus, la résistance des intermédiaires, l’image institutionnelle empêchent bien souvent de sortir du statu quo, quand ce n’est pas par simple inertie. Malgré ses efforts massifs, Intel a beaucoup de peine à sortir de l’image du couple Wintel et à apparaître comme un acteur majeur du monde de la mobilité contrairement à Qualcomm. Faute de succès rapide dans cette mutation, il tente de devenir incontournable dans le monde de l’internet des objets. Tous les constructeurs automobiles cherchent avec la voiture connectée à se rapprocher du client final en en connaissant les comportements. Mais c’est un mouvement tardif, qui peine à renforcer l’intimité client en hors de quelques constructeurs premium au moment où les clients se passent des constructeurs pour valoriser leurs véhicules par l’autopartage et le co-voiturage.

La leçon du CES 2016 est que le monde de l’internet et du web n’a pas fini de déstabiliser les acteurs en place au profit de nouveaux venus qui en ont compris, dans leur ADN, tous les éléments. L’internet des objets, nouvelle frontière, ne va pas simplifier la tâche des acteurs historiques. Dans tous les domaines, notamment le transport, l’énergie, la santé, la capture de l’information dans les objets en réseau va donner aux acteurs de l’information numérique une place majeure. Curieusement le peu de présence au CES de l’industrie bancaire tend à dissimuler une conséquence majeure de l’internet des objets : la prochaine disparition du cash, déjà largement engagée en Europe du Nord, et sa transformation par des échanges électroniques qui vont donner aux plate-formes de l’internet un rôle prééminent.

Le CES 2016 ne fait que marquer une étape dans la grande restructuration en cours de l’économie mondiale qui, pour l’instant, est dominée par les produits et la culture des Etats-Unis. L’information s’impose comme matière première du service  et de la création de valeur. Elle s’appuie sur les réseaux - internet et les réseaux de l’internet des objets -, le traitement des données, la restitution en temps réel et contextuelle des informations utiles, l’automatisation des processus enrichie par l’intelligence artificielle. Ceux qui comprennent les enjeux de cette nouvelle économie en deviendront, pour un temps, les leaders.

Chacun se bat pour se situer au plus près du client final au carrefour de la création de valeur entre objets, réseaux et service. C’est une quête risquée et passionnante dont l’issue ne peut être qu’incertaine. Derrière les déclarations d’autosatisfaction, savamment distillées, tous les acteurs de l’économie numérique ne peuvent être que lucides : tout peut changer vite. Et seule la vitesse d’action offre le moyen de s’adapter.


Le CES, un irremplaçable observatoire de la révolution numérique

 

S’il fallait résumer l’esprit de l’opus 2016 du CES, il faudrait insister sur le fait que l’innovation ne réside pas dans la pertinence d’une idée, mais dans la force de son déploiement. Bien entendu le CES 2016 fourmille d’idées nouvelles et les 250000 m2 des stands de  cette exposition hétéroclite et chatoyante recèlent des pépites qui deviendront certainement dans cinq ans d’évidents grands succès. Il suffit, pour se convaincre de la vitalité de la création numérique, d’arpenter les allées du Sands où sont installés les start-ups de l’Eureka Park ou exposés les Awards de l’année, distinction fort prisée à l’impact commercial convoité. Les idées foisonnent, la conviction des créateurs est contagieuse. Et la forte présence des stands de la French Tech rassure sur la capacité de notre pays à  innover, d’autant plus qu’on y rencontre de fortes délégations de dirigeants français, emmenés par Emmanuel Macron ou Pierre Gattaz.

375ece3498429295cb54f95f9cd0fe3b297af8c3

Mais la force qui émane du CES est la démonstration vivante du passage de l’idée au déploiement massif. D’année en année, la reconfiguration dynamique des espaces du CES, partagé désormais entre l’historique LVCC, Las Vegas Convention Center, et le Sands, dont il a chassé le salon de l’érotisme, montre bien, symboliquement,  la nature de la révolution numérique. C’est dans la vitesse et la profondeur de la propagation des idées neuves que se jouent les transformations. C’est dans l’adaptation permanente des structures, des comportements, des pratiques sociales que la métabolisation des percées techniques se transforme en innovation sociétale. Le CES, avec la souplesse d’adaptation de ses structures physiques, de ses programmes de conférences, le choix de ses conférenciers est la démonstration vivante et symbolique de la révolution numérique.

S’il a fallu soixante ans pour électrifier la France, il n’a fallu que huit ans pour que le concept imaginé par Steve Jobs d’un ordinateur mobile, pouvant téléphoner, léger et autonome, couplé à un magasin d’applications, séduise la totalité de la planète. C’est parce que la simplicité de ce modèle a convaincu les utilisateurs d’y adhérer sans réserve qu’aujourd’hui des milliards de smartphones, de tous prix, peuvent accéder à des millions d’applications, gratuites ou très peu couteuses, couvrant à peu-près toutes les situations, tous les besoins, tous les désirs. Le smartphone - dont on ne peut plus vraiment dire qu’il est un « téléphone », même intelligent, tant la partie de communication vocale s’est marginalisée pour ne représenter plus que 15% des usages - est devenu la porte d’entrée incontournable de toute application numérique.  Il s’en est vendu 1,4 milliard en 2015. C’est cette universalité, garantie par une standardisation des interfaces et l’interopérabilité des techniques, qui confère sa pertinence au smartphone, couplé à un foisonnement d’applications.

C’est aussi parce que l’industrie est passée d’un modèle d’intégration verticale, qui était la force de l’informatique des années soixante-dix à quatre-vingt-dix avec les exemples d’IBM ou de DEC, à un modèle  de « monopoles de couches », unifié par les techniques de l’internet, que l’on peut disposer d’une grande souplesse dans les solutions et dans les usages. Seul Apple, qui a toujours ignoré le CES,  apporte aujourd’hui le contre-exemple, brillant, d’un industriel qui réussit à maitriser l’ensemble de la chaine de valeur, des matériels au système d’exploitation et aux logiciels. Cette stratégie solitaire est payante car même dans le segment en déclin des PC, il est le seul à progresser.

Le CES illustre bien la nouvelle structure de l’industrie. L’universalité de l’accès renvoie au rang de commodités les outils – PC, tablettes, hybrides, smartphones – qui ne sont plus les vedettes du CES tant la profusion de modèles et leurs capacités analogues ne constituent plus un facteur de choix essentiel. Alors que mondialement le marché des PC est en décroissance continue (-10% encore en 2015) , les nouvelles générations de smartphones sont jugées peu innovantes et ne se jugent que par la taille de leurs écrans dans un marché où les positions des constructeurs sont figées, les clients démontrant une grande fidélité à leur marque. Le marché des smartphones pourrait atteindre rapidement la saturation. Le marché des tablettes n’a pas pris le relais attendu, mais les hybrides – tablettes avec clavier aux performances d’un PC – semblent profiter de l’atonie des marchés des produits matures pour émerger.  Les clients sont devenus pragmatiques. Ils conservent plus longtemps leurs appareils et construisent leur propre pratique d’usage à travers divers outils de façon souple et personnalisée. Ceci rend d’ailleurs incontournable le développement des pratiques de « BYOD », Bring Your Own Device, tant l’appropriation individuelle est forte.

L’âge de l’accès, c’est bien sûr les écrans, de toutes tailles, de toutes natures. L’image est omniprésente. Toute information est appelée à être visualisée sur un écran, fixe ou mobile, partagé ou intime. La course à la performance continue d’année en année. Après la Haute Définition, c’est la 4K, à 4096 pixels,  qui s’impose. La 8K est déjà présente. L'adoption par l'industrie du standard HDR s'inscrit dans cette volonté d'accroître le réalisme des images. Les écrans LED font de la résistance face aux OLED, encore plus lumineux et économes en énergie, dont la mise au point industrielle en grande série se révèle plus complexe que prévu. Seul LG semble en maitriser la production au point d’en inonder son stand, alors que Samsung fait la promotion de son interprétation de la UHD, Ultra Haute Définition. La taille des écrans de salon ne cesse d’augmenter, et leur prix de baisser. La qualité progresse continûment sans que les industriels ne soient en mesure d’en profiter tant la compétition est intense. La télévision en 3D, apparue si prometteuse en 2011, n'a pas atteint sa cible commerciale faute de contenu et par manque de confort de vison et les constructeurs n'en parlent plus. On voit toutefois encore quelques tentative d'écrans 3D sans lunettes. Toutefois la qualité d'image procurée par la 4K donne une impression de profondeur qui rend la 3D inutile.

Les industriels japonais sont frappés par cette course en avant, Panasonic est le seul à vouloir se maintenir, le stand Sony est terriblement triste alors qu’il était un des points d’attraction des dernières années. Sharp, pourtant innovant avec son quatrième pixel, jaune, n’est plus là. Toshiba non plus.  Parmi les industriels chinois, seul Hisense semble maîtriser la technique et le design pour être une alternative aux constructeurs coréens, ses confrères Haier et Hank Kong ne sont pas encore au niveau international.

Pour une manifestation qui fut longtemps exclusivement un salon du matériel, image et son, l’enjeu est d’intéresser aux usages par définition, multiples et immatériels.

C’est pourquoi le CES tend aujourd’hui à mettre en scène les usages avec une remarquable capacité d’adaptation.

Le numérique s’infiltre dans les métiers traditionnels comme l’automobile et l’habitat, mais fait aussi naître de nouvelles activités comme les objets connectés sportifs, les drones, les imprimantes 3D, les robots. Les stands attribués à tous ces métiers ne cessent d’année en année de grandir.

La mutation  des drones

Près de cinquante stands montrent des drones, qui n’étaient présents au cours des années précédentes que de façon anecdotique. Perrot, qui en fut l’initiateur, n’est plus qu’un acteur parmi d’autres. Mais les drones se diversifient en tailles en en usages. Leur professionnalisation est impressionnante. De jouets ils sont devenus incontournables dans l’industrie de l’image pour leurs capacités de prise de vue spectaculaire et peu onéreuse. Ils sont auxiliaires de force de sécurité et de surveillance. Armés de caméras infrarouges, ils contrôlent la performance thermique des bâtiments. Ils aident enfin à l’optimisation des cultures. Le drone s’imagine même comme moyen de transport logistique ou de passager.

L’imprimante 3D devient un centre d’usinage

Les imprimantes 3D vivent la même mutation. Initialement coûteuses et lentes pour être limitées à quelques objets basiques, elles connaissent une diversification spectaculaire pour constituer un outil industriel crédible. Toutes les matières sont accessibles, y compris le métal. Et la technique additive permet de produire des objets complexes en 3 D en petites séries. Non seulement elles s’imposent pour tout ce qui est maquette et prototype, mais elles deviennent de véritables centres d’usinage permettant de gérer tout le processus de production, en scannant n’importe quel objet pour le reproduire avec précision. La vitesse d’opération augmentant, la productivité de ces machines rend crédible leur présence dans les ateliers. C’est donc une révolution industrielle qui s‘engage progressivement, l’imprimante 3D s’inscrivant dans la démarche plus large de l’optimisation industrielle 4.0.

L’automobile un objet de consommation électronique

L’automobile, qui n’était présente dans un passé récent dans le hall Nord que sous forme de kits monstrueux d’amplificateurs de son est aujourd’hui riche de nombreux stands centrés sur le savoir-faire numérique des constructeurs. Presque tous les constructeurs sont là.  De même, ils participent désormais activement aux keynotes. Après Mercedes et Ford dans les éditions précédentes, cette année ce sont Volkswagen et GM qui ont voulu démontrer leur expertise dans les véhicules connectés et autonomes. De façon plus générale, la mobilité est à l’honneur avec son corollaire numérique, la géolocalisation. Les équipementiers Valeo, Bosch, comme Here, l’ancien Navteq, sont très présents.

Capture d’écran 2016-01-19 à 23.49.15

C’est bien entendu les capteurs, radars, lidars (télédétecteur laser) qui sont à l’honneur. Ils permettent, associés aux logiciels temps réel de reconnaissance de formes et de géolocalisation fine d’analyser l’environnement du véhicule pour aider le conducteur à prendre les meilleurs décisions, avant, stade ultime de la délégation de conduite, de le faire à sa place.  Tous les constructeurs montraient leur savoir faire en la matière, notamment Hyundai, mais c’est le fournisseur historique de cartes graphiques Nvidia qui démontraient avec le plus de pédagogie son expertise.

Le monitoring du moi

Dans la grande famille, en expansion continue, des objets connectés, le « monitoring du moi » occupe une place centrale. Il ne reste plus de fonction qui échappe à la possibilité de suivre en direct ses performances ! Que ce soit l’activité  sportive, sous toutes ses formes, le poids, la tension, le rythme cardiaque, tous les paramètres font l’objet de capture et de traitement sous forme de courbes et de conseils . On peut même connaitre la composition exacte des aliments que l’on consomme et avoir un conseil alimentaire personnalisé. Les grandes marques d’équipements sportifs comme Polar ont une expérience en mesure de l’activité sportive et proposent une gamme de produits pointus. Fitbit, Withings continuent à étendre leurs gammes plus grand public. La montre connectée devient un marché généraliste de grande con sommation. Aux Etats-Unis, un foyer sur dix disposait en 2015 d’un tracker d’activité représentant un chiffre d’affaires de 1,8 milliard $.

Le confort et la sécurité du domicile

Marché ancien, naguère fractionné, analogique et propriétaire, la domotique connait grâce au numérique une nouvelle jeunesse. Tout est connecté au web et accessible par l’intermédiaire du smartphone. Au carrefour de plusieurs préoccupations, la sécurité anti-intrusion, la sécurité des personnes, le confort thermique et la maîtrise de la consommation énergétique, la domotique embarque de nouvelles fonctionnalités en créant des liens entre différentes activités. Connaissant le rythme de vie des personnes de la maison, et leurs habitudes, il est désormais possible de gérer dynamiquement la température, l’éclairage, mais aussi la qualité de l’air, les habitudes musicales, les programmes de télévision, voire même les repas grâce au réfrigérateur connecté. Tous les capteurs installés dans la maison et dans les appareils peuvent orchestrer  des scénarios de vie. L’usage de ces outils pour le maintien à domicile des personnes âgées est un facteur naturel d’équipement et de services de télésurveillance et télédiagnostic. Si l’inventivité des fournisseurs est sans limite, se posent les questions de l’interopérabilité de ces capteurs et de ces fonctions, mais aussi celle de leur installation et de leur maintenance. Qui peut gagner la bataille de la maison ? Les fournisseurs historiques d’équipements cherchent à résister aux nouveaux acteurs numériques pour devenir le tiers de confiance du domicile. Il faut souligner le travail effectué par La Poste grâce à son hub numérique pour occuper cette place convoitée d’intégrateur.

Capture d’écran 2016-01-19 à 23.48.24

Foisonnant, vibrant, le CES 2016 confirme sa place de lieu emblématique de la révolution numérique qui se déploie dans tous les métiers, sous toutes les formes, dans tous les pays. C’est un carrefour dont on ressort saturé d’images, de sons, de messages dont il faut tirer les éléments de compréhension des potentialités et des risques du tsunami numérique. Il est impératif  à partir de ces données de construire des principes d’action lucides et résolus pour en bénéficier sans en être submergé.


Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor


A la recherche d’un nouvel équilibre

 

Le monde numérique n’est pas une abstraction théorique : c’est le monde physique d’avant auquel a été ajouté une couche nouvelle, pratique, esthétique, conviviale, permettant de faire rapidement et de façon simple des tâches souvent très basiques. Même si se prendre en photos sur Instagram ou s’envoyer des messages sur WhatsApp sont des activités qui absorbent beaucoup de temps, cela ne suffit pas à construire le monde de demain, qui sera aussi matériel. Les acteurs du numérique ne s’y trompent pas. C’est bien dans le monde physique que l’économie continue de se développer. Concevoir, produire, distribuer, consommer, se déplacer sont autant de tâches que le numérique contribue à faire évoluer mais qui demeurent, pour l’essentiel, physiques. Ce n’est pas un hasard si le président Obama a clairement annoncé à l’ouverture de la COP 21 que l’avenir de l’énergie résidait dans les géants du web, et que Bill Gates lance une fondation pour financer les travaux dans ce domaine. Cette initiative « Mission Innovation / Clean Tech » vise à financer les travaux destinées à trouver des solutions bas carbone dans l’énergie. La révolution numérique ne se joue pas seulement dans le monde étroit des « producteurs  de plateformes », elle se joue quotidiennement dans tous les secteurs d’activité en instillant dans les pratiques anciennes les idées neuves permettant de faire mieux pour les personnes et pour la planète. Or le web, décentralisé, fondé sur le fait que chacun est à la fois émetteur et récepteur des réseaux interactifs s'installe dans le paysage institutionnel comme étant le modèle de ce qu'il faut faire dans toutes les activités. Reconnaitre que l'intelligence est dans le réseau et non plus seulement dans le centre est une remise en cause de la pensée fondatrice du système hiérarchique pyramidal. Par vagues, l'utopie fondatrice du web se développe dans des secteurs bien lointains de ceux qui l'ont vu naître, l'énergie par exemple. Si le coeur de la forteresse du web est bien tenu par les tycoons milliardaires de la Silicon Valley, tout le reste est à conquérir. Il reste toutefois à démontrer que les entreprises du XXe siècle sauront s'adapter suffisamment vite avant que les leaders du web ne s'emparent de leurs domaines. Or ils ont prêts à le faire. La course est engagée.

 

6965447

Centrale solaire dans le désert de Mojaves aux Etats-Unis

Disrupter les disrupteurs

Le monde du web n’est pas figé. Les positions, même dominantes, ne sont pas définitivement acquises et les changements de pratiques des utilisateurs sont rapides. Aussi les contre-attaques sont possibles en trouvant de meilleures idées de produits et de services, de chaînes de valeur, d’alliances ou d’interfaces techniques. C’est souvent dans le détail que se fera la différence. La contre-offensive des secteurs conventionnels est engagée. Il est intéressant de voir comment G7 a réagi contre Uber en améliorant son service de façon rapide sur les mêmes plans que son compétiteur : paiement par carte, voiture impeccable, chauffeur attentionné. Mais G7 est allé plus loin avec le service de desserte des aéroports Wecab qui permet, avec un prix fixe, de partager le véhicule avec une autre personne pour réduire le coût par passager, mais aussi l’encombrement et les émissions. Le groupe Accor a engagé une riposte autant contre Booking que contre Airb’nb. La SNCF ne cesse d’améliorer son service numérique en dématérialisant totalement titres de transport et cartes d’abonnements. Les banques installées sont les premières à développer les services numériques en ligne. Il ne faut pas se réjouir des coups portés contre les entreprises du CAC 40, car c'est un système global qui assure notre prospérité qui est menacé. Il faut au contraire pousser les entreprises du XXe siècle à se transformer, parfois radicalement comme le fait avec talent la Poste depuis dix ans.

Ainsi, le journal montréalais de langue française, La Presse, fondé en 1884, vénérable institution de plus de 130 ans, a inventé un nouveau support numérique qui allie un format mobile original, la qualité rédactionnelle et la richesse de l’iconographie. Séduisant les annonceurs avec ce nouveau support, la Presse +, le journal numérique est rentable ce qui va permettre dès janvier 2016 de supprimer le coûteux format papier en semaine. Comme le déclare Jean-Marc de Jonghe, vice-président numérique de la Presse, l’objectif est de fournir « quelque chose de pertinent dans la vie des gens. » La technique doit s’effacer au service du sens.

Si l’économie européenne a perdu la bataille des plate-formes, elle n’a pas perdu celle du sens et c’est là où se situe véritablement la compétition de demain. Les techniques sont fragiles, volatiles, les fortunes obtenues par les tycoons ne sont pas pérennes, d’autres viendront changer cet ordre. Mais ce qui est pertinent c’est l’usage de la technique dans la vie des gens. Et sur ce point il n’y a pas de barrière ! Les brillantes jeunes pousses françaises comme Withings et Netatmmo, Criteo et Sigfox, Blablacar et Drivy doivent continuer leur essor et trouver les relais de financement leur permettant d'atteindre la taille mondiale sans céder aux milliards de dollars que la Valley peut avancer sans problème pour les ingérer.

Libérer les initiatives

La révolution numérique n’est pas venu du sommet de la pyramide. Elle s’est développée de façon anarchique, en rupture et à partir de la base. L’histoire de l’internet et du web est une histoire continue de prise de risque par des jeunes gens irrévérencieux dont beaucoup sont aujourd’hui devenus milliardaires, mais beaucoup également ont échoué. Ce n’est pas une longue marche tranquille. L’échec est même devenu culte dans la Silicon Valley ! Et  on innove d’autant plus que l’on a rien à perdre, sans  base installée, sans usine, sans distributeur, sans procédures figées. Il faut donc encourager systématiquement la prise de risque technique et économique en oubliant le vieux principe de précaution qui impose un business plan sur trois ans. Comme la mise initiale est très souvent faible, le risque est également faible, mais il faut multiplier les pistes. Le financement collaboratif est bien adapté à l’amorçage, mais le déploiement et l’industrialisation exigent des fonds plus importants, et plus solides.  

Plus que l’argent, c’est l’esprit d’innovation qui doit guider. Essayer sans cesse, échouer, corriger, repartir, c’est la méthode de travail qui doit s’appliquer à toutes les idées, et pas seulement au monde des start-up. Le respect de la prise de risque doit être encouragé dans toutes les entreprises, et surtout à l’école et dans le secteur public. Notre vieux principe républicain d’égalité devant le service public a conduit de fait à multiplier les inégalités par l’ignorance des différences de fond. A situation inégale, traitement égal ! Seule l’expérimentation décentralisée permet de valider des hypothèses de départ et de corriger l’action, au fil du temps, par touches continues et non pas par grandes réformes centralisées au déploiement improbable. Pratiquer à grande échelle « le crédit d’intention » fondé sur la confiance, gagé sur la formation, nourri par la transparence, coûte beaucoup moins cher à la communauté que la méfiance et le contrôle a priori.

Reconnaître les innovateurs

L’innovateur est forcément déviant : c’est celui qui ose autre chose qu’appliquer la « doxa », c’est celui qui se moque, de fait, des situations installées et du pouvoir en place. « On a toujours fait comme ça » est une pensée couramment admise dans tous les cadres professionnels. Mais quand tout bouge, cette posture confortable devient une imposture maléfique. « On a jamais fait comme ça et on va essayer » doit devenir le mode normal de fonctionnement des structures.

Il est clair que cette logique se heurte non pas à la résistance individuelle des personnes, mais à celle des organisations figées dans leur fonctionnement conventionnel. Mais une organisation n’existe pas en tant que telle, elle existe à travers un ordre structuré de relations de pouvoir. Changer cet ordre, c’est donc forcément prendre le risque sinon de changer les personnes au pouvoir, au moins l’exercice du pouvoir, et c’est là où se situe l’allergie au changement. C’est la raison pour laquelle les grandes entreprises qui ont réussi ont beaucoup de peine à innover en profondeur, comme le décrivait dès 1997 Clayton Christensen dans son ouvrage « The Innovator’s Dilemma ». Les entreprises bien gérées et qui réussissent ont beaucoup de difficultés à changer ce qui a fait leur succès et qui peut provoquer leur perte.

L’innovateur « paradoxal » reconnaît les faiblesses et les risques et n’hésite pas à bousculer les tabous de la pensée unique que les entreprises pratiquent aisément. Ce n’est certainement pas à lui qu’il faut couper la tête !


Trop de web ? Trop de numérique ? Quel avenir ?

 

Le débat sur l’impact du numérique sur l’économie s’accélère et se densifie dans notre pays. Deux lois sur le numérique sont en préparation, après la parution d’une multitude de rapports, documentés et stimulants, mais restés pour l’essentiel lettre morte. Cantonnée, Il y a peu de temps encore, aux secteurs de la presse, de la musique, du voyage, la prise de conscience de la transformation profonde engendrée par le web réveille aujourd’hui l’éternel débat sur la vitesse de la transformation induite par la technique. Comme à chaque étape de l’histoire humaine, la mise en tension des structures qu’implique l’émergence d’un nouveau système socio-technique bouscule l’ordre établi, déstabilise les pouvoirs, ravive les fractures sociales, remet en cause les hiérarchies et l’équilibre des territoires. Et inquiète tous ceux qui ne comprennent pas le mouvement et craignent, souvent à raison, d’en être les victimes ! La destruction créatrice de Schumpeter est en marche. Elle est violente et rapide d’autant plus qu’elle n’obéit pas à un plan prévisible et pré-établi comme nous les aimons dans notre pays marqué par la centralisme de notre culture politique et économique.

Néanmoins, la révolution numérique, en dépit de son caractère spectaculaire, n’est, comme les révolutions techniques qui l’ont précédé, qu’une œuvre humaine. Elle n’est pas magique mais résulte de l’action conjuguée de forces maîtrisables. Il est donc possible, et même absolument indispensable, de l’analyser avec lucidité. Il faut d’abord comprendre pourquoi cette révolution, venue d’ailleurs, nous heurte particulièrement en France, avant d’esquisser les pistes d’une prise en compte active de cette dynamique sur notre territoire.

  1. La révolution numérique est rapide et violente

Le tempo de cette transformation est imposé par les leaders nord-américains.

La santé insolente que manifeste les leaders du GAFA (Google, Apple, Facebook, Amazon) est une provocation pour l’économie européenne et l’aveu d’un cruel échec pour ce respectable terroir qui a dominé pendant plus de deux siècles l’économie mondiale par son talent et sa capacité d’innovation. En 2000, l’Europe s’était donné comme objectif pour 2010 de devenir leader dans la science et la technique ! En effet, il n’y a plus, après l’échec de Nokia, aucun point lourd dans les techniques numériques en Europe ! Parmi les entreprises du CAC 40, aucune n’appartient à ce courant des champions du web. Et on peut admettre que seuls Orange et Cap Gemini, Alcatel Lucent étant absorbé par Nokia, portent les couleurs de cette nouvelle vague d’informatisation, avec de pâles valeurs de capitalisation : 43 et 14 milliards €. Et cette domination n’est pas prête de se ralentir car les licornes, entreprises ayant dépassé une capitalisation boursière d’un milliard de dollars, se développent à toute vitesse aux Etats-Unis. Plus d’une centaine de ces entreprises sont ainsi apparues depuis 2014. Si toutes ne réussiront pas, il est clair que certaines viendront grossir le rang de leurs aînées ou seront absorbées.

Capture d’écran 2015-11-30 à 12.46.54

Les jeux sont faits : la Silicon Valley est devenue le centre du monde économique du XXIe siècle. La capitalisation boursière atteint, en novembre 2015, des niveaux jamais atteints : 651 milliard $ pour Apple, 500 milliards $ pour Google, plus de 300 milliards $ pour Facebook et Amazon. Seul, Apple vaut autant que les dix premières entreprises du CAC 40. Avec les profits de son année fiscale 2014-2015, soit 53,4 milliards $, Apple a battu le record du plus haut niveau de profits jamais atteint en une année dans l’histoire économique. Ceci représente 79% des bénéfices des entreprises du CAC 40 pour l’année 2014!

Dans le chaudron neuronal californien, où abondent les talents et les capitaux, s’invente, dans le style décontracté inimitable des tycoons californiens, l’économie de demain. Et rien n’est trop beau ni laissé au hasard : ni le nouveau siège d’Apple, ni la nouvelle ville de Facebook, ni l’appétit omnivore de Google pour le futur. L’ambition et la certitude d’avoir raison animent cette nouvelle génération d’entrepreneurs qui bousculent tous les establishments en imposant leurs codes. Leur vocation est de développer leur influence dans tous les secteurs, sans frein à leur appétit, sans précaution pour laisser vivre en dehors de leur écosystème les audacieux qui refusent d’y entrer. Le gagnant emporte toute la mise sans rien laisser aux concurrents. Cette logique d’universalité doit servir le bien de l’humanité car les tycoons ne sont pas avares de déclarations généreuses. Le « moon shot » est là et prend le pouvoir politique comme l’a démontré le rejet d’une proposition anti-Airbnb à San Francisco. Le moonshot, par similitude avec le programme Apollo, consiste à adopter des solutions radicales tant sur le plan technique qu'organisationnel, sans précaution majeure ni pour la prise de risque ni pour la rentabilité à court terme. Les pratiques fiscales des barons de la nouvelle économie sont opaques et ni dans les pays où ils opèrent ni même aux Etats-Unis, ces géants du web ne figurent pas parmi les entreprises citoyennes exemplaires. Mais est-ce vraiment différent des Carnegie et Rockfeller en leur temps, sinon que leur terrain d’action est mondial et qu’ils pénètrent beaucoup plus profondément les consciences que pouvaient le faire les rois de l’acier, du chemin de fer et du pétrole ? La logique d’un entrepreneur est d’exploiter, sans état d’âme, tout le terrain que lui laissent ses concurrents… et le législateur.

Les conséquences sociales sont considérables

La disruption – mot clef de ce et début de XXIe siècle – est un tsunami qui s’attaque à tous les secteurs économiques. Bien sûr la construction des fondations de l’internet a nécessites près de trois décennies pour créer, progressivement, ce réseau mondial universel. Mais l’accélération a été déclenchée par l‘irruption d’un nouvel objet. Le premier smartphone. L’iPhone, doté de fonctionnalités qui faisaient sourire en 2007 comme la géolocalisation, ou un appareil photo, a mis entre toutes les mains un puissant ordinateur, mobile et connecté au réseau internet. Passer de quarante années d’informatique « assise », coûteuse, lourde, complexe à une informatique « debout », ergonomique, mobile, accessible et géolocalisée, a créé une brèche spatio-temporelle dans laquelle se sont engouffrés développeurs et entrepreneurs pour inventer un monde poussé par la recherche de solutions utiles et simples à la plupart des problèmes de la vie quotidienne. Sans intermédiaires, grâce à l’idée géniale des magasins d’applications gratuites ou peu onéreuses, ils distillent l’élixir de la transformation numérique de la société directement vers les utilisateurs qui s’en emparent avec délectation, parce que c’est simple, utile et… pas cher ! Ce phénomène défie les lois de l'économie car la plupart des enteprises porteuses de ces nouveaux services ne gagnent pas d'argent en dépit d'une capitalisation boursière pharaonique. Néanmoins elles bousculent les secteurs établis, les forcent à s'adapter ou à disparaître. 

Citons quelques exemples. AirBnB, né en 2008, s’est développé ainsi de façon virale, sans autorisation, sans prévenir. Et sans que personne n’ait vraiment vu le phénomène se développer, sauf les pourvoyeurs d’espaces – promus « hôtes »- et leurs clients, ravis d’une telle aubaine, AirBnB capte des millions d’utilisateurs et, en pertes, génère un revenu de moins d'un milliard $ pour une capitalisation boursière de 24 milliards $. En 2020, l'entreprise devrait enfin être rentable ! Or tout peut changer dans ce secteur très ouvert...

Pour étendre son spectre d’activités, Google investit des milliards de dollars. Google, qui est désormais fractionné en plusieurs entités légales, sous une nouvelle holding, Alphabet, a nommé le pape de l’intelligence artificielle à la tête de son département de recherche, Ray Kurtweil, et fait de nombreuses acquisitions dans le domaine des robots, comme Boston Dynamics, spécialisé dans les robots militaires. la boulimie de Google est incommensurable mais son alimentation en cash est permise par une activité tout ce qu'il y a de plus classique, la publicité. 

Les structures politiques sont ébranlées

Pour la première fois dans l’histoire, l’innovation ne connait pas de frontière et se déplace instantanément, sans délai, entre les pays, supprimant l’avantage comparatif que donnait aux pays développés leur avance technique. Le développement des télécommunications bouleverse la séquence historique de développement. La totalité des habitants de la planète accède maintenant au téléphone mobile, et bientôt, grâce aux smartphones à bas prix qui se vendent par centaines de millions, bénéficiera de tous les services du web. Les gouvernements ne peuvent que constater que la révolution numérique se fait sans eux, sans leur autorisation et hors de leur contrôle.. Si le Parlement européen s’émeut, et vote en novembre 2014 une résolution pour démanteler Google, l'entreprise ne se plie pas pour autant aux exigences européennes.

Peu de dirigeants ont encore intégré le fait numérique dans leurs pratiques

Si les Français adorent les technologies numériques pour leur usage personnel, les pratiques en entreprise et dans la vie publique sont en retrait par rapport à cet engouement individuel, même si, au fil du temps, on observe des changements significatifs de comportement. Les images du bureau de François Hollande sans ordinateur et noyé sous les parapheurs ont choqué. Il n’est pas le seul à parler du numérique, pour les autres. Les dirigeants français ont dans l’ensemble raté la seconde vague de la révolution informatique, celle des années quatre vingt-dix avec les ERP. Ils trouvent aujourd’hui qu’avoir une stratégie « digitale » est beaucoup plus chic que de faire de l’informatique, activité reléguée au rang définitif et peu enviable de « centre de coûts ». Si utiliser un mot anglais permet d’avancer la prise de conscience, tant mieux. Mais il ne faudrait pas que ce soit un leurre de même nature que l’e-commerce au début des années 2000. Car si techniquement le numérique ne se dissocie pas de l’informatique, culturellement il n’en est rien. Là où l’informatique permettait d’accroître la productivité de l’existant, le numérique consiste à remettre en cause, ou simplement ignorer, cet existant pour inventer tout autre chose.

Bien peu de dirigeants acceptent l’idée que la révolution numérique est avant tout une révolution managériale qui s’appuie sur la compétence de la totalité des collaborateurs avec un minimum de technostructure et d’encadrement. La révolution numérique, c’est une large décentralisation avec des équipes petites, autonomes connectées en réseau. C’est la réactivité privilégiée par rapport au plan et au budget venus d’en haut. La reconnaissance ne se fait pas par la hiérarchie mais par les pairs. C’est une incitation permanente à l’initiative et au non-conformisme. On ne tue pas une idée, on l’améliore ! C’est une remise en cause radicale du système hiérarchique pyramidal, ses rituels et ses ordres.

La révolution numérique bouscule emplois et compétences

La désintermédiation, qui a désormais un nom, « ubérisation » est un processus simple et efficace. C’est pour cela qu’elle s’impose dans tous els secteurs. Elle consiste à supprimer tous les intermédiaires inutiles d’un processus pour délivrer un résultat, rapidement, efficacement et pour le moins cher possible. Le réengineering des processus, activité phare des années quatre vingt-dix se fait désormais de façon beaucoup plus radicale en mettant en place un outil informatique, une plateforme d'intermédiation, qui met en relation directe émetteur et récepteur La désintermédiation est aussi connexe à la dématérialisation. Comme le support physique n’est plus utile à l’accomplissement de la fonction, la production de l’information suffit. Et elle est immatérielle, peu coûteuse et se prête à tous les traitements qui assurent la traçabilité et le contrôle du dénouement physique et économique de la transaction.

Avec la suppression de fonction physique de production, de diffusion et de contrôle, ce sont des centaines de milliers d’emplois industriels et tertiaires qui sont d’ores et déjà supprimés ou encore seulement menacés. Les exemples sont multiples dans l'édition musicale, la presse, la photographie.. .Prenons l'exemple d’un produit récent qui fut innovant, le Compact Disc, diffusé à partir de 1982. Editer un CD à partir d’un fichier numérique, le presser, l’emballer, le transporter, le distribuer dans des points de vente représentait un grand nombre de tâches matérielles et l’utilisation de ressources physiques - papier, carton, plastique, stockage, véhicules, manutention - que la diffusion en un clic du même fichier sur un serveur supprime définitivement. Aujourd'hui les magasins de disques ont quasiment disparu, à l'instar du célèbre HMV à Londres, plus grand magasin de disque du monde, ouvert en 196 et fermé en 2014. Il en est ainsi dans les guichets, les points de vente, les caisses de supermarché, les bureaux… Il est bien naturel que les emplois directement associés à ces tâches physiques disparaissent également. Mais la logistique impose encore beaucoup de main-d’œuvre et Amazon propose un nouveau type de contrat de travail, Flex, pour ses livreurs occasionnels aux Etats-Unis. Il s’agit d’utiliser sa propre voiture, sans couverture sociale, pour livrer quand on le veut dans un périmètre restreint pour 18 à 25 $ de l’heure. Les initiatives de ce type se multiplient dans tous les métiers, sapant sans bruit les bases historiques du salariat.

Bruissante, tumultueuse, sans égards pour le passé, la révolution numérique apporte à tous et bouscule tout le monde. Elle n'est nullement morale ou vertueuse par elle-même, s'inscrivant dans une longue histoire de l'innovation, mais elle peut le devenir si elle sert l'intérêt général.

A suivre ...

  1. A la recherche d’un nouvel équilibre