L'économie collaborative est-elle fondée sur... le partage ?

La technologie avance, les grands acteurs se mettent en place et exploitent habilement leurs positions aux "postes de péage" de la société numérique. Faut-il craindre la construction de nouveaux monopole qui facilitant l'économie collaborative seraient les premiers à en tirer profit sans limite ? Le débat n'est pas simple alors que l'on s'interroge sur les emplois du futur et sur les mécanismes de financement des charges collectives mutualisées : fonctionnement de services publics, santé, prévoyance. Il faut inventer cette économie du XXIe siècle qui ne doit pas inquiéter mais faire réfléchir et agir sur des bases nouvelles. C'est le sens des travaux de l'Institut de l'Iconomie dont cet article est une production.

 

Article publié dans Le Monde du 4 février avec mes amis de l'Institut de l'Iconomie

 


Economie du partage ou hypercapitalisme ?
Les plates-formes numériques ne seront durables que si la rente qu'en tirent leurs propriétaires est redistribuée à leurs utilisateurs


Automatisation, robotisation, ubérisation : la révolution numérique porte la menace d'un chômage de masse. Il ne faudrait pas s'en plaindre, car la fin du travail ouvrirait, selon l'influent essayiste américain Jeremy Rifkin, une période d'activités bénévoles intenses. A l'image de Wikipédia, la connaissance, les images, les objets imprimables en 3D ne coûteront plus rien. L'énergie produite par chacun, le partage des objets et des services comme Vélib' ou Blablacar feront chuter les dépenses. L'économie du partage s'imposera ainsi jusqu'à éclipser le capitalisme et la nécessité de travailler.

Cette vision est séduisante, mais c'est un leurre. Cette nouvelle route du " communisme " conduit en réalité à l'hypercapitalisme. L'économie collaborative moissonne les richesses au profit d'une minorité, mais sans les redistribuer. Les contributeurs s'en indignent dès qu'ils en prennent conscience, ce qu'illustre le cas du Huffington Post aux Etats-Unis. Ce " Wikipédia du journalisme " faisait intervenir des milliers de chroniqueurs bénévoles, qui se sont révoltés le jour où le journal a été vendu pour 315 millions de dollars (plus de 288 millions d'euros) à AOL sans qu'ils reçoivent leur part.

Des milliers de crowdfunders (adhérant au financement participatif) se sont scandalisés quand Oculus, le développeur d'un système de réalité virtuelle auquel ils avaient apporté leur contribution,s'est vendu pour 2 milliards de dollars à Facebook. De plus, les grandes plates-formes de l'économie collaborative ne payent pas d'impôts. Sur ce point, cette économie ressemble à l'économie financiarisée, dans laquelle les plates-formes de trading à haute fréquence prélèvent leur dîme sans contrepartie. Dès lors, le cerveau, matière première du XXIe siècle, s'expose à la même surexploitation que les matières premières naturelles du XXe siècle. Dans sa forme actuelle, l'économie collaborative n'est pas durable.

Il faut donc introduire un nouveau mécanisme de partage des richesses. L'échec de la taxe Tobin nous a déjà montré que ce ne sera pas par l'impôt. Il vaut mieux s'inspirer des industries créatives, comme celles des jeux vidéo ou du cinéma, dont la production est monétisée par la propriété intellectuelle, ce que préconisait Maurice Lévy, le PDG de Publicis, dès 2006.

Innovations d'usage
Ce mécanisme doit intégrer une double détente, pour que le bénévolat initial puisse être rétribué équitablement dans le cas de sa monétisation indirecte, ce que recommande aujourd'hui le Conseil national du numérique. Il doit enfin s'adosser à des fonds souverains dont les actifs sont les brevets et les marques, sur le modèle déjà expérimenté de France Brevets, pour collecter des montants de redevances au lieu d'impôts.

Il faut aussi faciliter l'innovation d'usage, seule créatrice d'emplois, comme l'illustre la banque assurance. L'emploi de ce secteur était menacé par l'informatisation : le rapport Nora-Minc de 1978 anticipait 30 % de réduction d'effectifs à cause de l'automatisation du traitement des chèques, des distributeurs de billets, des relevés de compte, des virements, des prélèvements mensuels, de la comptabilité, etc. Mais, dans le même temps, les innovations d'usage apportées par l'informatique, comme la carte à puce ou la gestion personnalisée de portefeuilles de titres, ont plus que compensé ces réductions. Au final, les effectifs du secteur ont augmenté de 25 %. Aujourd'hui, le premier créateur d'emplois en France est de fait la société O2, dont l'innovation permet aux femmes de ménage de disposer de toute leur organisation dans leur smartphone.

La vision dominante de la révolution numérique est une menace. Quelques ajustements de partage des richesses et de doctrine économique permettraient d'en canaliser la puissance pour la rendre créatrice de nouveaux usages et de nouveaux emplois.

par Vincent Lorphelin, Jean-Pierre Corniou et Christian Saint-Etienne


Le numérique est aussi une révolution managériale

http://www.labourseetlavie.com/videos//debat-economique/jean-pierre-corniou-directeur-general-adjoint-sia-partners-un-des-enjeux-c-est-aussi-de-changer-les-methodes-manageriales,2247.html#.Vq87HYnChz8.twitter

 

 

Une vue historique

https://www.youtube.com/watch?v=dmTOMxwil4g&list=PLNAnUl_bnDUfp7gGdPRyLchNQU3T_GOZV&index=7


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Décryptages du CES, suite...

On peut faire une première lecture du CES. Elle est déjà stimulante ! Elle consiste à lire en direct le flot des innovations techniques servi par la forme brillante que savent déployer les entreprises américaines. C'est le temps de l’enthousiasme. Il y a un second niveau de lecture, qui n'est plus dans le "quoi" de la révolution numérique mais dans le "pourquoi". A chaque étape de la remise en cause du système socio-technique, les humains ont cherché à comprendre le pourquoi de ce changement qui allait bouleverser leur vie, souvent d'ailleurs de façon tacite. Evidemment c'est une phase de questionnement et de doute. Le marketing du strass et des paillettes n'a plus cours : il faut trier ce qui est pertinent pour la vie des humains et qui va rester.  C'est le temps de la lucidité...

Le CES constitue une chambre de résonance exceptionnelle où se mêlent les histoires  des produits,  des entreprises et des entrepreneurs qui produisent l’économie numérique. Les key notes  en sont les amplificateurs. Le talent de communicateur des dirigeants invités est servi par des moyens techniques qui assurent une orchestration parfaite de l’histoire qu’ils ont choisi de raconter. Le casting de ces key notes est aussi révélateur du poids accordé par la CTA – Consumer Technology Association– à chaque entreprise et à chaque tendance structurante de la révolution numérique. La puissante CEA qui organise le CES, sous la férule de son dynamique président, Gary Schapiro,  a changé de nom cette année en abandonnant l’appellation historique de Consumer Electronics Association pour remplacer Electronics par Technology, ce qui illustre parfaitement le changement de positionnement du CES. La CTA demande d’ailleurs de ne plus décliner l’acronyme, l’évènement CES dépassant désormais largement les frontières du monde de la consommation.

Ces symboles savamment distillés traduisent bien l’évolution du CES. Naguère grand salon du son et de l’image, c’est aujourd’hui plus qu’un vaste marché. C’est un carrefour de rencontres, un lieu où s’expriment les tendances mondiales du marché. Derrière la force de ces démonstrations et l’habilité du spectacle, toujours réussi, il faut tenter de décrypter les messages porteurs de sens pour la grande histoire de la construction numérique dont nous sommes les témoins en temps réel. Car le CES provoque aussi un effet de halo qui projette des tendances sans lendemain. La montée et la chute de la télévision en 3D en sont un exemple récent. Au-delà des spectateurs immédiats, c’est le marché et les investisseurs qui sont les destinataires de ces messages. Les 3500 journalistes présents assurent une couverture médiatique unique à l’évènement. Emmanuel Macron à Las Vegas, surtout quand il intervient dans une key note, devient une star mondiale. La Poste présente au CES, c’est un message très fort qui a un retentissement majeur en France. Le détour par Las Vegas est un amplificateur de renommée, et un accélérateur d’affaires, surtout quand on y est couronné par un Award.

L’édition 2016 a vu apparaître plusieurs nouveaux venus - Reed Hastings, CEO de Netflix, Herbert Diess, CEO de Volkswagen, Mary Barra, CEO de General Motors, Ginni Rometty, CEO d’IBM, Robert Kyncl, Chief Business Officer de YouTube – relayer les habitués.

Si Diess était plus dans la contrition que dans la démonstration, Brian Krzanich CEO d’Intel est intervenu pour une seconde présentation  très « hype » pour démontrer qu’Intel est tout à fait  engagé dans l’internet des objets. IBM qu’on ne voit jamais est obligé de démontrer que son choix stratégique d’abandonner le matériel au profit des logiciels et des services de l’intelligence artificielle est justifié, alors que le chiffre d’affaires ne cesse de régresser. Mary Barra, qui remplaçait Ford un grand habitué du CES, a fait une démonstration sans révélation de l’intérêt de GM pour le véhicule électrique en présentant son dernier modèle.

La thématique majeure de tous ces acteurs est de montrer que le monde numérique constitue un ensemble homogène où tout – personnes et objets – est connecté. Cette omni-connexion n’a qu’un but : améliorer le sort de l’humanité. Cette affirmation, constante, ne souffre d’aucune limitation. Gary Shapiro admet bien toutefois que les « bad guys » peuvent aussi tirer profit de cet univers connecté. Mais cela ne doit en rien ralentir l’enthousiasme – « amazing » reste le maître mot -  et surtout justifier un interventionnisme gouvernemental.

Bien entendu les messages commerciaux ne sont jamais loin. Il faut convaincre les consommateurs et les investisseurs de la pertinence de la vision stratégique. Pour un Français, l’excès de publicité peut l’emporter sur la pertinence stratégique du message. Ce point a été notamment évoqué pour Netflix, qui n’a pas hésité à en rajouter pour montrer qu’Hollywood, désormais, c’était eux, en convoquant force acteurs et bandes annonces, ou pour Intel dont les invités multiples n’ont pas été avares de louanges pour expliquer que sans Intel, la musique, les drones, la mode et même la banque ne seraient pas les mêmes. La palme de la sobriété a été décernée à Samsung qui distillant le même message – nous sommes la plate-forme de référence – l’a fait avec méthode et pédagogie.

Trois idées fortes et partagées émergent de ces discours et de ces images:

  • Plus personne ne réussit seul. Le temps est à la coopération.
  • Laisser parler clients et partenaires, ils sont plus convaincants que vous pour expliquer que la coopération est indispensable
  • La disruption c’est vraiment mettre le client au cœur de son attention, et donc du business. Pour parler au client, il ne faut pas hésiter à se défaire de toute intermédiation. Il faut toujours se positionner au plus près du client de peur que quelqu’un d’autre le fasse.

L’éloquente démonstration de Netflix, au-delà du discours promotionnel, était centrée sur le caractère vital de la maîtrise technique pour être capable de servir le client.

Frank_Underwood_-_House_of_Cards

Oeuvre phare qui a lancé vraiment Netflix

Reed Hastings a expliqué comment, d’entreprise de vente par correspondance, mettant des DVD dans des enveloppes, Netflix est devenu producteur et diffuseur de contenus dans le monde entier. C’est par la maîtrise du video streaming, sur tous les réseaux, tous les formats d’écran qui a permis à la plate-forme de rentrer directement chez le client, et d’en connaitre les moindres réactions face au contenu diffusé. C’est cette connaissance intime, millimétrée, des clients qui permet à Netflix de devenir producteur de contenus à succès. Dès lors Netflix peut s’affranchir des autres producteurs de contenus en maîtrisant parfaitement toute la chaine de valeur. La leçon s’applique à tout acteur qui loin en amont du client dépend de l’improbable bonne volonté des intermédiaires pour améliorer sa performance. Il y a ainsi une forte aspiration vers l’aval des producteurs qui ne peuvent plus camper sur leur positionnement B2B historique.

Mais ce mouvement vital n’est pas à la portée de chacun. La culture interne, le poids des processus, la résistance des intermédiaires, l’image institutionnelle empêchent bien souvent de sortir du statu quo, quand ce n’est pas par simple inertie. Malgré ses efforts massifs, Intel a beaucoup de peine à sortir de l’image du couple Wintel et à apparaître comme un acteur majeur du monde de la mobilité contrairement à Qualcomm. Faute de succès rapide dans cette mutation, il tente de devenir incontournable dans le monde de l’internet des objets. Tous les constructeurs automobiles cherchent avec la voiture connectée à se rapprocher du client final en en connaissant les comportements. Mais c’est un mouvement tardif, qui peine à renforcer l’intimité client en hors de quelques constructeurs premium au moment où les clients se passent des constructeurs pour valoriser leurs véhicules par l’autopartage et le co-voiturage.

La leçon du CES 2016 est que le monde de l’internet et du web n’a pas fini de déstabiliser les acteurs en place au profit de nouveaux venus qui en ont compris, dans leur ADN, tous les éléments. L’internet des objets, nouvelle frontière, ne va pas simplifier la tâche des acteurs historiques. Dans tous les domaines, notamment le transport, l’énergie, la santé, la capture de l’information dans les objets en réseau va donner aux acteurs de l’information numérique une place majeure. Curieusement le peu de présence au CES de l’industrie bancaire tend à dissimuler une conséquence majeure de l’internet des objets : la prochaine disparition du cash, déjà largement engagée en Europe du Nord, et sa transformation par des échanges électroniques qui vont donner aux plate-formes de l’internet un rôle prééminent.

Le CES 2016 ne fait que marquer une étape dans la grande restructuration en cours de l’économie mondiale qui, pour l’instant, est dominée par les produits et la culture des Etats-Unis. L’information s’impose comme matière première du service  et de la création de valeur. Elle s’appuie sur les réseaux - internet et les réseaux de l’internet des objets -, le traitement des données, la restitution en temps réel et contextuelle des informations utiles, l’automatisation des processus enrichie par l’intelligence artificielle. Ceux qui comprennent les enjeux de cette nouvelle économie en deviendront, pour un temps, les leaders.

Chacun se bat pour se situer au plus près du client final au carrefour de la création de valeur entre objets, réseaux et service. C’est une quête risquée et passionnante dont l’issue ne peut être qu’incertaine. Derrière les déclarations d’autosatisfaction, savamment distillées, tous les acteurs de l’économie numérique ne peuvent être que lucides : tout peut changer vite. Et seule la vitesse d’action offre le moyen de s’adapter.


Le CES, un irremplaçable observatoire de la révolution numérique

 

S’il fallait résumer l’esprit de l’opus 2016 du CES, il faudrait insister sur le fait que l’innovation ne réside pas dans la pertinence d’une idée, mais dans la force de son déploiement. Bien entendu le CES 2016 fourmille d’idées nouvelles et les 250000 m2 des stands de  cette exposition hétéroclite et chatoyante recèlent des pépites qui deviendront certainement dans cinq ans d’évidents grands succès. Il suffit, pour se convaincre de la vitalité de la création numérique, d’arpenter les allées du Sands où sont installés les start-ups de l’Eureka Park ou exposés les Awards de l’année, distinction fort prisée à l’impact commercial convoité. Les idées foisonnent, la conviction des créateurs est contagieuse. Et la forte présence des stands de la French Tech rassure sur la capacité de notre pays à  innover, d’autant plus qu’on y rencontre de fortes délégations de dirigeants français, emmenés par Emmanuel Macron ou Pierre Gattaz.

375ece3498429295cb54f95f9cd0fe3b297af8c3

Mais la force qui émane du CES est la démonstration vivante du passage de l’idée au déploiement massif. D’année en année, la reconfiguration dynamique des espaces du CES, partagé désormais entre l’historique LVCC, Las Vegas Convention Center, et le Sands, dont il a chassé le salon de l’érotisme, montre bien, symboliquement,  la nature de la révolution numérique. C’est dans la vitesse et la profondeur de la propagation des idées neuves que se jouent les transformations. C’est dans l’adaptation permanente des structures, des comportements, des pratiques sociales que la métabolisation des percées techniques se transforme en innovation sociétale. Le CES, avec la souplesse d’adaptation de ses structures physiques, de ses programmes de conférences, le choix de ses conférenciers est la démonstration vivante et symbolique de la révolution numérique.

S’il a fallu soixante ans pour électrifier la France, il n’a fallu que huit ans pour que le concept imaginé par Steve Jobs d’un ordinateur mobile, pouvant téléphoner, léger et autonome, couplé à un magasin d’applications, séduise la totalité de la planète. C’est parce que la simplicité de ce modèle a convaincu les utilisateurs d’y adhérer sans réserve qu’aujourd’hui des milliards de smartphones, de tous prix, peuvent accéder à des millions d’applications, gratuites ou très peu couteuses, couvrant à peu-près toutes les situations, tous les besoins, tous les désirs. Le smartphone - dont on ne peut plus vraiment dire qu’il est un « téléphone », même intelligent, tant la partie de communication vocale s’est marginalisée pour ne représenter plus que 15% des usages - est devenu la porte d’entrée incontournable de toute application numérique.  Il s’en est vendu 1,4 milliard en 2015. C’est cette universalité, garantie par une standardisation des interfaces et l’interopérabilité des techniques, qui confère sa pertinence au smartphone, couplé à un foisonnement d’applications.

C’est aussi parce que l’industrie est passée d’un modèle d’intégration verticale, qui était la force de l’informatique des années soixante-dix à quatre-vingt-dix avec les exemples d’IBM ou de DEC, à un modèle  de « monopoles de couches », unifié par les techniques de l’internet, que l’on peut disposer d’une grande souplesse dans les solutions et dans les usages. Seul Apple, qui a toujours ignoré le CES,  apporte aujourd’hui le contre-exemple, brillant, d’un industriel qui réussit à maitriser l’ensemble de la chaine de valeur, des matériels au système d’exploitation et aux logiciels. Cette stratégie solitaire est payante car même dans le segment en déclin des PC, il est le seul à progresser.

Le CES illustre bien la nouvelle structure de l’industrie. L’universalité de l’accès renvoie au rang de commodités les outils – PC, tablettes, hybrides, smartphones – qui ne sont plus les vedettes du CES tant la profusion de modèles et leurs capacités analogues ne constituent plus un facteur de choix essentiel. Alors que mondialement le marché des PC est en décroissance continue (-10% encore en 2015) , les nouvelles générations de smartphones sont jugées peu innovantes et ne se jugent que par la taille de leurs écrans dans un marché où les positions des constructeurs sont figées, les clients démontrant une grande fidélité à leur marque. Le marché des smartphones pourrait atteindre rapidement la saturation. Le marché des tablettes n’a pas pris le relais attendu, mais les hybrides – tablettes avec clavier aux performances d’un PC – semblent profiter de l’atonie des marchés des produits matures pour émerger.  Les clients sont devenus pragmatiques. Ils conservent plus longtemps leurs appareils et construisent leur propre pratique d’usage à travers divers outils de façon souple et personnalisée. Ceci rend d’ailleurs incontournable le développement des pratiques de « BYOD », Bring Your Own Device, tant l’appropriation individuelle est forte.

L’âge de l’accès, c’est bien sûr les écrans, de toutes tailles, de toutes natures. L’image est omniprésente. Toute information est appelée à être visualisée sur un écran, fixe ou mobile, partagé ou intime. La course à la performance continue d’année en année. Après la Haute Définition, c’est la 4K, à 4096 pixels,  qui s’impose. La 8K est déjà présente. L'adoption par l'industrie du standard HDR s'inscrit dans cette volonté d'accroître le réalisme des images. Les écrans LED font de la résistance face aux OLED, encore plus lumineux et économes en énergie, dont la mise au point industrielle en grande série se révèle plus complexe que prévu. Seul LG semble en maitriser la production au point d’en inonder son stand, alors que Samsung fait la promotion de son interprétation de la UHD, Ultra Haute Définition. La taille des écrans de salon ne cesse d’augmenter, et leur prix de baisser. La qualité progresse continûment sans que les industriels ne soient en mesure d’en profiter tant la compétition est intense. La télévision en 3D, apparue si prometteuse en 2011, n'a pas atteint sa cible commerciale faute de contenu et par manque de confort de vison et les constructeurs n'en parlent plus. On voit toutefois encore quelques tentative d'écrans 3D sans lunettes. Toutefois la qualité d'image procurée par la 4K donne une impression de profondeur qui rend la 3D inutile.

Les industriels japonais sont frappés par cette course en avant, Panasonic est le seul à vouloir se maintenir, le stand Sony est terriblement triste alors qu’il était un des points d’attraction des dernières années. Sharp, pourtant innovant avec son quatrième pixel, jaune, n’est plus là. Toshiba non plus.  Parmi les industriels chinois, seul Hisense semble maîtriser la technique et le design pour être une alternative aux constructeurs coréens, ses confrères Haier et Hank Kong ne sont pas encore au niveau international.

Pour une manifestation qui fut longtemps exclusivement un salon du matériel, image et son, l’enjeu est d’intéresser aux usages par définition, multiples et immatériels.

C’est pourquoi le CES tend aujourd’hui à mettre en scène les usages avec une remarquable capacité d’adaptation.

Le numérique s’infiltre dans les métiers traditionnels comme l’automobile et l’habitat, mais fait aussi naître de nouvelles activités comme les objets connectés sportifs, les drones, les imprimantes 3D, les robots. Les stands attribués à tous ces métiers ne cessent d’année en année de grandir.

La mutation  des drones

Près de cinquante stands montrent des drones, qui n’étaient présents au cours des années précédentes que de façon anecdotique. Perrot, qui en fut l’initiateur, n’est plus qu’un acteur parmi d’autres. Mais les drones se diversifient en tailles en en usages. Leur professionnalisation est impressionnante. De jouets ils sont devenus incontournables dans l’industrie de l’image pour leurs capacités de prise de vue spectaculaire et peu onéreuse. Ils sont auxiliaires de force de sécurité et de surveillance. Armés de caméras infrarouges, ils contrôlent la performance thermique des bâtiments. Ils aident enfin à l’optimisation des cultures. Le drone s’imagine même comme moyen de transport logistique ou de passager.

L’imprimante 3D devient un centre d’usinage

Les imprimantes 3D vivent la même mutation. Initialement coûteuses et lentes pour être limitées à quelques objets basiques, elles connaissent une diversification spectaculaire pour constituer un outil industriel crédible. Toutes les matières sont accessibles, y compris le métal. Et la technique additive permet de produire des objets complexes en 3 D en petites séries. Non seulement elles s’imposent pour tout ce qui est maquette et prototype, mais elles deviennent de véritables centres d’usinage permettant de gérer tout le processus de production, en scannant n’importe quel objet pour le reproduire avec précision. La vitesse d’opération augmentant, la productivité de ces machines rend crédible leur présence dans les ateliers. C’est donc une révolution industrielle qui s‘engage progressivement, l’imprimante 3D s’inscrivant dans la démarche plus large de l’optimisation industrielle 4.0.

L’automobile un objet de consommation électronique

L’automobile, qui n’était présente dans un passé récent dans le hall Nord que sous forme de kits monstrueux d’amplificateurs de son est aujourd’hui riche de nombreux stands centrés sur le savoir-faire numérique des constructeurs. Presque tous les constructeurs sont là.  De même, ils participent désormais activement aux keynotes. Après Mercedes et Ford dans les éditions précédentes, cette année ce sont Volkswagen et GM qui ont voulu démontrer leur expertise dans les véhicules connectés et autonomes. De façon plus générale, la mobilité est à l’honneur avec son corollaire numérique, la géolocalisation. Les équipementiers Valeo, Bosch, comme Here, l’ancien Navteq, sont très présents.

Capture d’écran 2016-01-19 à 23.49.15

C’est bien entendu les capteurs, radars, lidars (télédétecteur laser) qui sont à l’honneur. Ils permettent, associés aux logiciels temps réel de reconnaissance de formes et de géolocalisation fine d’analyser l’environnement du véhicule pour aider le conducteur à prendre les meilleurs décisions, avant, stade ultime de la délégation de conduite, de le faire à sa place.  Tous les constructeurs montraient leur savoir faire en la matière, notamment Hyundai, mais c’est le fournisseur historique de cartes graphiques Nvidia qui démontraient avec le plus de pédagogie son expertise.

Le monitoring du moi

Dans la grande famille, en expansion continue, des objets connectés, le « monitoring du moi » occupe une place centrale. Il ne reste plus de fonction qui échappe à la possibilité de suivre en direct ses performances ! Que ce soit l’activité  sportive, sous toutes ses formes, le poids, la tension, le rythme cardiaque, tous les paramètres font l’objet de capture et de traitement sous forme de courbes et de conseils . On peut même connaitre la composition exacte des aliments que l’on consomme et avoir un conseil alimentaire personnalisé. Les grandes marques d’équipements sportifs comme Polar ont une expérience en mesure de l’activité sportive et proposent une gamme de produits pointus. Fitbit, Withings continuent à étendre leurs gammes plus grand public. La montre connectée devient un marché généraliste de grande con sommation. Aux Etats-Unis, un foyer sur dix disposait en 2015 d’un tracker d’activité représentant un chiffre d’affaires de 1,8 milliard $.

Le confort et la sécurité du domicile

Marché ancien, naguère fractionné, analogique et propriétaire, la domotique connait grâce au numérique une nouvelle jeunesse. Tout est connecté au web et accessible par l’intermédiaire du smartphone. Au carrefour de plusieurs préoccupations, la sécurité anti-intrusion, la sécurité des personnes, le confort thermique et la maîtrise de la consommation énergétique, la domotique embarque de nouvelles fonctionnalités en créant des liens entre différentes activités. Connaissant le rythme de vie des personnes de la maison, et leurs habitudes, il est désormais possible de gérer dynamiquement la température, l’éclairage, mais aussi la qualité de l’air, les habitudes musicales, les programmes de télévision, voire même les repas grâce au réfrigérateur connecté. Tous les capteurs installés dans la maison et dans les appareils peuvent orchestrer  des scénarios de vie. L’usage de ces outils pour le maintien à domicile des personnes âgées est un facteur naturel d’équipement et de services de télésurveillance et télédiagnostic. Si l’inventivité des fournisseurs est sans limite, se posent les questions de l’interopérabilité de ces capteurs et de ces fonctions, mais aussi celle de leur installation et de leur maintenance. Qui peut gagner la bataille de la maison ? Les fournisseurs historiques d’équipements cherchent à résister aux nouveaux acteurs numériques pour devenir le tiers de confiance du domicile. Il faut souligner le travail effectué par La Poste grâce à son hub numérique pour occuper cette place convoitée d’intégrateur.

Capture d’écran 2016-01-19 à 23.48.24

Foisonnant, vibrant, le CES 2016 confirme sa place de lieu emblématique de la révolution numérique qui se déploie dans tous les métiers, sous toutes les formes, dans tous les pays. C’est un carrefour dont on ressort saturé d’images, de sons, de messages dont il faut tirer les éléments de compréhension des potentialités et des risques du tsunami numérique. Il est impératif  à partir de ces données de construire des principes d’action lucides et résolus pour en bénéficier sans en être submergé.


Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor


A la recherche d’un nouvel équilibre

 

Le monde numérique n’est pas une abstraction théorique : c’est le monde physique d’avant auquel a été ajouté une couche nouvelle, pratique, esthétique, conviviale, permettant de faire rapidement et de façon simple des tâches souvent très basiques. Même si se prendre en photos sur Instagram ou s’envoyer des messages sur WhatsApp sont des activités qui absorbent beaucoup de temps, cela ne suffit pas à construire le monde de demain, qui sera aussi matériel. Les acteurs du numérique ne s’y trompent pas. C’est bien dans le monde physique que l’économie continue de se développer. Concevoir, produire, distribuer, consommer, se déplacer sont autant de tâches que le numérique contribue à faire évoluer mais qui demeurent, pour l’essentiel, physiques. Ce n’est pas un hasard si le président Obama a clairement annoncé à l’ouverture de la COP 21 que l’avenir de l’énergie résidait dans les géants du web, et que Bill Gates lance une fondation pour financer les travaux dans ce domaine. Cette initiative « Mission Innovation / Clean Tech » vise à financer les travaux destinées à trouver des solutions bas carbone dans l’énergie. La révolution numérique ne se joue pas seulement dans le monde étroit des « producteurs  de plateformes », elle se joue quotidiennement dans tous les secteurs d’activité en instillant dans les pratiques anciennes les idées neuves permettant de faire mieux pour les personnes et pour la planète. Or le web, décentralisé, fondé sur le fait que chacun est à la fois émetteur et récepteur des réseaux interactifs s'installe dans le paysage institutionnel comme étant le modèle de ce qu'il faut faire dans toutes les activités. Reconnaitre que l'intelligence est dans le réseau et non plus seulement dans le centre est une remise en cause de la pensée fondatrice du système hiérarchique pyramidal. Par vagues, l'utopie fondatrice du web se développe dans des secteurs bien lointains de ceux qui l'ont vu naître, l'énergie par exemple. Si le coeur de la forteresse du web est bien tenu par les tycoons milliardaires de la Silicon Valley, tout le reste est à conquérir. Il reste toutefois à démontrer que les entreprises du XXe siècle sauront s'adapter suffisamment vite avant que les leaders du web ne s'emparent de leurs domaines. Or ils ont prêts à le faire. La course est engagée.

 

6965447

Centrale solaire dans le désert de Mojaves aux Etats-Unis

Disrupter les disrupteurs

Le monde du web n’est pas figé. Les positions, même dominantes, ne sont pas définitivement acquises et les changements de pratiques des utilisateurs sont rapides. Aussi les contre-attaques sont possibles en trouvant de meilleures idées de produits et de services, de chaînes de valeur, d’alliances ou d’interfaces techniques. C’est souvent dans le détail que se fera la différence. La contre-offensive des secteurs conventionnels est engagée. Il est intéressant de voir comment G7 a réagi contre Uber en améliorant son service de façon rapide sur les mêmes plans que son compétiteur : paiement par carte, voiture impeccable, chauffeur attentionné. Mais G7 est allé plus loin avec le service de desserte des aéroports Wecab qui permet, avec un prix fixe, de partager le véhicule avec une autre personne pour réduire le coût par passager, mais aussi l’encombrement et les émissions. Le groupe Accor a engagé une riposte autant contre Booking que contre Airb’nb. La SNCF ne cesse d’améliorer son service numérique en dématérialisant totalement titres de transport et cartes d’abonnements. Les banques installées sont les premières à développer les services numériques en ligne. Il ne faut pas se réjouir des coups portés contre les entreprises du CAC 40, car c'est un système global qui assure notre prospérité qui est menacé. Il faut au contraire pousser les entreprises du XXe siècle à se transformer, parfois radicalement comme le fait avec talent la Poste depuis dix ans.

Ainsi, le journal montréalais de langue française, La Presse, fondé en 1884, vénérable institution de plus de 130 ans, a inventé un nouveau support numérique qui allie un format mobile original, la qualité rédactionnelle et la richesse de l’iconographie. Séduisant les annonceurs avec ce nouveau support, la Presse +, le journal numérique est rentable ce qui va permettre dès janvier 2016 de supprimer le coûteux format papier en semaine. Comme le déclare Jean-Marc de Jonghe, vice-président numérique de la Presse, l’objectif est de fournir « quelque chose de pertinent dans la vie des gens. » La technique doit s’effacer au service du sens.

Si l’économie européenne a perdu la bataille des plate-formes, elle n’a pas perdu celle du sens et c’est là où se situe véritablement la compétition de demain. Les techniques sont fragiles, volatiles, les fortunes obtenues par les tycoons ne sont pas pérennes, d’autres viendront changer cet ordre. Mais ce qui est pertinent c’est l’usage de la technique dans la vie des gens. Et sur ce point il n’y a pas de barrière ! Les brillantes jeunes pousses françaises comme Withings et Netatmmo, Criteo et Sigfox, Blablacar et Drivy doivent continuer leur essor et trouver les relais de financement leur permettant d'atteindre la taille mondiale sans céder aux milliards de dollars que la Valley peut avancer sans problème pour les ingérer.

Libérer les initiatives

La révolution numérique n’est pas venu du sommet de la pyramide. Elle s’est développée de façon anarchique, en rupture et à partir de la base. L’histoire de l’internet et du web est une histoire continue de prise de risque par des jeunes gens irrévérencieux dont beaucoup sont aujourd’hui devenus milliardaires, mais beaucoup également ont échoué. Ce n’est pas une longue marche tranquille. L’échec est même devenu culte dans la Silicon Valley ! Et  on innove d’autant plus que l’on a rien à perdre, sans  base installée, sans usine, sans distributeur, sans procédures figées. Il faut donc encourager systématiquement la prise de risque technique et économique en oubliant le vieux principe de précaution qui impose un business plan sur trois ans. Comme la mise initiale est très souvent faible, le risque est également faible, mais il faut multiplier les pistes. Le financement collaboratif est bien adapté à l’amorçage, mais le déploiement et l’industrialisation exigent des fonds plus importants, et plus solides.  

Plus que l’argent, c’est l’esprit d’innovation qui doit guider. Essayer sans cesse, échouer, corriger, repartir, c’est la méthode de travail qui doit s’appliquer à toutes les idées, et pas seulement au monde des start-up. Le respect de la prise de risque doit être encouragé dans toutes les entreprises, et surtout à l’école et dans le secteur public. Notre vieux principe républicain d’égalité devant le service public a conduit de fait à multiplier les inégalités par l’ignorance des différences de fond. A situation inégale, traitement égal ! Seule l’expérimentation décentralisée permet de valider des hypothèses de départ et de corriger l’action, au fil du temps, par touches continues et non pas par grandes réformes centralisées au déploiement improbable. Pratiquer à grande échelle « le crédit d’intention » fondé sur la confiance, gagé sur la formation, nourri par la transparence, coûte beaucoup moins cher à la communauté que la méfiance et le contrôle a priori.

Reconnaître les innovateurs

L’innovateur est forcément déviant : c’est celui qui ose autre chose qu’appliquer la « doxa », c’est celui qui se moque, de fait, des situations installées et du pouvoir en place. « On a toujours fait comme ça » est une pensée couramment admise dans tous les cadres professionnels. Mais quand tout bouge, cette posture confortable devient une imposture maléfique. « On a jamais fait comme ça et on va essayer » doit devenir le mode normal de fonctionnement des structures.

Il est clair que cette logique se heurte non pas à la résistance individuelle des personnes, mais à celle des organisations figées dans leur fonctionnement conventionnel. Mais une organisation n’existe pas en tant que telle, elle existe à travers un ordre structuré de relations de pouvoir. Changer cet ordre, c’est donc forcément prendre le risque sinon de changer les personnes au pouvoir, au moins l’exercice du pouvoir, et c’est là où se situe l’allergie au changement. C’est la raison pour laquelle les grandes entreprises qui ont réussi ont beaucoup de peine à innover en profondeur, comme le décrivait dès 1997 Clayton Christensen dans son ouvrage « The Innovator’s Dilemma ». Les entreprises bien gérées et qui réussissent ont beaucoup de difficultés à changer ce qui a fait leur succès et qui peut provoquer leur perte.

L’innovateur « paradoxal » reconnaît les faiblesses et les risques et n’hésite pas à bousculer les tabous de la pensée unique que les entreprises pratiquent aisément. Ce n’est certainement pas à lui qu’il faut couper la tête !


Trop de web ? Trop de numérique ? Quel avenir ?

 

Le débat sur l’impact du numérique sur l’économie s’accélère et se densifie dans notre pays. Deux lois sur le numérique sont en préparation, après la parution d’une multitude de rapports, documentés et stimulants, mais restés pour l’essentiel lettre morte. Cantonnée, Il y a peu de temps encore, aux secteurs de la presse, de la musique, du voyage, la prise de conscience de la transformation profonde engendrée par le web réveille aujourd’hui l’éternel débat sur la vitesse de la transformation induite par la technique. Comme à chaque étape de l’histoire humaine, la mise en tension des structures qu’implique l’émergence d’un nouveau système socio-technique bouscule l’ordre établi, déstabilise les pouvoirs, ravive les fractures sociales, remet en cause les hiérarchies et l’équilibre des territoires. Et inquiète tous ceux qui ne comprennent pas le mouvement et craignent, souvent à raison, d’en être les victimes ! La destruction créatrice de Schumpeter est en marche. Elle est violente et rapide d’autant plus qu’elle n’obéit pas à un plan prévisible et pré-établi comme nous les aimons dans notre pays marqué par la centralisme de notre culture politique et économique.

Néanmoins, la révolution numérique, en dépit de son caractère spectaculaire, n’est, comme les révolutions techniques qui l’ont précédé, qu’une œuvre humaine. Elle n’est pas magique mais résulte de l’action conjuguée de forces maîtrisables. Il est donc possible, et même absolument indispensable, de l’analyser avec lucidité. Il faut d’abord comprendre pourquoi cette révolution, venue d’ailleurs, nous heurte particulièrement en France, avant d’esquisser les pistes d’une prise en compte active de cette dynamique sur notre territoire.

  1. La révolution numérique est rapide et violente

Le tempo de cette transformation est imposé par les leaders nord-américains.

La santé insolente que manifeste les leaders du GAFA (Google, Apple, Facebook, Amazon) est une provocation pour l’économie européenne et l’aveu d’un cruel échec pour ce respectable terroir qui a dominé pendant plus de deux siècles l’économie mondiale par son talent et sa capacité d’innovation. En 2000, l’Europe s’était donné comme objectif pour 2010 de devenir leader dans la science et la technique ! En effet, il n’y a plus, après l’échec de Nokia, aucun point lourd dans les techniques numériques en Europe ! Parmi les entreprises du CAC 40, aucune n’appartient à ce courant des champions du web. Et on peut admettre que seuls Orange et Cap Gemini, Alcatel Lucent étant absorbé par Nokia, portent les couleurs de cette nouvelle vague d’informatisation, avec de pâles valeurs de capitalisation : 43 et 14 milliards €. Et cette domination n’est pas prête de se ralentir car les licornes, entreprises ayant dépassé une capitalisation boursière d’un milliard de dollars, se développent à toute vitesse aux Etats-Unis. Plus d’une centaine de ces entreprises sont ainsi apparues depuis 2014. Si toutes ne réussiront pas, il est clair que certaines viendront grossir le rang de leurs aînées ou seront absorbées.

Capture d’écran 2015-11-30 à 12.46.54

Les jeux sont faits : la Silicon Valley est devenue le centre du monde économique du XXIe siècle. La capitalisation boursière atteint, en novembre 2015, des niveaux jamais atteints : 651 milliard $ pour Apple, 500 milliards $ pour Google, plus de 300 milliards $ pour Facebook et Amazon. Seul, Apple vaut autant que les dix premières entreprises du CAC 40. Avec les profits de son année fiscale 2014-2015, soit 53,4 milliards $, Apple a battu le record du plus haut niveau de profits jamais atteint en une année dans l’histoire économique. Ceci représente 79% des bénéfices des entreprises du CAC 40 pour l’année 2014!

Dans le chaudron neuronal californien, où abondent les talents et les capitaux, s’invente, dans le style décontracté inimitable des tycoons californiens, l’économie de demain. Et rien n’est trop beau ni laissé au hasard : ni le nouveau siège d’Apple, ni la nouvelle ville de Facebook, ni l’appétit omnivore de Google pour le futur. L’ambition et la certitude d’avoir raison animent cette nouvelle génération d’entrepreneurs qui bousculent tous les establishments en imposant leurs codes. Leur vocation est de développer leur influence dans tous les secteurs, sans frein à leur appétit, sans précaution pour laisser vivre en dehors de leur écosystème les audacieux qui refusent d’y entrer. Le gagnant emporte toute la mise sans rien laisser aux concurrents. Cette logique d’universalité doit servir le bien de l’humanité car les tycoons ne sont pas avares de déclarations généreuses. Le « moon shot » est là et prend le pouvoir politique comme l’a démontré le rejet d’une proposition anti-Airbnb à San Francisco. Le moonshot, par similitude avec le programme Apollo, consiste à adopter des solutions radicales tant sur le plan technique qu'organisationnel, sans précaution majeure ni pour la prise de risque ni pour la rentabilité à court terme. Les pratiques fiscales des barons de la nouvelle économie sont opaques et ni dans les pays où ils opèrent ni même aux Etats-Unis, ces géants du web ne figurent pas parmi les entreprises citoyennes exemplaires. Mais est-ce vraiment différent des Carnegie et Rockfeller en leur temps, sinon que leur terrain d’action est mondial et qu’ils pénètrent beaucoup plus profondément les consciences que pouvaient le faire les rois de l’acier, du chemin de fer et du pétrole ? La logique d’un entrepreneur est d’exploiter, sans état d’âme, tout le terrain que lui laissent ses concurrents… et le législateur.

Les conséquences sociales sont considérables

La disruption – mot clef de ce et début de XXIe siècle – est un tsunami qui s’attaque à tous les secteurs économiques. Bien sûr la construction des fondations de l’internet a nécessites près de trois décennies pour créer, progressivement, ce réseau mondial universel. Mais l’accélération a été déclenchée par l‘irruption d’un nouvel objet. Le premier smartphone. L’iPhone, doté de fonctionnalités qui faisaient sourire en 2007 comme la géolocalisation, ou un appareil photo, a mis entre toutes les mains un puissant ordinateur, mobile et connecté au réseau internet. Passer de quarante années d’informatique « assise », coûteuse, lourde, complexe à une informatique « debout », ergonomique, mobile, accessible et géolocalisée, a créé une brèche spatio-temporelle dans laquelle se sont engouffrés développeurs et entrepreneurs pour inventer un monde poussé par la recherche de solutions utiles et simples à la plupart des problèmes de la vie quotidienne. Sans intermédiaires, grâce à l’idée géniale des magasins d’applications gratuites ou peu onéreuses, ils distillent l’élixir de la transformation numérique de la société directement vers les utilisateurs qui s’en emparent avec délectation, parce que c’est simple, utile et… pas cher ! Ce phénomène défie les lois de l'économie car la plupart des enteprises porteuses de ces nouveaux services ne gagnent pas d'argent en dépit d'une capitalisation boursière pharaonique. Néanmoins elles bousculent les secteurs établis, les forcent à s'adapter ou à disparaître. 

Citons quelques exemples. AirBnB, né en 2008, s’est développé ainsi de façon virale, sans autorisation, sans prévenir. Et sans que personne n’ait vraiment vu le phénomène se développer, sauf les pourvoyeurs d’espaces – promus « hôtes »- et leurs clients, ravis d’une telle aubaine, AirBnB capte des millions d’utilisateurs et, en pertes, génère un revenu de moins d'un milliard $ pour une capitalisation boursière de 24 milliards $. En 2020, l'entreprise devrait enfin être rentable ! Or tout peut changer dans ce secteur très ouvert...

Pour étendre son spectre d’activités, Google investit des milliards de dollars. Google, qui est désormais fractionné en plusieurs entités légales, sous une nouvelle holding, Alphabet, a nommé le pape de l’intelligence artificielle à la tête de son département de recherche, Ray Kurtweil, et fait de nombreuses acquisitions dans le domaine des robots, comme Boston Dynamics, spécialisé dans les robots militaires. la boulimie de Google est incommensurable mais son alimentation en cash est permise par une activité tout ce qu'il y a de plus classique, la publicité. 

Les structures politiques sont ébranlées

Pour la première fois dans l’histoire, l’innovation ne connait pas de frontière et se déplace instantanément, sans délai, entre les pays, supprimant l’avantage comparatif que donnait aux pays développés leur avance technique. Le développement des télécommunications bouleverse la séquence historique de développement. La totalité des habitants de la planète accède maintenant au téléphone mobile, et bientôt, grâce aux smartphones à bas prix qui se vendent par centaines de millions, bénéficiera de tous les services du web. Les gouvernements ne peuvent que constater que la révolution numérique se fait sans eux, sans leur autorisation et hors de leur contrôle.. Si le Parlement européen s’émeut, et vote en novembre 2014 une résolution pour démanteler Google, l'entreprise ne se plie pas pour autant aux exigences européennes.

Peu de dirigeants ont encore intégré le fait numérique dans leurs pratiques

Si les Français adorent les technologies numériques pour leur usage personnel, les pratiques en entreprise et dans la vie publique sont en retrait par rapport à cet engouement individuel, même si, au fil du temps, on observe des changements significatifs de comportement. Les images du bureau de François Hollande sans ordinateur et noyé sous les parapheurs ont choqué. Il n’est pas le seul à parler du numérique, pour les autres. Les dirigeants français ont dans l’ensemble raté la seconde vague de la révolution informatique, celle des années quatre vingt-dix avec les ERP. Ils trouvent aujourd’hui qu’avoir une stratégie « digitale » est beaucoup plus chic que de faire de l’informatique, activité reléguée au rang définitif et peu enviable de « centre de coûts ». Si utiliser un mot anglais permet d’avancer la prise de conscience, tant mieux. Mais il ne faudrait pas que ce soit un leurre de même nature que l’e-commerce au début des années 2000. Car si techniquement le numérique ne se dissocie pas de l’informatique, culturellement il n’en est rien. Là où l’informatique permettait d’accroître la productivité de l’existant, le numérique consiste à remettre en cause, ou simplement ignorer, cet existant pour inventer tout autre chose.

Bien peu de dirigeants acceptent l’idée que la révolution numérique est avant tout une révolution managériale qui s’appuie sur la compétence de la totalité des collaborateurs avec un minimum de technostructure et d’encadrement. La révolution numérique, c’est une large décentralisation avec des équipes petites, autonomes connectées en réseau. C’est la réactivité privilégiée par rapport au plan et au budget venus d’en haut. La reconnaissance ne se fait pas par la hiérarchie mais par les pairs. C’est une incitation permanente à l’initiative et au non-conformisme. On ne tue pas une idée, on l’améliore ! C’est une remise en cause radicale du système hiérarchique pyramidal, ses rituels et ses ordres.

La révolution numérique bouscule emplois et compétences

La désintermédiation, qui a désormais un nom, « ubérisation » est un processus simple et efficace. C’est pour cela qu’elle s’impose dans tous els secteurs. Elle consiste à supprimer tous les intermédiaires inutiles d’un processus pour délivrer un résultat, rapidement, efficacement et pour le moins cher possible. Le réengineering des processus, activité phare des années quatre vingt-dix se fait désormais de façon beaucoup plus radicale en mettant en place un outil informatique, une plateforme d'intermédiation, qui met en relation directe émetteur et récepteur La désintermédiation est aussi connexe à la dématérialisation. Comme le support physique n’est plus utile à l’accomplissement de la fonction, la production de l’information suffit. Et elle est immatérielle, peu coûteuse et se prête à tous les traitements qui assurent la traçabilité et le contrôle du dénouement physique et économique de la transaction.

Avec la suppression de fonction physique de production, de diffusion et de contrôle, ce sont des centaines de milliers d’emplois industriels et tertiaires qui sont d’ores et déjà supprimés ou encore seulement menacés. Les exemples sont multiples dans l'édition musicale, la presse, la photographie.. .Prenons l'exemple d’un produit récent qui fut innovant, le Compact Disc, diffusé à partir de 1982. Editer un CD à partir d’un fichier numérique, le presser, l’emballer, le transporter, le distribuer dans des points de vente représentait un grand nombre de tâches matérielles et l’utilisation de ressources physiques - papier, carton, plastique, stockage, véhicules, manutention - que la diffusion en un clic du même fichier sur un serveur supprime définitivement. Aujourd'hui les magasins de disques ont quasiment disparu, à l'instar du célèbre HMV à Londres, plus grand magasin de disque du monde, ouvert en 196 et fermé en 2014. Il en est ainsi dans les guichets, les points de vente, les caisses de supermarché, les bureaux… Il est bien naturel que les emplois directement associés à ces tâches physiques disparaissent également. Mais la logistique impose encore beaucoup de main-d’œuvre et Amazon propose un nouveau type de contrat de travail, Flex, pour ses livreurs occasionnels aux Etats-Unis. Il s’agit d’utiliser sa propre voiture, sans couverture sociale, pour livrer quand on le veut dans un périmètre restreint pour 18 à 25 $ de l’heure. Les initiatives de ce type se multiplient dans tous les métiers, sapant sans bruit les bases historiques du salariat.

Bruissante, tumultueuse, sans égards pour le passé, la révolution numérique apporte à tous et bouscule tout le monde. Elle n'est nullement morale ou vertueuse par elle-même, s'inscrivant dans une longue histoire de l'innovation, mais elle peut le devenir si elle sert l'intérêt général.

A suivre ...

  1. A la recherche d’un nouvel équilibre

Renault, un enjeu capital pour la France

Comprendre le débat actuel entre l’Etat actionnaire de Renault, par la voix du Minstre de l'Economie, Emmanuel Macron,  et son dirigeant, Carlos Ghosn, qui, au terme d’une semaine tendue, a conduit celui-ci à convoquer un conseil d’administration exceptionnel de Renault le 6 novembre, implique de remonter aux sources de l’Alliance.

Renault a été l'artisan du renouveau de Nissan au moment où l'entreprise était dans une crise profonde : gamme vieillissante, appareil industriel inapproprié, relations endogames avec les fournisseurs. Déficitaire pendant toute la décennie quatre vingt-dix, sauf 1996, surendettée (18 milliards €) , au bord de la faillite, Nissan était en quête d’alliances pour survivre. Après l’échec des négociations avec Daimler, c’est Louis Schweitzer qui réussit à prendre 44% des actions du constructeur en 1999. Cette opération était risquée mais représentait une opportunité essentielle pour Renault de prendre place sur le marché mondial après l’échec de la fusion avec Volvo en 1994. Mais les cultures de deux constructeurs étaient fort dissemblables, Tokyo est très loin de Billancourt, et Louis Schweitzer et son homologue de Nissan, Yoshikazu Hanawa, ont l’habileté de construire à partir de mars 1999 un modèle original de relations fondé sur une alliance plutôt que sur une prise de contrôle. Selon Louis Schweitzer, il s'agissait de former "un groupe binational, fondé sur le respect, la compréhension réciproque et le maintien de l'identité des deux entreprises". Cette Alliance respecte les cultures et sensibilités des deux entreprises.

L'équipe de management de Renault déléguée sur place, sous la direction de Carlos Ghosn, le support technique de toute l'entreprise, et le marché bondissant du début des années 2000, notamment avec le développement spectaculaire d'Infini au Etats-Unis, ont permis un redressement exceptionnel à travers l’ambitieux et drastique Nissan Revival Plan. Solide en Europe et Amérique latine, Renault était beaucoup moins international que Nissan, firme dont la croissance s’est faite dès l’origine sur le marché mondial. Si Renault a investi ses hommes et ses ressources ( 6,4 milliards €) dans Nissan, l’entreprise a été payé en retour par 17 milliards de dividendes. C’est donc un excellent investissement pour Renault. Il est dès lors naturel de souhaiter conserver une influence majeure dans l'avenir du groupe. 

Renault est propriétaire de 43,40% des parts de Nissan, qui détient 15% de Renault. L’Etat est monté en juillet à 19,7% du capital, avec la promesse de revendre ces actions supplémentaires, pour peser dans les réflexions sur le réaménagement de la gouvernance de l’Alliance en acquérant des droits de vote double. Il faut aussi mentionner que Daimler possède également 3,1% de Renault et de Nissan. Aussi l'Etat actionnaire veut conserver le contrôle de cette Alliance dont, théoriquement, Renault devrait être leader.

Devenu CEO de Nissan en juin 2001, puis de Renault en mai 2005, Carlos Ghosn est à l’épicentre de ce qui n’est plus, de fait, l'Alliance des origines, mais plutôt une « union personnelle » selon la formule constitutionnelle, le président de Renault ne pouvant ignorer ce que pense le président de Nissan. Mais l’évolution relative des deux entreprises crée une dissymétrie économique. En 1999, Nissan produisait comme Renault de l'ordre de  2,4 millions de véhicules. Aujourd'hui, Renault produit 2,6 millions de voitures, mais Nissan a cru rapidement pour atteindre 5,3 millions de véhicules en 2014, dont 1,4 million aux Etats-Unis et 1,2 million en Chine. Nissan pèse deux fois plus que Renault en termes de chiffre d'affaires, notamment parce que le mix produit est nettement plus haut de gamme, grâce notamment à Infiniti, et que Nissan est présent en Chine et aux Etats-Unis. Enfin la capitalisation boursière de Renault est de 27,5 milliards d’euros contre 42 milliards pour Nissan.

Cette dissymétrie est souvent perçue par le personnel de Renault comme humiliante et l’esprit de compétition qui règne entre les équipes est parfois plus amer que collaboratif. Il est difficile de comprendre les arbitrages entre équipes alors que le dirigeant central est le même. Mais au delà des personnes, il est clair que dans le paysage industriel mondial, Renault et Nissan n’ont d’autre choix que de coopérer efficacement pour développer, comme ils le font sur les véhicules électriques, des stratégies communes, et accroître encore la mise en place de synergies techniques et économiques. La mise en place de trois plateformes communes, la multiplication des livraisons croisées, l’installation de véhicules Nissan sur des lignes de montage de Renault sont les signaux clairs que la construction d’un groupe industriel efficient est en marche. L’affaiblissement du groupe Volkswagen ouvre potentiellement la voie à un accès au podium mondial derrière Toyota et GM.

Il est clair que les autres dirigeants de Nissan ne peuvent exprimer une opinion qui n’ait pas son aval. On ne peut pas imaginer, dans la culture japonaise, qu’ Hiroto Saikawa, directeur de la compétitivité, expliquant que Nissan « voudrait résoudre cette question dès que possible afin de pouvoir rétablir les bases d’une alliance fructueuse » le fasse sans l’aval de son président.

 

Images Nissan Qashqai et Renault Kadjar partagent la meme plate-forme CMF (Common Modula Family)Kadjar-signature-red.jpg.ximg.l_full_m.smart

Il est toutefois impératif de dépasser ce qui pourrait être facilement perçu comme un combat entre egos, trop facilement sur-médiatisé. Au delà des personnes, transitoires, le seul enjeu est bien la constitution robuste du 4e constructeur mondial automobile avec une influence capitalistique française durable. Le gouvernement ne veut pas voir les centres de décision d’un constructeur emblématique qui a su, grâce à la vision de Louis Schweizer, se construire une authentique personnalité internationale, échapper totalement à la France après une longue série de reculs industriels dans d’autres secteurs. Il y a une cohérence de voir reconnu durablement le rôle de Renault et de ses équipes dans le redressement de Nissan. Il y aussi une exigence pour conserver une dynamique de l’Alliance de laisser une place importante aux équipes de Nissan dans le management du groupe pour gagner les combats futurs. C’est cette alchimie que le conseil d’administration de Renault, dont l’Etat actionnaire, doit faire émerger en visant le long terme.Renault 


Faire basculer la France dans le XXIe siècle : le numérique

Le G9+, think tank informatique, télécoms et numérique des anciens des grandes écoles, a lancé une démarche de réflexion collective pour 2017 : "100 idées pour une France numérique". Ce texte, sous une forme adaptée,  s’intègre dans cet ensemble de contributions qui sera débattu le 19 novembre.

De multiples rapports ont été consacrés au développement numérique de la France. Un des plus importants est celui publié en 2014 par la commission Lemoine sur « la transformation numérique de l’économie française ». De nombreuses structures, think tanks et organismes professionnels, ont émis des propositions et réunis les acteurs engagés dans la révolution numérique. Ce n’est donc pas l’originalité, ni l’exhaustivité, des mesures qui doit être prise en compte dans le cadre de cette réflexion, mais la recherche d’un effet de masse sur la société. Dans la situation actuelle de la société et de l’économie française, il est indispensable de sortir du champ de l’intention et de l’expérimentation pour franchir un seuil irréversible d’adoption massive.

Bureaucratie-paperasse

Dans ce débat qui  a commencé à la fin des années quatre-vingt dix quand certains ont commencé à prendre conscience que le développement mondial de l'internet et du web était un phénomène d'une ampleur qui promettait d'être exceptionnelle. La France a beaucoup hésité face à ce processus clairement américain dont elle n'avait pas été à l'origine, et qu'elle avait sous-estimée, malgré les courageuses initiatives de Louis Pouzin. Vingt ans plus tard, internet et les services du web ont conquis le monde avec trois milliards d'internautes.

Aussi les ultimes résistances tendent enfin à s’estomper devant la prise de conscience de l’irréversibilité de la transformation en cours partout dans le monde. Plus que la somme des techniques de communication, désormais disponibles à faible coût et sans complexité,  qui permettent d'accéder sans limite à des informations de toutes natures, ce sont les changements culturels et comportementaux qui marquent la vie sociale. Or l’expérience des succès de l’économie du web démontre que c’est la rencontre entre un besoin, souvent latent, et une offre, ergonomique et économique, qui déclenche l’adoption. La créativité des start-upers  est sans frein ce qui conduit les magasins d'applications à proposer des millions d'applications diverses dont certaines ne sont jamais exploitées par ceux qui les ont téléchargées. Cet usage privé, que chacun gère en fonction de ses envies et de ses besoins, est une première étape plaisante et pratique dans la numérisation. Mais il faut aller au-delà pour ancrer le numérique dans les pratiques sociales qui, en France, nécessitent la plupart du temps l'engagement de l'Etat. Car, dès lors qu’il s’agit de rechercher un effet de masse qui dépasse l’adoption privée, poussée par l’innovation, les évolutions du cadre législatif et réglementaire se révèlent nécessaires pour rendre possibles ces transformations.

Au-delà d'un mouvement comme  la French Tech, qui mobilise les talents des entrepreneurs,  et la dynamique des start-ups, relayée par les écosystèmes régionaux, ce sont les pratiques régaliennes qu'il faut revisiter à travers le prisme de la culture numérique. Dématérialisation, réactivité, engagement, décentralisation sont les vecteurs de cette transformation qui doit transformer nos modes de fonctionnement conventionnels pour faire basculer notre culture du papier et de l'autorité vers celle du numérique et de la responsabilité.

1191_696_Capture-d-e-cran-2014-11-12-a-13

Si, en France, les infrastructures sont globalement capacitaires, si l’adhésion spontanée des consommateurs est forte,  Il s’agit maintenant de fournir un cadre de confiance collective envers le numérique qui ne peut être produit sans impulsions législatives et réglementaires. Il faut également améliorer l’offre de services collectifs, sans qu’ils soient nécessairement publics, au-delà des propositions du marché pour produire un effet de transformation collective des comportements.

Les mesures proposées, qui s’inscrivent dans le prolongement de mesures déjà engagées,  ou incluses dans les projets de loi d'Axelle Lemaire et Emmanuel Macron, visent une accélération du développement universel des usages en stimulant la confiance envers les solutions numériques de tous les citoyens et la créativité numérique. Il s’agit de renforcer les motivations des pionniers et développer l’adhésion des milieux encore sceptiques, ou hostiles, en créant les conditions transparentes d’adhésion lucide et responsable à la société numérique du XXIe siècle. Le besoin de sécurité et de confidentialité est un élément structurant de la demande sociale. Faute d’y répondre clairement, la transformation numérique reste partielle et ne livre pas ses promesses économiques et culturelles. Cinq mesures ne suffisent pas. Mais il est important de créer un cadre général sur des sujets pour lesquels le changement de pratiques pourra induire le développement d'une nouvelle culture d’initiatives et de responsabilités dont la France a besoin.

1/ Rendre obligatoire la facturation électronique pour tous les échanges inter-entreprises au 1er janvier 2019

La dématérialisation des commandes et des factures est le seul mécanisme collectif déclencheur d’une transformation numérique des processus. En effet, l’échange de documents informatisés implique la mise en place de processus et d’outils dans toutes les entreprises et organisations, quel que soit leur taille. C’est donc le moyen d’obtenir que se mettent en place des processus numérisés de bout en bout.

2/ Mettre en œuvre un titre universel d’identification numérique individuelle

Contexte :

Le projet d’une carte d’identité numérique est ancien. Il a été  lancé en 2003 et visait  de produire une’identification forte associant un cadre régalien et un cadre commercial.  Ce qui fait l’originalité de ce projet a justement conduit à de multiples tergiversations qui ont finalement différé son adoption qui nécissattn une loi n’a pas trouvé le cadre et les supports requis.

Relancé en 2012 sous l’appelation IDéNum, le projet a été adopté mais de nombreuses dispositions ont été jugées anticonstitutionnelles.

Objectif

Doter chaque personne d’un outil d’identification numérique irréfragable, sécurisé et garanti par l’Etat, permettant à la fois de répondre aux objectifs régaliens et d’assurer dans toutes les transactions, publiques ou commerciales, une preuve d’identité.

3/ Dématérialiser tous les documents concernant la vie professionnelle et la gestion du patrimoine avec l’instauration d’un service de coffre-fort électronique personnel.

Objectif

Eviter l’émission de millions de documents en double (papier et numérique)  notamment la feuille de paye avec stockage électronique à vie,  les actes de gestion individuelle et patrimoniale (contrats, titres de propriété…)

Faciliter la liquidation des droits à pension de retraite et de façon générale simplifier la gestion des actes administratifs personnels

Fournir sous forme numérique tous les éléments validés pour des transactions (achats immobiliers, achats de véhicules…)

Unifier toutes les informations sociales

Garantir  la sécurité juridique des éléments clefs de la vie sociale

Offrir un cadre pérenne, sécurisé, permettant la sécurisation de long terme

 

4/ Déployer le « contrat de coopération » pour fluidifier la circulation des compétences 

Contexte

L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, l’esprit entrepreneurial constituent des propriétés naturellement développées et encouragées par les écosystèmes numériques. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. Les entreprises qui sauront devenir des fédérateurs naturels de talents individuels gagneront la compétition économique. Affranchie des contraintes conventionnelles issues de la fragmentation de la société, la mise en synergie des talents peut trouver des réponses radicalement nouvelles aux problèmes de notre société et combler les lacunes des mécanismes classiques. 

Quand on fait appel au « cerveau-d’œuvre », plus il y a d’acteurs, plus il y a d’idées qui germent et réussissent. Il faut donc abattre toutes les barrières à l’entrée à l’activité en renforçant, avec un code du travail simplifié, l’efficacité des sanctions.

Mesure

Introduire un « contrat de coopération »  à échéance variable, de 2 à 5 ans,  qui n’est pas un contrat de subordination, mais définit contractuellement les droits et obligations des deux parties, et précise la nature de la contribution et les règles d’évaluation. La rémunération reste un salaire, chargé, mais le salarié ne figure pas parmi les effectifs statutaires de l’entreprise et n’entre pas dans le comptage des seuils sociaux.  Il est soumis aux conditions de travail de l’entreprise mais peut également inclure le télétravail.

5/ Développer l’industrie du logiciel éducatif et pédagogique à travers les enseignants et le diffuser à travers l’enseignement

Contexte

Le développement des supports numériques pédagogiques inclus dans les programmes  est très lente alors que l’échec scolaire s’accroît, surtout sur les disciplines fondamentales comme la langue française, les langues étrangères, les mathématiques, l’histoire géographie…

Objectif

L’objectif est d’exploiter l’appétit naturel des jeunes générations pour les outils numériques pour installer le numérique au cœur des processus pédagogiques. Ce mouvement ne peut passer que par les enseignants eux-mêmes et par l’inclusion des outils numériques dans tous les processus d’apprentissage.  Il ne s’agit pas d’ajouter le numérique comme matière d’enseignement ( même si la question est pertinente pour la formation à la programmation) mais d’inclure les outils numériques dans la progression pédagogique et l’évaluation ;

La mesure proposée est donc d’inciter les enseignants à partager leur expérience pédagogique par la création de logiciels professionnels. C’est une action qui permettra l’émergence de start-up francophones produisant des produits totalement insérés dans les processus pédagogiques et dans les programmes.