Previous month:
janvier 2016
Next month:
mars 2016

Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


L'économie collaborative est-elle fondée sur... le partage ?

La technologie avance, les grands acteurs se mettent en place et exploitent habilement leurs positions aux "postes de péage" de la société numérique. Faut-il craindre la construction de nouveaux monopole qui facilitant l'économie collaborative seraient les premiers à en tirer profit sans limite ? Le débat n'est pas simple alors que l'on s'interroge sur les emplois du futur et sur les mécanismes de financement des charges collectives mutualisées : fonctionnement de services publics, santé, prévoyance. Il faut inventer cette économie du XXIe siècle qui ne doit pas inquiéter mais faire réfléchir et agir sur des bases nouvelles. C'est le sens des travaux de l'Institut de l'Iconomie dont cet article est une production.

 

Article publié dans Le Monde du 4 février avec mes amis de l'Institut de l'Iconomie

 


Economie du partage ou hypercapitalisme ?
Les plates-formes numériques ne seront durables que si la rente qu'en tirent leurs propriétaires est redistribuée à leurs utilisateurs


Automatisation, robotisation, ubérisation : la révolution numérique porte la menace d'un chômage de masse. Il ne faudrait pas s'en plaindre, car la fin du travail ouvrirait, selon l'influent essayiste américain Jeremy Rifkin, une période d'activités bénévoles intenses. A l'image de Wikipédia, la connaissance, les images, les objets imprimables en 3D ne coûteront plus rien. L'énergie produite par chacun, le partage des objets et des services comme Vélib' ou Blablacar feront chuter les dépenses. L'économie du partage s'imposera ainsi jusqu'à éclipser le capitalisme et la nécessité de travailler.

Cette vision est séduisante, mais c'est un leurre. Cette nouvelle route du " communisme " conduit en réalité à l'hypercapitalisme. L'économie collaborative moissonne les richesses au profit d'une minorité, mais sans les redistribuer. Les contributeurs s'en indignent dès qu'ils en prennent conscience, ce qu'illustre le cas du Huffington Post aux Etats-Unis. Ce " Wikipédia du journalisme " faisait intervenir des milliers de chroniqueurs bénévoles, qui se sont révoltés le jour où le journal a été vendu pour 315 millions de dollars (plus de 288 millions d'euros) à AOL sans qu'ils reçoivent leur part.

Des milliers de crowdfunders (adhérant au financement participatif) se sont scandalisés quand Oculus, le développeur d'un système de réalité virtuelle auquel ils avaient apporté leur contribution,s'est vendu pour 2 milliards de dollars à Facebook. De plus, les grandes plates-formes de l'économie collaborative ne payent pas d'impôts. Sur ce point, cette économie ressemble à l'économie financiarisée, dans laquelle les plates-formes de trading à haute fréquence prélèvent leur dîme sans contrepartie. Dès lors, le cerveau, matière première du XXIe siècle, s'expose à la même surexploitation que les matières premières naturelles du XXe siècle. Dans sa forme actuelle, l'économie collaborative n'est pas durable.

Il faut donc introduire un nouveau mécanisme de partage des richesses. L'échec de la taxe Tobin nous a déjà montré que ce ne sera pas par l'impôt. Il vaut mieux s'inspirer des industries créatives, comme celles des jeux vidéo ou du cinéma, dont la production est monétisée par la propriété intellectuelle, ce que préconisait Maurice Lévy, le PDG de Publicis, dès 2006.

Innovations d'usage
Ce mécanisme doit intégrer une double détente, pour que le bénévolat initial puisse être rétribué équitablement dans le cas de sa monétisation indirecte, ce que recommande aujourd'hui le Conseil national du numérique. Il doit enfin s'adosser à des fonds souverains dont les actifs sont les brevets et les marques, sur le modèle déjà expérimenté de France Brevets, pour collecter des montants de redevances au lieu d'impôts.

Il faut aussi faciliter l'innovation d'usage, seule créatrice d'emplois, comme l'illustre la banque assurance. L'emploi de ce secteur était menacé par l'informatisation : le rapport Nora-Minc de 1978 anticipait 30 % de réduction d'effectifs à cause de l'automatisation du traitement des chèques, des distributeurs de billets, des relevés de compte, des virements, des prélèvements mensuels, de la comptabilité, etc. Mais, dans le même temps, les innovations d'usage apportées par l'informatique, comme la carte à puce ou la gestion personnalisée de portefeuilles de titres, ont plus que compensé ces réductions. Au final, les effectifs du secteur ont augmenté de 25 %. Aujourd'hui, le premier créateur d'emplois en France est de fait la société O2, dont l'innovation permet aux femmes de ménage de disposer de toute leur organisation dans leur smartphone.

La vision dominante de la révolution numérique est une menace. Quelques ajustements de partage des richesses et de doctrine économique permettraient d'en canaliser la puissance pour la rendre créatrice de nouveaux usages et de nouveaux emplois.

par Vincent Lorphelin, Jean-Pierre Corniou et Christian Saint-Etienne


Le numérique est aussi une révolution managériale

http://www.labourseetlavie.com/videos//debat-economique/jean-pierre-corniou-directeur-general-adjoint-sia-partners-un-des-enjeux-c-est-aussi-de-changer-les-methodes-manageriales,2247.html#.Vq87HYnChz8.twitter

 

 

Une vue historique

https://www.youtube.com/watch?v=dmTOMxwil4g&list=PLNAnUl_bnDUfp7gGdPRyLchNQU3T_GOZV&index=7


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.