Rassurée, l'automobile mondiale se cherche (timidement ) un nouveau modèle

Le salon de Genève s’ouvre début mars sur un paysage rassurant. La dépression du marché automobile mondiale est bien finie. En croissance depuis 2011, la production automobile mondiale a connu, avec 89,4 millions de véhicules, en 2015 une nouvelle progression de 2,3% qui confirme le retour de la dynamique du marché et donc de la santé des constructeurs. Tous affichent des résultats flatteurs, comme en témoignent les résultats récemment publiés de Renault et PSA. Les cours anémiques du pétrole rassurent les clients, surtout aux Etats-Unis, sur la pertinence du séculaire moteur à explosion qui fait le bonheur des conducteurs de F-150, voiture la plus vendue aux USA . Tout semble donc sourire à cette industrie coriace qui a démontré une fois encore qu’elle était capable de rebondir après une crise profonde, non sans avoir été contrainte de solliciter l’aide des pouvoirs publics. L’automobile serait-elle comme la banque, too big to fail ?

Peut-on pour autant refermer sans souci la page d’histoire ouverte en 2008 et qui a vu l’industrie automobile trembler sur ses fondements. L’histoire de l’automobile est émaillée de crises qui ne laissent jamais intacts les constructeurs survivants, même si le retour à bonne fortune tend à faire oublier les mauvais moments. Cette industrie a une forte capacité d’oubli, confiante dans le fait qu’il n’y ait pas de problème sérieux qu’un bon produit ne puisse résoudre. Cette confiance est fondée sur les constats que l’automobile reste indispensable à plus de 70% des déplacements dans les pays matures et que la plus grande partie des habitants de la planète n’est pas encore motorisée.

Mais la période qui s’ouvre ne ressemble en rien à la situation post-crise de 1974. Le monde est aujourd’hui largement motorisé et il est devenu urbain, peuplé et… pollué. Le web a changé l’usage du l’automobile, comme du reste. La prise de conscience de l’impact environnemental négatif de l’automobile s’est développée dans tous les pays, notamment dans le premier marché du monde, la Chine. Le fait que des constructeurs aient été obligés de tricher pour respecter les normes environnementales n’a pas accru la confiance des consommateurs dans l’industrie.

L’ambiguïté génétique de l’automobile n’est certes pas dissipée : outil de travail, pour se déplacer, c’est aussi un produit statutaire, pour se différencier, et un objet générateur de plaisir, pour s’évader. Même si personne n’a « besoin » d’une Ferrari ou d’une Porsche pour se déplacer à 90 km/h, l’attrait de ces produits dépasse toute logique pratique. Il en est de même pour les véhicules moins ostentatoires qui n’échappent pas la surenchère de la puissance et des équipements au détriment de la consommation et des émissions. Le marketing des constructeurs insiste toujours sur le plaisir de conduire et la sensation de liberté en mettant en scène leurs produits dans les déserts de l’Utah et non pas sur les autoroutes urbaines engorgées de toutes les grandes villes du monde. La saturation de l’espace urbain, les redoutables problèmes des pollutions au NOx et des rejets de particules sont délibérément occultés par les constructeurs et seules les autorités de régulation tentent de faire progresser la profession. Maintenir le « désir d’automobile », qui est le leitmotiv d’une industrie qui ne connait son salut, dans son modèle actuel, que dans la production de masse n’est pas évident alors que les facteurs économiques, sans même invoquer la conscience environnementale, plaident pour un usage contrôlé et partagé de l’automobile.

Le marché cherche à couvrir tous les segments de la demande sans opter clairement pour des choix sociétaux vertueux. Les constructeurs se retranchent devant la logique de la demande contrairement aux industriels de l’informatique et de l‘électronique qui ont ouvert des horizons radicalement nouveaux en n’hésitant pas à sacrifier leurs prés carrés. Cette ambigüité pousse par exemple Renault, qui est avec Nissan le leader mondial des véhicules électriques, à relancer avec fierté sa marque de véhicule de sport Alpine et à revenir en Formule 1. Cette même ambiguïté pousse à mettre en avant le rêve technologique de la voiture autonome qui ne règle pas de façon évidente les problèmes de saturation de l’espace urbain ni d’optimisation du transport interurbain. Même autonome et électrique, une voiture de 1,5 tonne pour transporter en moyenne 80 kg n’est pas une bonne réponse technique au problème du déplacement. De plus, pour des raisons de sécurité évidentes, elle ne pourra être que coûteuse et donc ne constituer qu’une fraction infime du parc. Même Tesla qui se pare aussi bien de vertus écologiques que de culture technologique, classée fin 2015 troisième entreprise les plus innovantes du monde, fabrique un objet de plus de 2 tonnes, 5 m de long, pour rouler à 250 km/h. Certes, sans moteur thermique...

Renault-EOLAB-concept

Le concept car Eolab de Renault consomme un litre aux 100.


Sortie de la crise après avoir recherché en toute hâte, pendant cinq ans, à présenter une image plus en ligne avec les besoins de la société pour finalement n’avoir produit fin 2015 qu’un million de véhicules électriques, soit moins de 0,1% du parc mondial. La France se révèle plutôt pionnière avec 17000 voitures vendues en 2015, toutefois sur un volume total de 1,91 million de véhicules, et seulement 61000 hybrides. Le véhicule thermique conventionnel n’a pas vraiment été contesté au terme de ces années de crise. Des avancées techniques ont été réalisées, les voitures électriques et hybrides existent vraiment maintenant avec une offre significative, mais cela reste un marché marginal qui n'est pas vraiment poussé par les constructeurs, leurs réseaux, la presse automobile qui restent attachés aux valeurs conventionnelles de l'automobile. Ces maigres avancées ne créent pas les conditions d’une transformation de long terme de l’industrie. Pour avoir tout misé sur les marchés émergents pour relayer les marchés historiques saturés et contraignants, les constructeurs se retrouvent face à des murs bien solides : insolvabilité des clients du Brésil et de Russie, absence d’infrastructure moderne en Inde et, encore plus inquiétant notamment pour le segment premium, conscience chinoise de l’urgence de la réduction de la pollution urbaine et réveil de la morale nationale. Certes la baisse inattendue du prix du pétrole apporte, pour de mauvaises raisons, un peu d’oxygène dans des marchés très sensibles au prix du carburant, comme les Etats-Unis. Ce ne peut être une solution de long terme car elle diffère la recherche de solutions durables tant sur les motorisations efficientes que sur les usages.

Certes plusieurs tentatives existent. Le CES de Las Vegas, où les constructeurs étaient très présents, n’a pas insisté seulement sur les prouesses techniques des voitures connectés et autonomes, mais aussi sur la fonction de mobilité qui ne peut selon les constructeurs comme Ford que faire appel à plus de partage. GM a même présenté son accord avec Lyft, opérateur de covoiturage, où il a investi 500 millions $, comme modèle d’évolution. Or plus d’usage de chaque véhicule produit implique moins de volume de production ! Il est admis qu’un véhicule en autopartage remplace 7 voitures en pleine propriété, qui restent 97% du temps inutilisés

De plus la fuite en avant technique implique le recours à de multiples partenaires qui disposent de compétences exclusives. Le stand de Nvidia au CES volait la vedette à ceux des constructeurs avec ses démonstrations de capteurs et de traitement de l’image, essentiels au véhicule autonome. Bosch et Valeo exposaient également avec force démonstrations leur incontournable savoir-faire technique. Architectes et assembleurs, les constructeurs automobiles ne peuvent plus être leaders sur chaque composant de la chaîne de valeur et voient émerger de redoutables concurrents potentiels.

L’industrie automobile mondiale reste donc confrontée à des choix cruciaux. La voiture individuelle n’est qu’un outil qui s’insère dans une gamme de solutions de mode transport, collectifs ou partagés, qui s’est considérablement enrichie au cours des dernières décennies dans les pays matures, mais aussi en Chine. Fondamentalement, la voiture n’est pas la meilleure solution pour les transports intra-urbains. Or la population de la planète va se concentrer en ville. Inexorablement, la demande d’automobile en sera affectée. Il faut donc inventer des véhicules légers, électriques, partagés pour la fraction des usages qui ne peut être satisfait par l’offre mutualisée. Il en est de même pour les usages de loisirs et les transports péri-urbains et inter-urbains où le couplage transport partagé et gestion des rabattements de flux vers les infrastructures à haut débit implique également des véhicules appropriés. Il devient totalement absurde de concevoir des véhicules pour rouler à plus de 200 km/h alors que ce cas d’usage est simplement interdit partout sur la planète, en dehors des circuits.

La créativité des constructeurs devrait en priorité se concentrer sur l’allégement des véhicules, la simplicité des motorisations et la réduction drastique de leur impact environnemental comme sur l’agrément d’usage dans la vie de tous les jours. Certes il restera toujours un segment premium où les revenus des acheteurs comme leur ego leur permettent de justifier l’irrationalité de leurs achats, généralement payés par d’autres. Mais pour la majorité des habitants de la planète une voiture fiable, pratique et peu consommatrice de ressources naturelles est l’objectif premier. C’est au marché de la proposer et de la rendre accessible et attractive. C’est aussi au consommateur de montrer un nouveau niveau d’exigence pour contribuer à l’évolution de ce produit essentiel mais dont l’usage inapproprié est générateur de profondes perturbations.


L'économie collaborative est-elle fondée sur... le partage ?

La technologie avance, les grands acteurs se mettent en place et exploitent habilement leurs positions aux "postes de péage" de la société numérique. Faut-il craindre la construction de nouveaux monopole qui facilitant l'économie collaborative seraient les premiers à en tirer profit sans limite ? Le débat n'est pas simple alors que l'on s'interroge sur les emplois du futur et sur les mécanismes de financement des charges collectives mutualisées : fonctionnement de services publics, santé, prévoyance. Il faut inventer cette économie du XXIe siècle qui ne doit pas inquiéter mais faire réfléchir et agir sur des bases nouvelles. C'est le sens des travaux de l'Institut de l'Iconomie dont cet article est une production.

 

Article publié dans Le Monde du 4 février avec mes amis de l'Institut de l'Iconomie

 


Economie du partage ou hypercapitalisme ?
Les plates-formes numériques ne seront durables que si la rente qu'en tirent leurs propriétaires est redistribuée à leurs utilisateurs


Automatisation, robotisation, ubérisation : la révolution numérique porte la menace d'un chômage de masse. Il ne faudrait pas s'en plaindre, car la fin du travail ouvrirait, selon l'influent essayiste américain Jeremy Rifkin, une période d'activités bénévoles intenses. A l'image de Wikipédia, la connaissance, les images, les objets imprimables en 3D ne coûteront plus rien. L'énergie produite par chacun, le partage des objets et des services comme Vélib' ou Blablacar feront chuter les dépenses. L'économie du partage s'imposera ainsi jusqu'à éclipser le capitalisme et la nécessité de travailler.

Cette vision est séduisante, mais c'est un leurre. Cette nouvelle route du " communisme " conduit en réalité à l'hypercapitalisme. L'économie collaborative moissonne les richesses au profit d'une minorité, mais sans les redistribuer. Les contributeurs s'en indignent dès qu'ils en prennent conscience, ce qu'illustre le cas du Huffington Post aux Etats-Unis. Ce " Wikipédia du journalisme " faisait intervenir des milliers de chroniqueurs bénévoles, qui se sont révoltés le jour où le journal a été vendu pour 315 millions de dollars (plus de 288 millions d'euros) à AOL sans qu'ils reçoivent leur part.

Des milliers de crowdfunders (adhérant au financement participatif) se sont scandalisés quand Oculus, le développeur d'un système de réalité virtuelle auquel ils avaient apporté leur contribution,s'est vendu pour 2 milliards de dollars à Facebook. De plus, les grandes plates-formes de l'économie collaborative ne payent pas d'impôts. Sur ce point, cette économie ressemble à l'économie financiarisée, dans laquelle les plates-formes de trading à haute fréquence prélèvent leur dîme sans contrepartie. Dès lors, le cerveau, matière première du XXIe siècle, s'expose à la même surexploitation que les matières premières naturelles du XXe siècle. Dans sa forme actuelle, l'économie collaborative n'est pas durable.

Il faut donc introduire un nouveau mécanisme de partage des richesses. L'échec de la taxe Tobin nous a déjà montré que ce ne sera pas par l'impôt. Il vaut mieux s'inspirer des industries créatives, comme celles des jeux vidéo ou du cinéma, dont la production est monétisée par la propriété intellectuelle, ce que préconisait Maurice Lévy, le PDG de Publicis, dès 2006.

Innovations d'usage
Ce mécanisme doit intégrer une double détente, pour que le bénévolat initial puisse être rétribué équitablement dans le cas de sa monétisation indirecte, ce que recommande aujourd'hui le Conseil national du numérique. Il doit enfin s'adosser à des fonds souverains dont les actifs sont les brevets et les marques, sur le modèle déjà expérimenté de France Brevets, pour collecter des montants de redevances au lieu d'impôts.

Il faut aussi faciliter l'innovation d'usage, seule créatrice d'emplois, comme l'illustre la banque assurance. L'emploi de ce secteur était menacé par l'informatisation : le rapport Nora-Minc de 1978 anticipait 30 % de réduction d'effectifs à cause de l'automatisation du traitement des chèques, des distributeurs de billets, des relevés de compte, des virements, des prélèvements mensuels, de la comptabilité, etc. Mais, dans le même temps, les innovations d'usage apportées par l'informatique, comme la carte à puce ou la gestion personnalisée de portefeuilles de titres, ont plus que compensé ces réductions. Au final, les effectifs du secteur ont augmenté de 25 %. Aujourd'hui, le premier créateur d'emplois en France est de fait la société O2, dont l'innovation permet aux femmes de ménage de disposer de toute leur organisation dans leur smartphone.

La vision dominante de la révolution numérique est une menace. Quelques ajustements de partage des richesses et de doctrine économique permettraient d'en canaliser la puissance pour la rendre créatrice de nouveaux usages et de nouveaux emplois.

par Vincent Lorphelin, Jean-Pierre Corniou et Christian Saint-Etienne


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Décryptages du CES, suite...

On peut faire une première lecture du CES. Elle est déjà stimulante ! Elle consiste à lire en direct le flot des innovations techniques servi par la forme brillante que savent déployer les entreprises américaines. C'est le temps de l’enthousiasme. Il y a un second niveau de lecture, qui n'est plus dans le "quoi" de la révolution numérique mais dans le "pourquoi". A chaque étape de la remise en cause du système socio-technique, les humains ont cherché à comprendre le pourquoi de ce changement qui allait bouleverser leur vie, souvent d'ailleurs de façon tacite. Evidemment c'est une phase de questionnement et de doute. Le marketing du strass et des paillettes n'a plus cours : il faut trier ce qui est pertinent pour la vie des humains et qui va rester.  C'est le temps de la lucidité...

Le CES constitue une chambre de résonance exceptionnelle où se mêlent les histoires  des produits,  des entreprises et des entrepreneurs qui produisent l’économie numérique. Les key notes  en sont les amplificateurs. Le talent de communicateur des dirigeants invités est servi par des moyens techniques qui assurent une orchestration parfaite de l’histoire qu’ils ont choisi de raconter. Le casting de ces key notes est aussi révélateur du poids accordé par la CTA – Consumer Technology Association– à chaque entreprise et à chaque tendance structurante de la révolution numérique. La puissante CEA qui organise le CES, sous la férule de son dynamique président, Gary Schapiro,  a changé de nom cette année en abandonnant l’appellation historique de Consumer Electronics Association pour remplacer Electronics par Technology, ce qui illustre parfaitement le changement de positionnement du CES. La CTA demande d’ailleurs de ne plus décliner l’acronyme, l’évènement CES dépassant désormais largement les frontières du monde de la consommation.

Ces symboles savamment distillés traduisent bien l’évolution du CES. Naguère grand salon du son et de l’image, c’est aujourd’hui plus qu’un vaste marché. C’est un carrefour de rencontres, un lieu où s’expriment les tendances mondiales du marché. Derrière la force de ces démonstrations et l’habilité du spectacle, toujours réussi, il faut tenter de décrypter les messages porteurs de sens pour la grande histoire de la construction numérique dont nous sommes les témoins en temps réel. Car le CES provoque aussi un effet de halo qui projette des tendances sans lendemain. La montée et la chute de la télévision en 3D en sont un exemple récent. Au-delà des spectateurs immédiats, c’est le marché et les investisseurs qui sont les destinataires de ces messages. Les 3500 journalistes présents assurent une couverture médiatique unique à l’évènement. Emmanuel Macron à Las Vegas, surtout quand il intervient dans une key note, devient une star mondiale. La Poste présente au CES, c’est un message très fort qui a un retentissement majeur en France. Le détour par Las Vegas est un amplificateur de renommée, et un accélérateur d’affaires, surtout quand on y est couronné par un Award.

L’édition 2016 a vu apparaître plusieurs nouveaux venus - Reed Hastings, CEO de Netflix, Herbert Diess, CEO de Volkswagen, Mary Barra, CEO de General Motors, Ginni Rometty, CEO d’IBM, Robert Kyncl, Chief Business Officer de YouTube – relayer les habitués.

Si Diess était plus dans la contrition que dans la démonstration, Brian Krzanich CEO d’Intel est intervenu pour une seconde présentation  très « hype » pour démontrer qu’Intel est tout à fait  engagé dans l’internet des objets. IBM qu’on ne voit jamais est obligé de démontrer que son choix stratégique d’abandonner le matériel au profit des logiciels et des services de l’intelligence artificielle est justifié, alors que le chiffre d’affaires ne cesse de régresser. Mary Barra, qui remplaçait Ford un grand habitué du CES, a fait une démonstration sans révélation de l’intérêt de GM pour le véhicule électrique en présentant son dernier modèle.

La thématique majeure de tous ces acteurs est de montrer que le monde numérique constitue un ensemble homogène où tout – personnes et objets – est connecté. Cette omni-connexion n’a qu’un but : améliorer le sort de l’humanité. Cette affirmation, constante, ne souffre d’aucune limitation. Gary Shapiro admet bien toutefois que les « bad guys » peuvent aussi tirer profit de cet univers connecté. Mais cela ne doit en rien ralentir l’enthousiasme – « amazing » reste le maître mot -  et surtout justifier un interventionnisme gouvernemental.

Bien entendu les messages commerciaux ne sont jamais loin. Il faut convaincre les consommateurs et les investisseurs de la pertinence de la vision stratégique. Pour un Français, l’excès de publicité peut l’emporter sur la pertinence stratégique du message. Ce point a été notamment évoqué pour Netflix, qui n’a pas hésité à en rajouter pour montrer qu’Hollywood, désormais, c’était eux, en convoquant force acteurs et bandes annonces, ou pour Intel dont les invités multiples n’ont pas été avares de louanges pour expliquer que sans Intel, la musique, les drones, la mode et même la banque ne seraient pas les mêmes. La palme de la sobriété a été décernée à Samsung qui distillant le même message – nous sommes la plate-forme de référence – l’a fait avec méthode et pédagogie.

Trois idées fortes et partagées émergent de ces discours et de ces images:

  • Plus personne ne réussit seul. Le temps est à la coopération.
  • Laisser parler clients et partenaires, ils sont plus convaincants que vous pour expliquer que la coopération est indispensable
  • La disruption c’est vraiment mettre le client au cœur de son attention, et donc du business. Pour parler au client, il ne faut pas hésiter à se défaire de toute intermédiation. Il faut toujours se positionner au plus près du client de peur que quelqu’un d’autre le fasse.

L’éloquente démonstration de Netflix, au-delà du discours promotionnel, était centrée sur le caractère vital de la maîtrise technique pour être capable de servir le client.

Frank_Underwood_-_House_of_Cards

Oeuvre phare qui a lancé vraiment Netflix

Reed Hastings a expliqué comment, d’entreprise de vente par correspondance, mettant des DVD dans des enveloppes, Netflix est devenu producteur et diffuseur de contenus dans le monde entier. C’est par la maîtrise du video streaming, sur tous les réseaux, tous les formats d’écran qui a permis à la plate-forme de rentrer directement chez le client, et d’en connaitre les moindres réactions face au contenu diffusé. C’est cette connaissance intime, millimétrée, des clients qui permet à Netflix de devenir producteur de contenus à succès. Dès lors Netflix peut s’affranchir des autres producteurs de contenus en maîtrisant parfaitement toute la chaine de valeur. La leçon s’applique à tout acteur qui loin en amont du client dépend de l’improbable bonne volonté des intermédiaires pour améliorer sa performance. Il y a ainsi une forte aspiration vers l’aval des producteurs qui ne peuvent plus camper sur leur positionnement B2B historique.

Mais ce mouvement vital n’est pas à la portée de chacun. La culture interne, le poids des processus, la résistance des intermédiaires, l’image institutionnelle empêchent bien souvent de sortir du statu quo, quand ce n’est pas par simple inertie. Malgré ses efforts massifs, Intel a beaucoup de peine à sortir de l’image du couple Wintel et à apparaître comme un acteur majeur du monde de la mobilité contrairement à Qualcomm. Faute de succès rapide dans cette mutation, il tente de devenir incontournable dans le monde de l’internet des objets. Tous les constructeurs automobiles cherchent avec la voiture connectée à se rapprocher du client final en en connaissant les comportements. Mais c’est un mouvement tardif, qui peine à renforcer l’intimité client en hors de quelques constructeurs premium au moment où les clients se passent des constructeurs pour valoriser leurs véhicules par l’autopartage et le co-voiturage.

La leçon du CES 2016 est que le monde de l’internet et du web n’a pas fini de déstabiliser les acteurs en place au profit de nouveaux venus qui en ont compris, dans leur ADN, tous les éléments. L’internet des objets, nouvelle frontière, ne va pas simplifier la tâche des acteurs historiques. Dans tous les domaines, notamment le transport, l’énergie, la santé, la capture de l’information dans les objets en réseau va donner aux acteurs de l’information numérique une place majeure. Curieusement le peu de présence au CES de l’industrie bancaire tend à dissimuler une conséquence majeure de l’internet des objets : la prochaine disparition du cash, déjà largement engagée en Europe du Nord, et sa transformation par des échanges électroniques qui vont donner aux plate-formes de l’internet un rôle prééminent.

Le CES 2016 ne fait que marquer une étape dans la grande restructuration en cours de l’économie mondiale qui, pour l’instant, est dominée par les produits et la culture des Etats-Unis. L’information s’impose comme matière première du service  et de la création de valeur. Elle s’appuie sur les réseaux - internet et les réseaux de l’internet des objets -, le traitement des données, la restitution en temps réel et contextuelle des informations utiles, l’automatisation des processus enrichie par l’intelligence artificielle. Ceux qui comprennent les enjeux de cette nouvelle économie en deviendront, pour un temps, les leaders.

Chacun se bat pour se situer au plus près du client final au carrefour de la création de valeur entre objets, réseaux et service. C’est une quête risquée et passionnante dont l’issue ne peut être qu’incertaine. Derrière les déclarations d’autosatisfaction, savamment distillées, tous les acteurs de l’économie numérique ne peuvent être que lucides : tout peut changer vite. Et seule la vitesse d’action offre le moyen de s’adapter.


Le CES, un irremplaçable observatoire de la révolution numérique

 

S’il fallait résumer l’esprit de l’opus 2016 du CES, il faudrait insister sur le fait que l’innovation ne réside pas dans la pertinence d’une idée, mais dans la force de son déploiement. Bien entendu le CES 2016 fourmille d’idées nouvelles et les 250000 m2 des stands de  cette exposition hétéroclite et chatoyante recèlent des pépites qui deviendront certainement dans cinq ans d’évidents grands succès. Il suffit, pour se convaincre de la vitalité de la création numérique, d’arpenter les allées du Sands où sont installés les start-ups de l’Eureka Park ou exposés les Awards de l’année, distinction fort prisée à l’impact commercial convoité. Les idées foisonnent, la conviction des créateurs est contagieuse. Et la forte présence des stands de la French Tech rassure sur la capacité de notre pays à  innover, d’autant plus qu’on y rencontre de fortes délégations de dirigeants français, emmenés par Emmanuel Macron ou Pierre Gattaz.

375ece3498429295cb54f95f9cd0fe3b297af8c3

Mais la force qui émane du CES est la démonstration vivante du passage de l’idée au déploiement massif. D’année en année, la reconfiguration dynamique des espaces du CES, partagé désormais entre l’historique LVCC, Las Vegas Convention Center, et le Sands, dont il a chassé le salon de l’érotisme, montre bien, symboliquement,  la nature de la révolution numérique. C’est dans la vitesse et la profondeur de la propagation des idées neuves que se jouent les transformations. C’est dans l’adaptation permanente des structures, des comportements, des pratiques sociales que la métabolisation des percées techniques se transforme en innovation sociétale. Le CES, avec la souplesse d’adaptation de ses structures physiques, de ses programmes de conférences, le choix de ses conférenciers est la démonstration vivante et symbolique de la révolution numérique.

S’il a fallu soixante ans pour électrifier la France, il n’a fallu que huit ans pour que le concept imaginé par Steve Jobs d’un ordinateur mobile, pouvant téléphoner, léger et autonome, couplé à un magasin d’applications, séduise la totalité de la planète. C’est parce que la simplicité de ce modèle a convaincu les utilisateurs d’y adhérer sans réserve qu’aujourd’hui des milliards de smartphones, de tous prix, peuvent accéder à des millions d’applications, gratuites ou très peu couteuses, couvrant à peu-près toutes les situations, tous les besoins, tous les désirs. Le smartphone - dont on ne peut plus vraiment dire qu’il est un « téléphone », même intelligent, tant la partie de communication vocale s’est marginalisée pour ne représenter plus que 15% des usages - est devenu la porte d’entrée incontournable de toute application numérique.  Il s’en est vendu 1,4 milliard en 2015. C’est cette universalité, garantie par une standardisation des interfaces et l’interopérabilité des techniques, qui confère sa pertinence au smartphone, couplé à un foisonnement d’applications.

C’est aussi parce que l’industrie est passée d’un modèle d’intégration verticale, qui était la force de l’informatique des années soixante-dix à quatre-vingt-dix avec les exemples d’IBM ou de DEC, à un modèle  de « monopoles de couches », unifié par les techniques de l’internet, que l’on peut disposer d’une grande souplesse dans les solutions et dans les usages. Seul Apple, qui a toujours ignoré le CES,  apporte aujourd’hui le contre-exemple, brillant, d’un industriel qui réussit à maitriser l’ensemble de la chaine de valeur, des matériels au système d’exploitation et aux logiciels. Cette stratégie solitaire est payante car même dans le segment en déclin des PC, il est le seul à progresser.

Le CES illustre bien la nouvelle structure de l’industrie. L’universalité de l’accès renvoie au rang de commodités les outils – PC, tablettes, hybrides, smartphones – qui ne sont plus les vedettes du CES tant la profusion de modèles et leurs capacités analogues ne constituent plus un facteur de choix essentiel. Alors que mondialement le marché des PC est en décroissance continue (-10% encore en 2015) , les nouvelles générations de smartphones sont jugées peu innovantes et ne se jugent que par la taille de leurs écrans dans un marché où les positions des constructeurs sont figées, les clients démontrant une grande fidélité à leur marque. Le marché des smartphones pourrait atteindre rapidement la saturation. Le marché des tablettes n’a pas pris le relais attendu, mais les hybrides – tablettes avec clavier aux performances d’un PC – semblent profiter de l’atonie des marchés des produits matures pour émerger.  Les clients sont devenus pragmatiques. Ils conservent plus longtemps leurs appareils et construisent leur propre pratique d’usage à travers divers outils de façon souple et personnalisée. Ceci rend d’ailleurs incontournable le développement des pratiques de « BYOD », Bring Your Own Device, tant l’appropriation individuelle est forte.

L’âge de l’accès, c’est bien sûr les écrans, de toutes tailles, de toutes natures. L’image est omniprésente. Toute information est appelée à être visualisée sur un écran, fixe ou mobile, partagé ou intime. La course à la performance continue d’année en année. Après la Haute Définition, c’est la 4K, à 4096 pixels,  qui s’impose. La 8K est déjà présente. L'adoption par l'industrie du standard HDR s'inscrit dans cette volonté d'accroître le réalisme des images. Les écrans LED font de la résistance face aux OLED, encore plus lumineux et économes en énergie, dont la mise au point industrielle en grande série se révèle plus complexe que prévu. Seul LG semble en maitriser la production au point d’en inonder son stand, alors que Samsung fait la promotion de son interprétation de la UHD, Ultra Haute Définition. La taille des écrans de salon ne cesse d’augmenter, et leur prix de baisser. La qualité progresse continûment sans que les industriels ne soient en mesure d’en profiter tant la compétition est intense. La télévision en 3D, apparue si prometteuse en 2011, n'a pas atteint sa cible commerciale faute de contenu et par manque de confort de vison et les constructeurs n'en parlent plus. On voit toutefois encore quelques tentative d'écrans 3D sans lunettes. Toutefois la qualité d'image procurée par la 4K donne une impression de profondeur qui rend la 3D inutile.

Les industriels japonais sont frappés par cette course en avant, Panasonic est le seul à vouloir se maintenir, le stand Sony est terriblement triste alors qu’il était un des points d’attraction des dernières années. Sharp, pourtant innovant avec son quatrième pixel, jaune, n’est plus là. Toshiba non plus.  Parmi les industriels chinois, seul Hisense semble maîtriser la technique et le design pour être une alternative aux constructeurs coréens, ses confrères Haier et Hank Kong ne sont pas encore au niveau international.

Pour une manifestation qui fut longtemps exclusivement un salon du matériel, image et son, l’enjeu est d’intéresser aux usages par définition, multiples et immatériels.

C’est pourquoi le CES tend aujourd’hui à mettre en scène les usages avec une remarquable capacité d’adaptation.

Le numérique s’infiltre dans les métiers traditionnels comme l’automobile et l’habitat, mais fait aussi naître de nouvelles activités comme les objets connectés sportifs, les drones, les imprimantes 3D, les robots. Les stands attribués à tous ces métiers ne cessent d’année en année de grandir.

La mutation  des drones

Près de cinquante stands montrent des drones, qui n’étaient présents au cours des années précédentes que de façon anecdotique. Perrot, qui en fut l’initiateur, n’est plus qu’un acteur parmi d’autres. Mais les drones se diversifient en tailles en en usages. Leur professionnalisation est impressionnante. De jouets ils sont devenus incontournables dans l’industrie de l’image pour leurs capacités de prise de vue spectaculaire et peu onéreuse. Ils sont auxiliaires de force de sécurité et de surveillance. Armés de caméras infrarouges, ils contrôlent la performance thermique des bâtiments. Ils aident enfin à l’optimisation des cultures. Le drone s’imagine même comme moyen de transport logistique ou de passager.

L’imprimante 3D devient un centre d’usinage

Les imprimantes 3D vivent la même mutation. Initialement coûteuses et lentes pour être limitées à quelques objets basiques, elles connaissent une diversification spectaculaire pour constituer un outil industriel crédible. Toutes les matières sont accessibles, y compris le métal. Et la technique additive permet de produire des objets complexes en 3 D en petites séries. Non seulement elles s’imposent pour tout ce qui est maquette et prototype, mais elles deviennent de véritables centres d’usinage permettant de gérer tout le processus de production, en scannant n’importe quel objet pour le reproduire avec précision. La vitesse d’opération augmentant, la productivité de ces machines rend crédible leur présence dans les ateliers. C’est donc une révolution industrielle qui s‘engage progressivement, l’imprimante 3D s’inscrivant dans la démarche plus large de l’optimisation industrielle 4.0.

L’automobile un objet de consommation électronique

L’automobile, qui n’était présente dans un passé récent dans le hall Nord que sous forme de kits monstrueux d’amplificateurs de son est aujourd’hui riche de nombreux stands centrés sur le savoir-faire numérique des constructeurs. Presque tous les constructeurs sont là.  De même, ils participent désormais activement aux keynotes. Après Mercedes et Ford dans les éditions précédentes, cette année ce sont Volkswagen et GM qui ont voulu démontrer leur expertise dans les véhicules connectés et autonomes. De façon plus générale, la mobilité est à l’honneur avec son corollaire numérique, la géolocalisation. Les équipementiers Valeo, Bosch, comme Here, l’ancien Navteq, sont très présents.

Capture d’écran 2016-01-19 à 23.49.15

C’est bien entendu les capteurs, radars, lidars (télédétecteur laser) qui sont à l’honneur. Ils permettent, associés aux logiciels temps réel de reconnaissance de formes et de géolocalisation fine d’analyser l’environnement du véhicule pour aider le conducteur à prendre les meilleurs décisions, avant, stade ultime de la délégation de conduite, de le faire à sa place.  Tous les constructeurs montraient leur savoir faire en la matière, notamment Hyundai, mais c’est le fournisseur historique de cartes graphiques Nvidia qui démontraient avec le plus de pédagogie son expertise.

Le monitoring du moi

Dans la grande famille, en expansion continue, des objets connectés, le « monitoring du moi » occupe une place centrale. Il ne reste plus de fonction qui échappe à la possibilité de suivre en direct ses performances ! Que ce soit l’activité  sportive, sous toutes ses formes, le poids, la tension, le rythme cardiaque, tous les paramètres font l’objet de capture et de traitement sous forme de courbes et de conseils . On peut même connaitre la composition exacte des aliments que l’on consomme et avoir un conseil alimentaire personnalisé. Les grandes marques d’équipements sportifs comme Polar ont une expérience en mesure de l’activité sportive et proposent une gamme de produits pointus. Fitbit, Withings continuent à étendre leurs gammes plus grand public. La montre connectée devient un marché généraliste de grande con sommation. Aux Etats-Unis, un foyer sur dix disposait en 2015 d’un tracker d’activité représentant un chiffre d’affaires de 1,8 milliard $.

Le confort et la sécurité du domicile

Marché ancien, naguère fractionné, analogique et propriétaire, la domotique connait grâce au numérique une nouvelle jeunesse. Tout est connecté au web et accessible par l’intermédiaire du smartphone. Au carrefour de plusieurs préoccupations, la sécurité anti-intrusion, la sécurité des personnes, le confort thermique et la maîtrise de la consommation énergétique, la domotique embarque de nouvelles fonctionnalités en créant des liens entre différentes activités. Connaissant le rythme de vie des personnes de la maison, et leurs habitudes, il est désormais possible de gérer dynamiquement la température, l’éclairage, mais aussi la qualité de l’air, les habitudes musicales, les programmes de télévision, voire même les repas grâce au réfrigérateur connecté. Tous les capteurs installés dans la maison et dans les appareils peuvent orchestrer  des scénarios de vie. L’usage de ces outils pour le maintien à domicile des personnes âgées est un facteur naturel d’équipement et de services de télésurveillance et télédiagnostic. Si l’inventivité des fournisseurs est sans limite, se posent les questions de l’interopérabilité de ces capteurs et de ces fonctions, mais aussi celle de leur installation et de leur maintenance. Qui peut gagner la bataille de la maison ? Les fournisseurs historiques d’équipements cherchent à résister aux nouveaux acteurs numériques pour devenir le tiers de confiance du domicile. Il faut souligner le travail effectué par La Poste grâce à son hub numérique pour occuper cette place convoitée d’intégrateur.

Capture d’écran 2016-01-19 à 23.48.24

Foisonnant, vibrant, le CES 2016 confirme sa place de lieu emblématique de la révolution numérique qui se déploie dans tous les métiers, sous toutes les formes, dans tous les pays. C’est un carrefour dont on ressort saturé d’images, de sons, de messages dont il faut tirer les éléments de compréhension des potentialités et des risques du tsunami numérique. Il est impératif  à partir de ces données de construire des principes d’action lucides et résolus pour en bénéficier sans en être submergé.


Tendances lourdes de l’évolution de l’informatique... Ma vision en 2000

J'ai vu avec grand intérêt l'exposition du Musée du Louvre inspirée par la livre de Jacques Attali, "Une brève histoire de l'avenir". Le livre m'avait beaucoup plus à sa parution en 2006. Je suis fasciné par la compréhension des mécanismes de construction de la marche en avant de l'humanité et si je pense que la technique nous donne aujourd'hui  de superbes moyens de faire vite et bien des choses formidables, je ne crois pas que nous ayons beaucoup changé dans notre manière de penser et de nous comporter en société. Peut-on imaginer le futur, combinatoire aléatoire de potentiels techniques et de comportements ? C'est d'ailleurs un thème récurrent dans les livres de J. Attali. Je me méfie toujours de mes certitudes ayant très peur de tomber, malgré moi, dans le biais cognitif de la machine à fabriquer de la pensée unique. Aussi, grâce à cette mémoire qu'apporte la technique, il est toujours intéressant de se replonger dans ses écrits anciens pour vérifier le bon réglage de la machine intuitive à imaginer le futur. Je suis tombé sur ce "vieux" texte de 2000 alors que j'étais CIO du groupe Usinor. Je ne le renie pas.

 

Tendances lourdes de l’évolution de l’informatique

Le monde a subi deux chocs majeurs en cette fin de siècle, l’effondrement du système communiste en 1989 et l’irruption du Web en 1993. Concomitants, et bien que nourris par des facteurs issus de logiques bien différentes, ces deux faits ont libéré des forces convergentes qui façonnent à grande vitesse un système économique mondial dont les règles semblent désormais s’imposer sans contrepoids. Libre circulation des biens, des personnes et des idées, instantanéité et simultanéité de l’information sans limite, éclatement des frontières entre secteurs, entre entreprises, entre disciplines scientifiques caractérisent non seulement l’économie mais désormais la société dans son ensemble.

Pour le monde de l’informatique, déjà transformé dans les années quatre-vingt par le développement sauvage de la micro-informatique, le Web a été un séisme majeur dont les répliques ne finissent pas d’ébranler tous les acteurs : constructeurs, éditeurs de logiciels, sociétés de service en informatique, et bien sûr directions des systèmes d’information.

Mais le véritable changement ne réside pas seulement dans les révolutions de palais qui bouleversent les hiérarchies du monde de l’informatique. Certes les nouveaux venus du Web, comme Cisco, ont rapidement fait de l’ombre aux plus anciens, qui n’ont pas su tirer aussi bien profit de la formidable demande d’infrastructure générée par Ia démocratisation d’Internet. De même, Dell a surclassé ses concurrents pourtant puissants en exploitant le premier, dans le scepticisme général, la souplesse industrielle et commerciale qu’offre le Web. Depuis peu, tous les grands noms de la construction ou de l’édition informatique ont compris la leçon et se précipitent tous vers la manne du Web, en se contentant parfois de n’apposer que le E- ou @ magiques sur leur marque. Or de nouveaux acteurs, issus réellement de l’économie du Web, ne cessent d’entrer sur le marché avec des ambitions et des talents que les plus anciens ont des difficultés à imiter.

Mais le phénomène le plus déstabilisant est le débordement de la vitalité de l’informatique en dehors de ses frontières naturelles. L’évidence, c’est que l’informatique n’appartient plus aux informaticiens et aux acteurs qui la « fabriquent » mais à ceux qui l’utilisent pour défricher des chemins nouveaux, usages, marchés, modes. Le Web a rendu, définitivement, l’informatique à ses utilisateurs et cela constitue un phénomène de société dont on ne mesure encore que faiblement les conséquences.

L’avenir de l’informatique se joue donc plus en dehors de ses frontières qu’à l’intérieur. En effet, les deux moteurs de l’informatique, puissance et capacité de transmission, sont bien rodés. Tant que le loi de Moore continuera à accélérer la performance brute des microprocesseurs, et tant que la bande passante des réseaux continuera à croître, et on peut raisonnablement penser que ces deux vecteurs de progrès ont encore au moins quinze années de gisement de performance à exploiter, l’informatique sera entraînée dans une course permanente vers l’accroissement des performances et la baisse des coûts. En même temps, cette logique va accélérer sa banalisation et diluer son identité pour laisser la place aux logiques classiques de concentration industrielle et de compétition aiguë sur les prix .

Sur ce socle de base, dont les mécanismes ont déjà nourri les grandes révolutions techniques précédentes, viendront se greffer de multiples composantes additionnelles : légèreté, autonomie accrue, amélioration de l’interface homme-machine, qualité des supports…

La combinaison de ces paramètres va faire naître de multiples formes d’outils, généralistes ou adaptés à chaque usage. L’ordinateur « classique » va donner naissance à une nombreuse famille de terminaux inter-reliés par le réseau., dont les utilisateurs vont très vite oublier qu’ils ont en mains des outils « informatiques »  puisqu’ils sont animés par des micro-processeurs. Vont apparaître ainsi de multiples « machines intelligentes », version corrigée de leurs ancêtres mécaniques et analogiques, comme l’automobile ou le téléphone, ou objet radicalement nouveaux comme le livre électronique, ou la montre GPS…

Face à cette abondance, le marché tranchera peut-être entre deux tendances qui d’ores et déjà se dessinent. D’une part, les constructeurs chercheront à simplifier l’usage par le cumul de fonctions sur une même machine ( téléphone numérique + assistant personnel + terminal d’accès à Internet), d’autre part certains produits vont rester dédiés à une seule fonction (le téléviseur grand écran, l’appareil photo ou la caméra vidéo numérique). Mais l’interconnection de ces différents outils sera facilitée par des protocoles d’échange à haut débit qui devraient rapidement se passer de câbles en utilisant les fréquences radio ou les infrarouges.

La diversification du nombre de « machines intelligentes » va aussi tirer partie de la normalisation des logiciels. Il faut pour échanger sur Internet déchiffrer sans peine, c’est à dire instantanément et sans connaissance technique, les informations que l’on reçoit. C’est pourquoi tous les éditeurs sont condamnés à exploitent les standards comme Java, JPEG, MPEG ou MP3. La qualité des algorithmes de compression ira en croissant, ce qui permettra, de pair avec l’accroissement de la bande passante, d’échanger des informations complexes, comme la vidéo de qualité broadcast, la téléphonie vocale.. Cet enrichissement des supports autorisera une grande créativité dans les contenus, et tant le commerce électronique que des activités comme l’éducation ou la formation continue seront rendus encore plus attractifs.

Pour l’entreprise, l’économie de l’Internet est le formidable facteur de remise en question des prochaines années. Toute la conception traditionnelle des processus commerciaux et industriels, comme les processus de gestion internes est à repenser. Le vaste mouvement de réingénierie des années quatre vingt-dix, appuyé sur les ERP, est à reprendre sur des bases nouvelles, car peu de consultants ou de dirigeants avaient imaginé l’ampleur de la révolution à venir. La logique de création de valeur qui a légitimé les grandes réorganisations et les fusions d’entreprises n’a pas exploité le gisement de compétences, d’autonomie et de créativité que révèle l’extraordinaire facilité de communication et d’échange au sein des entreprises et entre elles. L’ERP normalisateur n’est aujourd’hui qu’un socle minimal qui doit être enrichi d’outils de gestion de la « supply chain » et de la relation directe avec le client. De plus, la gestion des connaissances sera une des priorités des directions générales pour développer une dynamique de progrès permanent ferment de créativité et donc d’avantage concurrentiel. Le commerce électronique n’est pas seulement installer une vitrine sur Internet, mais explorer de nouveaux modèles d’affaire qui impliquent l’entreprise tout entière en plongeant dans ses processus fondamentaux.

Dans ce contexte de généralisation du travail en réseau, l’autonomie de décision des équipes informatiques sera réduite car d’une part le marché grand public est désormais déterminant pour les constructeurs et les éditeurs et d’autre part les échanges inter-entreprises ne peuvent se faire que sur des bases communes et ouvertes. Les services informatiques doivent devenir le cœur de la stratégie Internet en construisant les infrastructures et les méthodologies nécessaires.

Les machines utilisées en entreprise, comme les logiciels seront de plus en plus semblables à ceux du marché domestique, tant pour des raisons industrielles que pour la commodité d’usage et de formation. Déjà Internet et Intranet déclinent les mêmes principes et la même esthétique. Un portail d’entreprise efficace ne présente pas de différence avec ceux de grands fournisseurs d’accès du monde de l’internet. La messagerie Internet l’a emporté sur les messageries propriétaires. Les salariés exigeront de travailler en entreprise avec les mêmes outils que ceux qu’ils utilisent chez eux, comme les clients voudront accéder à leurs fournisseurs avec les mêmes produits que ceux qu’ils utilisent pour eux. Tout ceci pousse à une très grande normalisation des logiciels comme des données.

Par ailleurs, l’obligation d’échanger entre entreprises va laminer les spécificités de langage, de normes. Pour se comprendre, les systèmes d’entreprise devront exploiter les standards du marché. L’entreprise étendue est pas nature constituée par l’interconnexion de systèmes qui ne peuvent être homogènes et devront donc apprendre à se comprendre de façon rapide et peu onéreuse. L’ancêtre EDI, dont les exigences techniques imposaient un coût non négligeable et une compétence spécifique se simplifiera au sein de grands extranets professionnels comme le réseau ANX pour l’industrie automobile américaine.

L’insécurité sur le Web, problème avancé souvent comme la justification de beaucoup d’entreprises pour ne pas s’engager ouvertement sur la voie du commerce électronique, sera vraisemblablement un problème résolu par l’amélioration des outils de cryptage et d’identification individuelle ( normalisation SET). La généralisation de la carte à puces ( enfin reconnue aux Etats-Unis comme « smartcard ») donne le moyen souple et individuel de renforcer la sécurité. Toutefois, la course éternelle entre le gendarme et le voleur se poursuivra sur le Web ce qui impliquera également le renforcement des moyens publics de sécurité, police et justice.

L’informatique du futur est donc une informatique invisible et omniprésente, dans les foyers comme en entreprise et dans la cité. Cette banalisation des composants –matériels, logiciels, normes – va en généralisant l’usage, libérer une énergie créatrice qui, en revanche va permettre la diversification des produits et services dans tous les domaines.

Cette mutation majeure va peut-être réconcilier l’humanité avec l’idée de progrès durement contestée au cours du XXé siècle.

Jean-Pierre Corniou

CIO, Usinor


A la recherche d’un nouvel équilibre

 

Le monde numérique n’est pas une abstraction théorique : c’est le monde physique d’avant auquel a été ajouté une couche nouvelle, pratique, esthétique, conviviale, permettant de faire rapidement et de façon simple des tâches souvent très basiques. Même si se prendre en photos sur Instagram ou s’envoyer des messages sur WhatsApp sont des activités qui absorbent beaucoup de temps, cela ne suffit pas à construire le monde de demain, qui sera aussi matériel. Les acteurs du numérique ne s’y trompent pas. C’est bien dans le monde physique que l’économie continue de se développer. Concevoir, produire, distribuer, consommer, se déplacer sont autant de tâches que le numérique contribue à faire évoluer mais qui demeurent, pour l’essentiel, physiques. Ce n’est pas un hasard si le président Obama a clairement annoncé à l’ouverture de la COP 21 que l’avenir de l’énergie résidait dans les géants du web, et que Bill Gates lance une fondation pour financer les travaux dans ce domaine. Cette initiative « Mission Innovation / Clean Tech » vise à financer les travaux destinées à trouver des solutions bas carbone dans l’énergie. La révolution numérique ne se joue pas seulement dans le monde étroit des « producteurs  de plateformes », elle se joue quotidiennement dans tous les secteurs d’activité en instillant dans les pratiques anciennes les idées neuves permettant de faire mieux pour les personnes et pour la planète. Or le web, décentralisé, fondé sur le fait que chacun est à la fois émetteur et récepteur des réseaux interactifs s'installe dans le paysage institutionnel comme étant le modèle de ce qu'il faut faire dans toutes les activités. Reconnaitre que l'intelligence est dans le réseau et non plus seulement dans le centre est une remise en cause de la pensée fondatrice du système hiérarchique pyramidal. Par vagues, l'utopie fondatrice du web se développe dans des secteurs bien lointains de ceux qui l'ont vu naître, l'énergie par exemple. Si le coeur de la forteresse du web est bien tenu par les tycoons milliardaires de la Silicon Valley, tout le reste est à conquérir. Il reste toutefois à démontrer que les entreprises du XXe siècle sauront s'adapter suffisamment vite avant que les leaders du web ne s'emparent de leurs domaines. Or ils ont prêts à le faire. La course est engagée.

 

6965447

Centrale solaire dans le désert de Mojaves aux Etats-Unis

Disrupter les disrupteurs

Le monde du web n’est pas figé. Les positions, même dominantes, ne sont pas définitivement acquises et les changements de pratiques des utilisateurs sont rapides. Aussi les contre-attaques sont possibles en trouvant de meilleures idées de produits et de services, de chaînes de valeur, d’alliances ou d’interfaces techniques. C’est souvent dans le détail que se fera la différence. La contre-offensive des secteurs conventionnels est engagée. Il est intéressant de voir comment G7 a réagi contre Uber en améliorant son service de façon rapide sur les mêmes plans que son compétiteur : paiement par carte, voiture impeccable, chauffeur attentionné. Mais G7 est allé plus loin avec le service de desserte des aéroports Wecab qui permet, avec un prix fixe, de partager le véhicule avec une autre personne pour réduire le coût par passager, mais aussi l’encombrement et les émissions. Le groupe Accor a engagé une riposte autant contre Booking que contre Airb’nb. La SNCF ne cesse d’améliorer son service numérique en dématérialisant totalement titres de transport et cartes d’abonnements. Les banques installées sont les premières à développer les services numériques en ligne. Il ne faut pas se réjouir des coups portés contre les entreprises du CAC 40, car c'est un système global qui assure notre prospérité qui est menacé. Il faut au contraire pousser les entreprises du XXe siècle à se transformer, parfois radicalement comme le fait avec talent la Poste depuis dix ans.

Ainsi, le journal montréalais de langue française, La Presse, fondé en 1884, vénérable institution de plus de 130 ans, a inventé un nouveau support numérique qui allie un format mobile original, la qualité rédactionnelle et la richesse de l’iconographie. Séduisant les annonceurs avec ce nouveau support, la Presse +, le journal numérique est rentable ce qui va permettre dès janvier 2016 de supprimer le coûteux format papier en semaine. Comme le déclare Jean-Marc de Jonghe, vice-président numérique de la Presse, l’objectif est de fournir « quelque chose de pertinent dans la vie des gens. » La technique doit s’effacer au service du sens.

Si l’économie européenne a perdu la bataille des plate-formes, elle n’a pas perdu celle du sens et c’est là où se situe véritablement la compétition de demain. Les techniques sont fragiles, volatiles, les fortunes obtenues par les tycoons ne sont pas pérennes, d’autres viendront changer cet ordre. Mais ce qui est pertinent c’est l’usage de la technique dans la vie des gens. Et sur ce point il n’y a pas de barrière ! Les brillantes jeunes pousses françaises comme Withings et Netatmmo, Criteo et Sigfox, Blablacar et Drivy doivent continuer leur essor et trouver les relais de financement leur permettant d'atteindre la taille mondiale sans céder aux milliards de dollars que la Valley peut avancer sans problème pour les ingérer.

Libérer les initiatives

La révolution numérique n’est pas venu du sommet de la pyramide. Elle s’est développée de façon anarchique, en rupture et à partir de la base. L’histoire de l’internet et du web est une histoire continue de prise de risque par des jeunes gens irrévérencieux dont beaucoup sont aujourd’hui devenus milliardaires, mais beaucoup également ont échoué. Ce n’est pas une longue marche tranquille. L’échec est même devenu culte dans la Silicon Valley ! Et  on innove d’autant plus que l’on a rien à perdre, sans  base installée, sans usine, sans distributeur, sans procédures figées. Il faut donc encourager systématiquement la prise de risque technique et économique en oubliant le vieux principe de précaution qui impose un business plan sur trois ans. Comme la mise initiale est très souvent faible, le risque est également faible, mais il faut multiplier les pistes. Le financement collaboratif est bien adapté à l’amorçage, mais le déploiement et l’industrialisation exigent des fonds plus importants, et plus solides.  

Plus que l’argent, c’est l’esprit d’innovation qui doit guider. Essayer sans cesse, échouer, corriger, repartir, c’est la méthode de travail qui doit s’appliquer à toutes les idées, et pas seulement au monde des start-up. Le respect de la prise de risque doit être encouragé dans toutes les entreprises, et surtout à l’école et dans le secteur public. Notre vieux principe républicain d’égalité devant le service public a conduit de fait à multiplier les inégalités par l’ignorance des différences de fond. A situation inégale, traitement égal ! Seule l’expérimentation décentralisée permet de valider des hypothèses de départ et de corriger l’action, au fil du temps, par touches continues et non pas par grandes réformes centralisées au déploiement improbable. Pratiquer à grande échelle « le crédit d’intention » fondé sur la confiance, gagé sur la formation, nourri par la transparence, coûte beaucoup moins cher à la communauté que la méfiance et le contrôle a priori.

Reconnaître les innovateurs

L’innovateur est forcément déviant : c’est celui qui ose autre chose qu’appliquer la « doxa », c’est celui qui se moque, de fait, des situations installées et du pouvoir en place. « On a toujours fait comme ça » est une pensée couramment admise dans tous les cadres professionnels. Mais quand tout bouge, cette posture confortable devient une imposture maléfique. « On a jamais fait comme ça et on va essayer » doit devenir le mode normal de fonctionnement des structures.

Il est clair que cette logique se heurte non pas à la résistance individuelle des personnes, mais à celle des organisations figées dans leur fonctionnement conventionnel. Mais une organisation n’existe pas en tant que telle, elle existe à travers un ordre structuré de relations de pouvoir. Changer cet ordre, c’est donc forcément prendre le risque sinon de changer les personnes au pouvoir, au moins l’exercice du pouvoir, et c’est là où se situe l’allergie au changement. C’est la raison pour laquelle les grandes entreprises qui ont réussi ont beaucoup de peine à innover en profondeur, comme le décrivait dès 1997 Clayton Christensen dans son ouvrage « The Innovator’s Dilemma ». Les entreprises bien gérées et qui réussissent ont beaucoup de difficultés à changer ce qui a fait leur succès et qui peut provoquer leur perte.

L’innovateur « paradoxal » reconnaît les faiblesses et les risques et n’hésite pas à bousculer les tabous de la pensée unique que les entreprises pratiquent aisément. Ce n’est certainement pas à lui qu’il faut couper la tête !


Trop de web ? Trop de numérique ? Quel avenir ?

 

Le débat sur l’impact du numérique sur l’économie s’accélère et se densifie dans notre pays. Deux lois sur le numérique sont en préparation, après la parution d’une multitude de rapports, documentés et stimulants, mais restés pour l’essentiel lettre morte. Cantonnée, Il y a peu de temps encore, aux secteurs de la presse, de la musique, du voyage, la prise de conscience de la transformation profonde engendrée par le web réveille aujourd’hui l’éternel débat sur la vitesse de la transformation induite par la technique. Comme à chaque étape de l’histoire humaine, la mise en tension des structures qu’implique l’émergence d’un nouveau système socio-technique bouscule l’ordre établi, déstabilise les pouvoirs, ravive les fractures sociales, remet en cause les hiérarchies et l’équilibre des territoires. Et inquiète tous ceux qui ne comprennent pas le mouvement et craignent, souvent à raison, d’en être les victimes ! La destruction créatrice de Schumpeter est en marche. Elle est violente et rapide d’autant plus qu’elle n’obéit pas à un plan prévisible et pré-établi comme nous les aimons dans notre pays marqué par la centralisme de notre culture politique et économique.

Néanmoins, la révolution numérique, en dépit de son caractère spectaculaire, n’est, comme les révolutions techniques qui l’ont précédé, qu’une œuvre humaine. Elle n’est pas magique mais résulte de l’action conjuguée de forces maîtrisables. Il est donc possible, et même absolument indispensable, de l’analyser avec lucidité. Il faut d’abord comprendre pourquoi cette révolution, venue d’ailleurs, nous heurte particulièrement en France, avant d’esquisser les pistes d’une prise en compte active de cette dynamique sur notre territoire.

  1. La révolution numérique est rapide et violente

Le tempo de cette transformation est imposé par les leaders nord-américains.

La santé insolente que manifeste les leaders du GAFA (Google, Apple, Facebook, Amazon) est une provocation pour l’économie européenne et l’aveu d’un cruel échec pour ce respectable terroir qui a dominé pendant plus de deux siècles l’économie mondiale par son talent et sa capacité d’innovation. En 2000, l’Europe s’était donné comme objectif pour 2010 de devenir leader dans la science et la technique ! En effet, il n’y a plus, après l’échec de Nokia, aucun point lourd dans les techniques numériques en Europe ! Parmi les entreprises du CAC 40, aucune n’appartient à ce courant des champions du web. Et on peut admettre que seuls Orange et Cap Gemini, Alcatel Lucent étant absorbé par Nokia, portent les couleurs de cette nouvelle vague d’informatisation, avec de pâles valeurs de capitalisation : 43 et 14 milliards €. Et cette domination n’est pas prête de se ralentir car les licornes, entreprises ayant dépassé une capitalisation boursière d’un milliard de dollars, se développent à toute vitesse aux Etats-Unis. Plus d’une centaine de ces entreprises sont ainsi apparues depuis 2014. Si toutes ne réussiront pas, il est clair que certaines viendront grossir le rang de leurs aînées ou seront absorbées.

Capture d’écran 2015-11-30 à 12.46.54

Les jeux sont faits : la Silicon Valley est devenue le centre du monde économique du XXIe siècle. La capitalisation boursière atteint, en novembre 2015, des niveaux jamais atteints : 651 milliard $ pour Apple, 500 milliards $ pour Google, plus de 300 milliards $ pour Facebook et Amazon. Seul, Apple vaut autant que les dix premières entreprises du CAC 40. Avec les profits de son année fiscale 2014-2015, soit 53,4 milliards $, Apple a battu le record du plus haut niveau de profits jamais atteint en une année dans l’histoire économique. Ceci représente 79% des bénéfices des entreprises du CAC 40 pour l’année 2014!

Dans le chaudron neuronal californien, où abondent les talents et les capitaux, s’invente, dans le style décontracté inimitable des tycoons californiens, l’économie de demain. Et rien n’est trop beau ni laissé au hasard : ni le nouveau siège d’Apple, ni la nouvelle ville de Facebook, ni l’appétit omnivore de Google pour le futur. L’ambition et la certitude d’avoir raison animent cette nouvelle génération d’entrepreneurs qui bousculent tous les establishments en imposant leurs codes. Leur vocation est de développer leur influence dans tous les secteurs, sans frein à leur appétit, sans précaution pour laisser vivre en dehors de leur écosystème les audacieux qui refusent d’y entrer. Le gagnant emporte toute la mise sans rien laisser aux concurrents. Cette logique d’universalité doit servir le bien de l’humanité car les tycoons ne sont pas avares de déclarations généreuses. Le « moon shot » est là et prend le pouvoir politique comme l’a démontré le rejet d’une proposition anti-Airbnb à San Francisco. Le moonshot, par similitude avec le programme Apollo, consiste à adopter des solutions radicales tant sur le plan technique qu'organisationnel, sans précaution majeure ni pour la prise de risque ni pour la rentabilité à court terme. Les pratiques fiscales des barons de la nouvelle économie sont opaques et ni dans les pays où ils opèrent ni même aux Etats-Unis, ces géants du web ne figurent pas parmi les entreprises citoyennes exemplaires. Mais est-ce vraiment différent des Carnegie et Rockfeller en leur temps, sinon que leur terrain d’action est mondial et qu’ils pénètrent beaucoup plus profondément les consciences que pouvaient le faire les rois de l’acier, du chemin de fer et du pétrole ? La logique d’un entrepreneur est d’exploiter, sans état d’âme, tout le terrain que lui laissent ses concurrents… et le législateur.

Les conséquences sociales sont considérables

La disruption – mot clef de ce et début de XXIe siècle – est un tsunami qui s’attaque à tous les secteurs économiques. Bien sûr la construction des fondations de l’internet a nécessites près de trois décennies pour créer, progressivement, ce réseau mondial universel. Mais l’accélération a été déclenchée par l‘irruption d’un nouvel objet. Le premier smartphone. L’iPhone, doté de fonctionnalités qui faisaient sourire en 2007 comme la géolocalisation, ou un appareil photo, a mis entre toutes les mains un puissant ordinateur, mobile et connecté au réseau internet. Passer de quarante années d’informatique « assise », coûteuse, lourde, complexe à une informatique « debout », ergonomique, mobile, accessible et géolocalisée, a créé une brèche spatio-temporelle dans laquelle se sont engouffrés développeurs et entrepreneurs pour inventer un monde poussé par la recherche de solutions utiles et simples à la plupart des problèmes de la vie quotidienne. Sans intermédiaires, grâce à l’idée géniale des magasins d’applications gratuites ou peu onéreuses, ils distillent l’élixir de la transformation numérique de la société directement vers les utilisateurs qui s’en emparent avec délectation, parce que c’est simple, utile et… pas cher ! Ce phénomène défie les lois de l'économie car la plupart des enteprises porteuses de ces nouveaux services ne gagnent pas d'argent en dépit d'une capitalisation boursière pharaonique. Néanmoins elles bousculent les secteurs établis, les forcent à s'adapter ou à disparaître. 

Citons quelques exemples. AirBnB, né en 2008, s’est développé ainsi de façon virale, sans autorisation, sans prévenir. Et sans que personne n’ait vraiment vu le phénomène se développer, sauf les pourvoyeurs d’espaces – promus « hôtes »- et leurs clients, ravis d’une telle aubaine, AirBnB capte des millions d’utilisateurs et, en pertes, génère un revenu de moins d'un milliard $ pour une capitalisation boursière de 24 milliards $. En 2020, l'entreprise devrait enfin être rentable ! Or tout peut changer dans ce secteur très ouvert...

Pour étendre son spectre d’activités, Google investit des milliards de dollars. Google, qui est désormais fractionné en plusieurs entités légales, sous une nouvelle holding, Alphabet, a nommé le pape de l’intelligence artificielle à la tête de son département de recherche, Ray Kurtweil, et fait de nombreuses acquisitions dans le domaine des robots, comme Boston Dynamics, spécialisé dans les robots militaires. la boulimie de Google est incommensurable mais son alimentation en cash est permise par une activité tout ce qu'il y a de plus classique, la publicité. 

Les structures politiques sont ébranlées

Pour la première fois dans l’histoire, l’innovation ne connait pas de frontière et se déplace instantanément, sans délai, entre les pays, supprimant l’avantage comparatif que donnait aux pays développés leur avance technique. Le développement des télécommunications bouleverse la séquence historique de développement. La totalité des habitants de la planète accède maintenant au téléphone mobile, et bientôt, grâce aux smartphones à bas prix qui se vendent par centaines de millions, bénéficiera de tous les services du web. Les gouvernements ne peuvent que constater que la révolution numérique se fait sans eux, sans leur autorisation et hors de leur contrôle.. Si le Parlement européen s’émeut, et vote en novembre 2014 une résolution pour démanteler Google, l'entreprise ne se plie pas pour autant aux exigences européennes.

Peu de dirigeants ont encore intégré le fait numérique dans leurs pratiques

Si les Français adorent les technologies numériques pour leur usage personnel, les pratiques en entreprise et dans la vie publique sont en retrait par rapport à cet engouement individuel, même si, au fil du temps, on observe des changements significatifs de comportement. Les images du bureau de François Hollande sans ordinateur et noyé sous les parapheurs ont choqué. Il n’est pas le seul à parler du numérique, pour les autres. Les dirigeants français ont dans l’ensemble raté la seconde vague de la révolution informatique, celle des années quatre vingt-dix avec les ERP. Ils trouvent aujourd’hui qu’avoir une stratégie « digitale » est beaucoup plus chic que de faire de l’informatique, activité reléguée au rang définitif et peu enviable de « centre de coûts ». Si utiliser un mot anglais permet d’avancer la prise de conscience, tant mieux. Mais il ne faudrait pas que ce soit un leurre de même nature que l’e-commerce au début des années 2000. Car si techniquement le numérique ne se dissocie pas de l’informatique, culturellement il n’en est rien. Là où l’informatique permettait d’accroître la productivité de l’existant, le numérique consiste à remettre en cause, ou simplement ignorer, cet existant pour inventer tout autre chose.

Bien peu de dirigeants acceptent l’idée que la révolution numérique est avant tout une révolution managériale qui s’appuie sur la compétence de la totalité des collaborateurs avec un minimum de technostructure et d’encadrement. La révolution numérique, c’est une large décentralisation avec des équipes petites, autonomes connectées en réseau. C’est la réactivité privilégiée par rapport au plan et au budget venus d’en haut. La reconnaissance ne se fait pas par la hiérarchie mais par les pairs. C’est une incitation permanente à l’initiative et au non-conformisme. On ne tue pas une idée, on l’améliore ! C’est une remise en cause radicale du système hiérarchique pyramidal, ses rituels et ses ordres.

La révolution numérique bouscule emplois et compétences

La désintermédiation, qui a désormais un nom, « ubérisation » est un processus simple et efficace. C’est pour cela qu’elle s’impose dans tous els secteurs. Elle consiste à supprimer tous les intermédiaires inutiles d’un processus pour délivrer un résultat, rapidement, efficacement et pour le moins cher possible. Le réengineering des processus, activité phare des années quatre vingt-dix se fait désormais de façon beaucoup plus radicale en mettant en place un outil informatique, une plateforme d'intermédiation, qui met en relation directe émetteur et récepteur La désintermédiation est aussi connexe à la dématérialisation. Comme le support physique n’est plus utile à l’accomplissement de la fonction, la production de l’information suffit. Et elle est immatérielle, peu coûteuse et se prête à tous les traitements qui assurent la traçabilité et le contrôle du dénouement physique et économique de la transaction.

Avec la suppression de fonction physique de production, de diffusion et de contrôle, ce sont des centaines de milliers d’emplois industriels et tertiaires qui sont d’ores et déjà supprimés ou encore seulement menacés. Les exemples sont multiples dans l'édition musicale, la presse, la photographie.. .Prenons l'exemple d’un produit récent qui fut innovant, le Compact Disc, diffusé à partir de 1982. Editer un CD à partir d’un fichier numérique, le presser, l’emballer, le transporter, le distribuer dans des points de vente représentait un grand nombre de tâches matérielles et l’utilisation de ressources physiques - papier, carton, plastique, stockage, véhicules, manutention - que la diffusion en un clic du même fichier sur un serveur supprime définitivement. Aujourd'hui les magasins de disques ont quasiment disparu, à l'instar du célèbre HMV à Londres, plus grand magasin de disque du monde, ouvert en 196 et fermé en 2014. Il en est ainsi dans les guichets, les points de vente, les caisses de supermarché, les bureaux… Il est bien naturel que les emplois directement associés à ces tâches physiques disparaissent également. Mais la logistique impose encore beaucoup de main-d’œuvre et Amazon propose un nouveau type de contrat de travail, Flex, pour ses livreurs occasionnels aux Etats-Unis. Il s’agit d’utiliser sa propre voiture, sans couverture sociale, pour livrer quand on le veut dans un périmètre restreint pour 18 à 25 $ de l’heure. Les initiatives de ce type se multiplient dans tous les métiers, sapant sans bruit les bases historiques du salariat.

Bruissante, tumultueuse, sans égards pour le passé, la révolution numérique apporte à tous et bouscule tout le monde. Elle n'est nullement morale ou vertueuse par elle-même, s'inscrivant dans une longue histoire de l'innovation, mais elle peut le devenir si elle sert l'intérêt général.

A suivre ...

  1. A la recherche d’un nouvel équilibre

Energie et information, une complémentarité vitale

Sans énergie, accessible et économique, rien n’aurait été possible pour l’homme. Toute l’histoire du développement est conditionnée par la capacité des terriens à domestiquer l’énergie. C’est le fruit d’un long et patient travail qui a commencé par la découverte du feu, il y a 400000 ans. La domestication du feu en permettant la cuisson des aliments, a changé fondamentalement la capacité physique des hommes et allongé leur espérance de vie  en limitant les maladies. Elle a aussi permis le développement de la vie sociale. A chaque étape, la maîtrise du vent et de l’eau, la conquête de la vapeur, l'exploitation    maîtrisée du charbon et du pétrole, puis avec le nucléaire, le système technique mis en place a conditionné le système social, et induit un mode d’exercice du pouvoir. Au moins autant que la lutte pour l’information et la connaissance, la maîtrise de l’énergie est le grand vecteur de structuration de la société. Nous en mesurant pleinement les conséquences avec l’avènement récent - les années cinquante - d’une géopolitique du pétrole qui a totalement transformé les rapports de force entre Etats depuis soixante-dix ans.

Mais en ce début du XXIe siècle, nous touchons à de nouvelles limites. Elles sont politiques, économiques, techniques, sanitaires. Nous avons pris conscience que les ressources énergétiques de la planète lorsqu’elles sont présentes sous forme de stocks ne sont pas renouvelables. Aller forer plus loin, plus profond, continuer par la fracturation hydraulique le travail inachevé des millions d’années pour libérer le gaz ou le pétrole des roches qui l’enferment, ne sont pas des actes anodins. Les conséquences sur l’environnement des océans, sur les nappes phréatiques qui nous alimentent en eau potable sont tangibles même si elles alimentent une controverse sans fin. Produire plus d’énergie fossile, c’est aussi  envoyer plus de carbone dans l’atmosphère… Mais l’engouement pour les énergies renouvelables ne règle pas par magie tous les problèmes. Car quelles que soient leurs vertus, les énergies renouvelables ne sont pas non plus sans impact sur l’environnement, tant pour les produire, comme les  panneaux photovoltaïques, que pour les faire fonctionner – énergie des fleuves ou des océans, éoliennes -. Elles ont aussi la faiblesse de dépendre de facteurs exogènes et instables, le soleil comme le vent,  et imposent leur rythme aux réseaux de distribution en l’absence, pour le moment, de moyens de stockage souples et économiques.

Nous avons le sentiment d’une profonde menace sur la sécurité de la planète quand Iran et Arabie Saoudite, surarmés et belliqueux, pour le moment par vassaux interposés, se font face et peuvent instantanément condamner le détroit d’Ormuz qui reste le cordon ombilical énergétique de la planète. Nous avons tous tremblé devant les conséquences de Tchernobyl ou Fukushima en nous appuyant sur la certitude que rien de ceci ne serait possible chez nous. Nous savons bien qu’il existe un lien fort, démontré,  entre les allergies, les affectations respiratoires, les cancers qui affectent les populations urbaines et les rejets atmosphériques de la combustion imparfaite des carburants fossiles.

Mais entre les peurs, la lucidité et le déclenchement de l’action pour changer, il y a un pas immense. Aujourd’hui, à quelques mois de la grande conférence sur le climat de décembre 2015, on peut reconnaître sans peine qu’il n’y a pas de consensus pour changer notre manière de vivre, ni encore moins pour y accéder pour les pays qui s’en sentent exclus, en remettant profondément en question notre relation ambigüe avec l’utilisation à bon marché des sources d’énergie. Cet arbitrage inconscient se déchire parfois  lors des drames et des crises pour bien vite revenir à la situation antérieure. Jusqu’à la prochaine crise.

Or si nous avons besoin d’énergie pour bien vivre, on peut aussi imaginer utiliser les possibilités de la science et de la technique pour vivre tout aussi bien, et certainement de façon moins angoissée, en repensant notre relation à l’énergie. L’équation est simple : consommer moins, tout produire différemment, dont l’énergie.

La lecture du rapport annuel de l’Agence internationale de l’énergie est un exercice de salubrité intellectuelle auquel devraient rituellement sacrifier dirigeants, hommes politiques et journalistes. Il n’y a rien de plus excitant que de comprendre les données collectées par des centaines d’experts. Tous nous disent sans ambigüité que d’ici 2040 l’approvisionnement énergétique de la planète sera composé en parts égales de pétrole, de charbon, de gaz et de sources à bas carbone incluant le nucléaire et les énergies renouvelables. Tous disent que d’ici 2040 nous n’avons aucune chance d’atteindre les objectifs d’émission nous permettant d’éviter une augmentation de la température de la planète supérieure au 2° C communément admis pour éviter des conséquences dramatiques non contrôlables

.Tesla home battery, which is currently produced for SolarCity's home energy storage system (House Photo: Shutterstock)

 

Si l’énergie est le vecteur principal de notre bien-être et de notre style de vie et de consommation, il est difficile d’extraire la composante énergétique de ce que nous produisons et consommons pour en faire un objet spécifique d’attention et donc d’action… Chaque produit, chaque service a en effet une composante énergétique importante. Quand on jette des produits alimentaires, on gaspille aussi l’énergie qui a été nécessaire pour les produire, les transporter, les distribuer, les stocker. Consommer moins d’énergie de façon consciente suppose en effet que l’énergie soit isolée et identifiée pour devenir un facteur spécifique de décision. Or il n’y a rien de plus complexe même si des efforts d’information sont faits, à l’achat de certains produits, grâce notamment aux étiquettes énergétiques. Néanmoins, il est difficile de pouvoir prendre des décisions rationnelles sur la consommation d’énergie car on ignore les conséquences de nos actes aussi bien sur le volume que sur le coût.

Si adopter un comportement vertueux dans la consommation est difficile, il est encore plus complexe de modéliser l’impact d’une décision d’investissement sur le moyen terme compte tenu des évolutions de la technologie, du prix et de la fiscalité. Les acheteurs de véhicules diesel  ou de véhicules GPL, les investisseurs en panneaux photovoltaïques, peuvent être déçus de leurs prévisions. Les industriels ont eu meilleure capacité que les consommateurs mais ne sont pas non plus à l’abri des variations des cours et de la fiscalité.

Que ce soit pour l’habitat ou pour l’automobile, les innovations énergétiques suscitent beaucoup d’interrogations et de scepticisme auprès des acheteurs, qui sont rarement guidés dans leur choix par un avis impartial et documenté des vendeurs eux-mêmes.

Nous sommes donc confrontés à des choix cruels. La prise de conscience de la nécessité d’une économie moins gourmande en énergie se heurte à la difficulté des consommateurs à comprendre cette composante énergétique et à prendre des décisions pertinentes.

Les Etats disposent de moyens puissants pour faire évoluer les comportements par la réglementation et la fiscalité, tant pour encourager les comportements réputés vertueux que pour sanctionner les choix critiquables peur leurs effets nocifs. Mais leur action n’est pas exempte de biais. Le manque d’études scientifiques  justifiant des positions tranchées, l’influence des lobbies, les choix idéologiques viennent nourrir des décisions nécessairement partiales. Si le subventionnement public peut créer l’incitation nécessaire pour convaincre les clients à opter pour une technique nouvelle, ce n’est pas toujours sans risque d’erreur ni d’effet secondaire non maitrisé. Par ailleurs cet usage des fonds publics pose le problème de l’utilité marginale des fonds limités ainsi affectés.

Les gouvernements, partout dans le monde, tendent à influencer les automobilistes dans leur choix de motorisation. Ils subventionnent largement les véhicules électriques ou hybrides pour faire naître un marché de masse, sensibiliser le public et baisser les coûts industriels. La réglementation vient encadrer cette politique pour forcer les constructeurs à réorienter leur offre. C’est une logique que l’on retrouve partout avec une sévérité diverse entre les Etats-Unis, la Chine, le Japon et l’Europe.

Mais in fine c’est le consommateur lui-même qui doit être en mesure d’opérer des choix les plus rationnels et c’est donc, par rapport à la valeur perçue,  le signal prix et le coût total de possession qui orientent réellement les choix.

La révolution numérique donne à la politique de l’énergie une autre voie d’action. Par l’information contextuelle captée par multiples objets de l’internet des objets, par les aides à la décision apportées aux utilisateurs d’énergie pour prendre à tout moment la décision la plus efficiente, par la multiplication des actionneurs automatiques, nous allons disposer d’un puissant  arsenal d’outils. Le but reste le même : prendre des décisions informées pour économiser la ressource rare. Mais là où les informations étaient incomplètes et diffuses, l’internet des objets et le traitement des données massives (« big data ») apportent les éléments qui faisaient défaut pour créer un réseau interopérable et efficient.

La révolution scientifique sur l’ensemble des moyens de production et sur les produits eux-mêmes va offrir des potentiels nouveaux pour consommer moins de ressource et gérer en temps réel de façon efficiente l’énergie.

Mais comme le souligne l’Agence internationale de l’énergie, ces changements nécessiteront des investissements considérables, consommateurs de capitaux, et prendront du temps.

L’énergie est au cœur de la civilisation. Nous n’avons pas toujours conscience des implications considérables d’une raréfaction de l’énergie à bon marché. Aussi l’action n’est pas seulement du ressort des entreprises et des Etats mais relève aussi de la prise de conscience collective. Le fait énergétique doit devenir un objet public, connu, compris et documenté aussi bien dans le débat public que dans la vie quotidienne.

 

http://www.developpement-durable.gouv.fr/L-Agence-internationale-de-l,41647.html

http://www.developpement-durable.gouv.fr/L-Agence-internationale-de-l,43313.html


Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf