Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


French Tech et CES 2015

Voici la vidéo que j'ai enregistré pour Xerfi sur le thème de la présence française dans le monde des start-ups vue à travers le CES 2015 à Las Vegas

 

http://www.xerfi-precepta-strategiques-tv.com/emission/Jean-Pierre-Corniou-CES-2015-la-percee-de-la-French-Tech_2198.html


L'odyssée de l'innovation à travers le CES 2015

Quels messages retenir du CES 2015 ? Il ne faut pas se limiter à une vision immédiate de cet évènement car il s’inscrit dans une perspective de long terme. L’informatisation de la société est un processus engagé depuis la fin de la seconde guerre mondiale et en constante accélération, chaque étape préparant la suivante. C’est un des leviers majeurs des changements qui façonnent notre vie et permettent, grâce aux progrès convergents des sciences et des techniques, une amélioration des performances humaines qui se traduit, in fine, par l’allongement de la vie humaine.

Les formes de  l’informatisation ont évolué par grandes étapes en fonction des capacités techniques. Du premier processeur Intel en 1971, le 4004 et ses 2300 transistors, au Pentium Pro de 1995, avec 3,1 millions de transistors, au processeur i7 Haswell de 2014 avec 2,6 milliards de transistors, les performances ont connu une croissance exponentielle qui confirme, à chaque étape, la loi de Moore. Si la puissance de traitement des machines est désormais considérable, c’est l’exploitation de cette puissance à travers une multitude d’usages, dans toutes les situations, tous les contextes géographiques, et par tous les utilisateurs  qui est véritablement le déclencheur d’une révolution.

Car cette informatisation ne serait qu’une simple prouesse technique si elle ne provoquait pas une mutation sociale  sans précédent dans l’histoire de l’humanité par son ampleur et sa profondeur. La révolution informatique est aujourd’hui le moteur d’un changement de civilisation, avec ses promesses et ses angoisses. Il suffit de se plonger, au cœur du décor surréaliste de Las Vegas, dans la plus grande manifestation mondiale consacrée au numérique  pour comprendre que cette mutation est profonde, irréversible et va changer nos vies dans la plupart de leurs composantes.

La révolution numérique s'incarne au CES

Le CES, qui a débuté à New York, dans les années soixante, comme Consumer Electronic Show, salon consacré à l’émergence du règne de l’image télévisée et du son haute-fidélité, est devenu depuis dix ans le théâtre global de la révolution numérique. La différence sémantique entre informatique et numérique n’a pas de sens technique, mais traduit, dans une acceptation commune, le fait que l’informatisation du XXe siècle consacrée aux tâches professionnelles est désormais régie par le rythme des innovations grand public. L’entreprise n’est plus maîtresse du rythme de ses évolutions car elle doit intégrer dans ses fonctionnements internes ces innovations plébiscitées par ses clients et son personnel. Or si le PC en 1981 et la facilité d’accès à internet en 1993, grâce au navigateur, ont fait déjà vaciller l’informatique centralisée classique sur des bases en introduisant la liberté de l’individu dans la gestion des systèmes, c’est bien l’apparition de l’iPhone en 2007 qui, cumulant pour le première capacité de communication, puissance de traitement, mobilité et diversité des usages,  a marqué l’ouverture d’une autre ère.

A travers l’expérience d’une dizaine de CES, il est possible de visualiser cette accélération en surimposant les images de chaque CES. En effet, en mesurant la taille et le positionnement des stands comme en analysant le dosage des thématiques des conférences et le choix des intervenants, on comprend que ces mutations parfois subtiles sont à la fois les marques des changementsdésormais actés comme les signaux annonciateurs des transformations à venir.

S’il ne fallait retenir qu’un seul symbole de ces mutations, il faut se souvenir que dans l’entrée du hall central, cœur prestigieux du LVCC, Las Vegas Convention Center où était centrée la partie exposition du CES, se faisaient face Microsoft et Intel, les deux acteurs du monde Wintel qui a brillamment  façonné le monde du PC pendant trente ans. Mais en 2015 c’est un constructeur chinois de téléviseurs, encore méconnu en occident, Changhong, leader du marché chinois des téléviseurs, qui occupe cette place prestigieuse. Intel à cause de cette relation trop intime  avec le monde du PC a raté son entrée dans celui de la mobilité au profit de Qualcomm. Intel est toujours là, très combatif, pour retrouver sa place et son prestige dans le monde de l’informatique des objets dont la part dans la croissance de son chiffre d'affaires a déjà bondi de 19% en 2014

Withings  011
S’il y a cinq ans, la santé et le bien être occupaient quelques stands minimalistes, dont celui de Withings, timide start-up française montrant en 2009 un objet improbable, un pèse-personnes connecté. Aujourd’hui ce sont des travées entières qui y consacrées avec des stands richement dotés où brillent d'ailleurs les entreprises françaises comme Netatmo, Withings, Sculpteo, Sen.se...  Il a d’ailleurs fallu quitter le LVCC car la place y manquait. C’est un nouvel espace, immense, au Sands, qui est intégralement consacré au monde bruissant des objets connectés. De même, le cycle de conférences consacrées au monde de la santé est devenu une manifestation à part entière, the Digital Health Summit. Le système de santé est en effet devenu un ensemble complexe où interagissent de multiples disciplines et professionnels partageant des donnéees communes.

Healthcare  007

De façon générale, l’expansion de la sphère de l’informatisation se traduit par la multiplication des approches verticales où experts et firmes spécialisées discutent de la dynamique de ces nouveaux environnements numériques qui refaçonnent les activités traditionnelles que sont le bien-être et la santé, l’éducation, l’automobile, la publicité, les medias. Sur le socle de base de l’économie numérique, qui se consolide autour du smartphone, du cloud computing et des réseaux à haut débit, viennent se greffer une multitude d’écosystèmes verticaux qui embarquent entreprises conventionnelles et start-up dans une irrésistible dynamique de transformation accélérée.

Tout est connectable et connecté

Le CES est donc sur quatre journées non seulement une exposition commerciale où se croisent 170000 visiteurs de toute la planète et 5000 journalistes, face à 3600 entreprises, mais aussi des milliers de dirigeants qui dialoguent, analysent et construisent les transformations de demain, publiquement mais aussi discrètement dans les suites et salons des hôtels. C’est pourquoi les keynotes du CES sont aussi prisés. Véritables shows millimétrés, fort coûteux, ils traduisent la vision des dirigeants et la force des entreprises leaders. Il s’agit d’impressionner, de marquer les participants et par là les analystes de la planète entière. Ford s’illustre depuis des années dans cet exercice et le nouveau  président, qui a succédé à Alan Mullaly, Mark Fields, a bien montré que l’avenir de l’automobile ce n’était pas la puissance brute mais la capacité de faciliter la mobilité de la planète. Le président d’Intel, Brian Krzanich, a illustré de façon spectaculaire qu’il entendait bien mettre ses processeurs au centre de la réconciliation du réel et du virtuel qui pour lui est « the next big thing ». Et il a invité sur scène HP pour lancer officiellement l’entrée de ce constructeur dans le monde de l’impression 3D, scanneurs, imprimantes et puissances de calcul permettant de passer l’objet réel à sa définition numérique en 3D pour pouvoir être reproduit à l’infini… Mais c’est surtout la présentation du nouveau processeur Curie, qui intègre en un format unique de la taille d'un bouton, son système d’exploitation, des capteurs et des capacités de communication Bluetooth, qui a frappé en montrant la détermination d’Intel à prendre le leadership de l’équipement des objets connectés et du wearable computing.

Un nouveau modèle d'innovation

La leçon du CES ne réside pas dans la diversité des produits proposés, mais dans la convergence de chacune des approches. Par touches se construit un monde où l’ordinateur s’efface au profit d’une multitude d’objets qui vont échanger des informations pour alimenter la prise de décision dans chaque acte de la vie quotidienne, personnelle ou professionnelle.

Le monde des objets consacre un nouveau modèle d’innovation très éloigné du modèle classique de l’investissement en recherche-développement tels que les grandes firmes l’ont pratiqué depuis des décennies. Face au modèle planifié et méthodique de la R&D, l’innovation venu du monde grand public ressemble  à un grand bazar où des objets divers émergent entre le concours Lépine et la science-fiction. Le CES avec ses stands exotiques donne évidemment cette impression. Mais comme l’a vivement défendu le fondateur de Parrot, Henri Seydoux, peu importe que les produits qui sortent de la créativité des start-up soient qualifiés de « gadgets ». C’est l’usage qui fait le tri et révèle des potentiels insoupçonnés au départ par les créateurs. Citant l’exemple des drones qu’il avait imaginé comme étant une forme de jeu vidéo en 3D, il a constaté que les usages professionnels, comme pour l’agriculture et la bâtiment, étaient parfaitement pertinents. Le créateur de la semelle chauffante et connectée, Digitsole, une start-up française parmi les dizaines présentes au CES , visait le marché des équipements sportifs, mais le monde professionnel des travaux en plein air se montre tout à fait intéressé.

Digitsole  009

Ce processus s’applique également aux grandes entreprises. Plusieurs grandes entreprises ont clairement affiché leur choix d'ouvrir leur R&D, leurs brevets en favorisant l'open innovation. Samsung, Toyota, mais aussi Ford opérent ce mouvement pour injecter dans leur ADN historiquement fermée des processus d'innovation radicalement nouveaux. La présence active de ces grandes entreprises mondiales, qui ignoraient le CES, est le symbole d'un tournant dans la recherche de synergies entre start-ups et entreprises établies. La Poste, qui est victime de l’érosion du marché du transport de documents papier, a fait de son image robuste et reconnue par la population un vecteur de développement en devenant fournisseur de services de confiance, à travers son réseau physique de proximité, de bureaux et de facteurs, mais également par l’innovation logicielle dans les services numériques et son soutien aux start-ups. Il faut aussi saluer pour ce souci d'ouverture à la créativité la forte présence des start-up françaises, accompagnées par Emmanuel Macron, Axelle Lemaire, Pierre Gattaz, Louis Schweitzer, de même qu'une forte délégation de DSI du CIGREF autour de leur président, autant de symboles témoignant d'un vrétible changement dans la culture française, salué par le président du CES, Gary Shapiro.

La Poste  008

Il se crée un cheminement, impossible à planifier, entre ce que permet de faire la technique, les objets qui en découlent, et la réalité des usages décidée par les utilisateurs.

 Innover, ou disparaître

Le choix est au fond très simple, et c’était le thème d’un keynote essentiel, rassemblant les dirigeants de Cisco, Bosch et Comcast : « Fast innovation : Disrupt or be Disrupted ». Innover s’impose comme une forme indispensable d’évolution pour toute entreprise. Innover c’est écouter ses clients, mais aussi aller au-delà des attentes, des formes convenues, des logiques d’image. C’est oser aborder des sujets nouveaux qui ne peuvent s’explorer à travers des études de marché. Steve Jobs a été expert dans cette approche en rupture. S’il avait attendu des études marketing la réponse des clients potentiels, il n’aurait jamais fait l’iPhone et c’est pourquoi Nokia, champion absolu du téléphone GSM, ne pouvait pas imaginer autre chose qu’un meilleur... téléphone GSM. Lire le CES, c’est comprendre le  rôle de ces chemins de traverse, c’est admettre d’être surpris, choqué par des visions au premier abord futiles, mais qui peuvent se révéler des pépites porteuses de rupture. Le CES implique beaucoup d’humilité et se remémorer que toute innovation suscite un cycle de réactions en trois étapes. La première étape, c’est de penser que c’est inutile, farfelu, absurde. La seconde étape c’est de s’indigner en considérant que c’est dangereux. Et enfin, troisième étape, considérer que c’est tout à fait banal, normal…


Noël 2014, plus numérique que jamais !

Christmas-tree-digital-circuit-21305139

Depuis plusieurs années, les cadeaux numériques sont  sans conteste les préférés des familles au pied du sapin de Noël.  Ce blog en a déjà rendu compte. Ce choix est naturel : c’est tendance, il y en a pour tous les goûts, tous les âges, tous les prix… Les grands firmes du numérique comme les magasins et sites web  spécialisés se préparent à faire une fois encore de la fin de l’année une année record dans leurs ventes, cette période représentant jusqu'à 50% de leur chiffre. 

Mais les choix évoluent au fil des années en fonction du parc installé dans les familles, qui s’alourdit d’année en année, comme de l’innovation qui condamne les produits des années antérieures à l’obsolescence technique. Le panier de Noël change ainsi rapidement de contenu, même s’il y a quelques invariants qui certes se transforment, mais conservent leur fonction première, comme les  appareils photos.

Withings-pulse-app

 

Withings, réussite française 


Si le numérique est ainsi plébiscité, c’est que les produits qui accolent à leur fonctionnalité première le mot « numérique » sont devenus légion. Aucun compartiment de la consommation culturelle, du sport ou du loisir ne peut faire l’impasse sur l’inéluctable processus de numérisation qui concerne toutes nos activités et tous les objets qui y contribuent.

Est désormais numérique tout objet familier qui non seulement fait ce qu’il a toujours fait, mais désormais en rend compte à volonté et à distance, comme par exemple une station météorologique. Apparissent tous les jours  des objets qui remplissent des fonctions nouvelles pour capter chaque instant de notre vie quotidienne et nous apporter une aide  contextuelle à tout moment. Les nouveaux venus de 2014 touchent de nouvelles fonctions, comme les montres numériques, mais les appareils traditionnels sont revisités. Les appareils photos savent maintenant communiquer sans fil avec une fonction Wi-Fi et se localiser grâce à leur puce GPS… Les balances personnelles deviennent des auxiliaires de santé en captant, mémorisant et transmettant toutes leurs informations. Et le vieux téléphone connait avec le développement sans limite visible des fonctionnalités des « téléphones intelligents », véritables couteaux suisses de l’ère numérique, une mutation génétique de telle ampleur que le dernier snobisme est de ressusciter des téléphones vintage qui ne peuvent que… téléphoner.

Pour rendre compte de cette offre pléthorique, à la croissance exponentielle, qui ne concerne plus d’ailleurs que les seuls pays riches puisqu’il va se vendre en 2014 1,2 milliard de téléphones intelligents, il faut classer et hiérarchiser.

Commençons cet inventaire en différenciant les objets fixes et les objets mobiles. Les objets fixes sont de moins en moins nombreux, puisque la miniaturisation rend désormais toute chose mobile. Et parmi les objets mobiles, il faut distinguer ceux que l’on porte, comme le téléphone intelligent ou la tablette, ou ceux qui se portent, comme la montre ou le capteur d’activité. Il faut aussi introduire comme variable de choix le prix. Mais tous ces articles, sauf les derniers produits techniques les plus pointus, font l’objet d’une concurrence acharnée qui se traduit par une baisse constante des prix. Par ailleurs les distributeurs classiques se battent avec les acteurs du web ce qui crée un marché dynamique sur lequel il faut prendre le temps de faire des comparaisons, de lire les tests et les forums. Car aujourd’hui, sur les marchés de biens culturels ou de biens techniques, tous en baisse en valeur depuis plusieurs années, le consommateur est roi !

Parmi les objets fixes, attachés à la maison, il y a les ordinateurs fixes, dont l’attrait est en baisse, et les grands écrans  connectés au web. La révolution des écrans plats qui date de 1997, avec le premier téléviseur Philips de 42 pouces vendu 15000 $, a fait éclore dans les lieux de vie des écrans géants au réalisme de plus en plus saisissant. La haute définition laisse déjà la  place à la ultra haute définition  -UHD 4K-  et l’écran plat, LED et maintenant OLED, qui ne prenait pas de place, se courbe pour renforcer la profondeur de champ. Il n’est pas sûr que cette prouesse technique ait un succès durable. Tous ces écrans sont de fait 3D, mais là encore l’innovation qui devait être fracassante n’a pas véritablement tenu ses promesses, faute de  programmes adaptés et surtout de confort visuel. La tendance à la baisse des prix des téléviseurs, alimentée par la concurrence entre les coréens Samsung et LG, et bientôt par les constructeurs chinois, permet de dénicher de très beaux objets à la pointe de la technique de 2013 à moins de 400 €.

Aux objets classiques, il faut ajouter d’autres objets immobiles et connectés qui ont fait leur apparition, comme les pèse-personnes, les caméras de surveillance, en croissance de 10% par an, les stations météo, les thermostats, les alarmes. Tous connectés en Wi-Fi à la box du fournisseur d’accès internet de la maison, ces objets livrent leurs informations à distance à travers le réseau sur un smartphone, et peuvent être également actionnés à distance. Les français Withings et Netatmo font preuve sur ce marché d‘une forte dynamique créative.

Les objets mobiles représentent une famille en voie d’extension continue. On pense que chacun d’entre nous portera et transportera une dizaine d’objets connectés d’ici 5 ans. La place de choix revient au smartphone. C’est l’objet universel, terminal intelligent, truffé de capteurs qui tend à absorber les fonctionnalités des autres objets. Ainsi de plus en plus de photographies sont faites à partir d’un smartphone, au détriment des petits appareils photos numériques compact, comme les petits films vidéo destinés au web. Mais le marché de la photographie reste un vecteur très dynamique où les offres sont très segmentées et difficiles à trancher. Les compacts deviennent experts et adoptent même les objectifs interchangeables. Hybrides et bridges cherchent à concilier, autour de 500€,  qualité photographique, longues focales et compacité. Les caméras vidéo  souffrent de ces concurrences sauf les modèles destinés au sport, dont GoPro est le leader, qui connaissent grâce à You Tube un très beau succès. Au sommet du monde de l’image trône le reflex, qui sait aujourd’hui très bien faire de la vidéo soignée,  avec son aura de professionnalisme.

Le marché des montres numériques connectées est aussi un marché qui bien que récent est déjà très fertile. Des dizaines de produits s’affrontent certaines étant limité au suivi de l’activité sportive, d’autres modèles visant le haut de gamme et même le luxe pour être le prolongement au poignet des fonctionnalités des smartphones enfouis dans la poche ou le sac. Quelques capteurs sont plus discrets, et se fixent à la ceinture, comme le Pulse de Withings.

Alors, que choisir ?

Il faut d’abord réfléchir à l’usage réel de ces produits qui dans la vie courante peuvent encombrer sans être vraiment pertinent et créer un cortège de contraintes avec leurs piles, leurs alimentations toutes différentes qu’il faut emporter en voyage. Il faut se dire que traiter et classer photographies et vidéos représente un vrai travail que peu font réellement.

Ensuite il faut penser aux risques d’usage abusifs de ces produits, notamment sur les plus jeunes. Il est vraiment déconseillé d’utiliser longtemps des écrans, tablettes ou jeux vidéo, avant l’âge de 4 ans et il est toujours indispensable d’en contrôler l’usage avec discernement.

Enfin il faut se méfier de l’engouement qui laisse vite place à la lassitude et à l’abandon prématuré de produits dont le coût, ramené à l’heure d’usage réel, peut être prohibitif.

La consommation numérique  doit rester une consommation plaisir mais sans négliger la responsabilité éthique, éducative et environnementale.


Informatique, banalisation, usage: retour vers le passé

Ce texte date de 2004. Nous avons le sentiment de vivre une période d'accélération de l'histoire des technologies. Or dix années plus tôt, en avril 2004, au moment du lancement de la sonde Rosetta, j'écrivais cet article pour la revue L'informatique professionnelle. Il est intéressant de relire ce document qui traduisait les proéccupations de l'époque pré-iPhone et qui ouvrait quelques perspectives largement confirmées.

L’informatique connaît une banalisation démocratique qui la range peu à peu au rang des autres industries. Désacralisée par le web, elle participe à la convergence générale des technologies. Bien des innovations sont encore à venir mais c’est l’usage qui en déterminera la valeur.

Il y a encore quelques temps, il aurait pu paraître curieux, voire même provocateur, de s’interroger sur les relations entre informatique et innovation tant l’informatique a longtemps été porteuse, dans la représentation collective, d’une image de modernité et de progrès. Il y a en effet très peu de secteurs économiques qui peuvent s’enorgueillir de repousser sans cesse depuis si longtemps leurs limites technologiques, à l’image de l’emblématique loi de Moore, et de célébrer avec tant d’éclat leurs performances. Depuis un siècle, et surtout depuis les années cinquante, tout réussit à l’informatique, propulsée par quatre puissantes vagues d’innovation matérielles et logicielles. Dans les années soixante IBM et le BUNCH inventent les ordinateurs centraux, puis au début des années soixante dix DEC lance les ordinateurs départementaux. En quatre vingt apparaît le révolutionnaire micro-ordinateur, vite relié en réseau, puis connecté mondialement grâce au web en 1993. Mais après la frénésie d’investissements justifiés par le passage de l’an 2000 et l’éclatement de la bulle le monde informatique semble patiner. L’informatique serait-elle en panne d’inspiration ? Aurait-elle perdu son aura et sa magie ?

Pour qui sonne le glas ?

Industrie écologiquement bien pensante, composée de personnel qualifié, à l’image moderniste, l’informatique n’a guère suscité de rejet, tout au plus de l’indifférence. Le marketing et les relations publiques de l’industrie de l’informatique et des télécommunications se sont chargés d’entretenir la flamme et se sont toujours révélés prodigieusement efficaces pour focaliser l’attention sur les nouvelles prouesses de leurs produits. Toutefois, l’informatique traverse une crise de désenchantement qui amène tous les acteurs à s’interroger sur les perspectives réelles de cette industrie. Et tout porte à croire que ce n’est pas une baisse de forme passagère. L’article de Nicolas Carr paru en mai 2003 dans la Harvard Business Review, « IT doesn’t matter », a sonné bruyamment la première charge contre l’informatique toute puissante, ouvrant  une brèche dans laquelle se sont engouffrés tous ceux que l’arrogance de l’informatique a pu agacer et qui finalement se sont révélés plus nombreux que prévu ! La question, nouvelle, est désormais posée : l’industrie informatique va-t-elle définitivement se banaliser et rejoindre dans l’anonymat  de la routine quotidienne d’autres industries stars qui, en leur temps, ont révolutionné notre appréhension du monde avant de succomber à la fatalité de la courbe en S ? Ou bien va-t-elle continuer son essor vers de nouvelles perspectives de transformation en se réinventant grâce à une nouvelle alchimie composée de rêve, de réussite économique et d’appropriation collective ? Qui pourrait gagner, qui pourrait perdre, parmi les acteurs de l’écosystème informatique : éditeurs, consultants, intégrateurs, fabricants de matériel, sociétés de télécommunications, informaticiens d’entreprise, direction des systèmes d’information d’entreprises ? A quelles évolutions de la localisation des compétences va-t-on assister ?

De l’innovation

L’innovation technologique ne provient pas d’un monde extérieur désincarné en percutant nos sociétés telle une météorite. Les innovations naissent au sein de nos sociétés et sont  le fruit de l’interaction dynamique de trois vecteurs : les hommes qui les imaginent, les conçoivent, les réalisent ; les structures qui les financent et les propagent, les utilisateurs qui s’en emparent et se les approprient. Elle s’inscrit dans une logique sociétale où s’arbitrent en permanence ce qui est techniquement possible et ce qui est socialement accepté. C’est à travers cette mécanique complexe d’acteurs que, dans le temps et dans l’espace, se joue le sort des innovations technologiques.

La production d’innovation vient enrichir le stock de ce qui est utilisable, alors que les logiques économiques, l’acceptabilité sociale et la capacité d’apprentissage font un tri pour choisir ce qui est utilisé, et en définitive c’est l’usage qui finit par consacrer ce qui est vraimentutile.

Le déplacement des vagues de l’innovation se fait ainsi à partir du cœur de la recherche scientifique transformée par la maîtrise industrielle vers la périphérie de l’usage. Plus une technologie est adoptée, plus elle se dissout dans la banalisation qui a fait son succès et perd son aura. C’est ce qui se passe avec l’informatique. Le modèle de Von Neuman qui a formalisé la structure de base de l’informatique et permis l’essor de cette industrie n’a pas changé. Mais qui sait qu’une calculette à 2 euros ou un téléphone portable sont des ordinateurs. Même les grands ordinateurs scientifiques ont laissé la place à des fermes de serveurs banalisés. Qui s’en soucie désormais dès lors que la rareté a disparu ? Des produits souvent banals intègrent des technologies sophistiquées, un des meilleurs exemples étant le DVD, réussite de l’intégration de l’optique, de l’électronique et des algorithmes de compression de l’information. Dans cet exemple, l’adoption rapide du service rendu a fait baisser les prix au point qu’un lecteur DVD est aujourd’hui vendu le prix de deux disques … DVD !

Ce qui fait de l’informatique un objet désormais banal est précisément ce qui a fait son succès : accélération de la vitesse, augmentation de la fiabilité, miniaturisation, autonomie en énergie croissante, facilité d’accès grâce à des logiciels de plus en plus simples (le navigateur web est devenu l’outil universel d’accès) mobilité et interopérabilité et surtout baisse des prix. Non seulement les outils sont plus performants, mais l’utilisation de l’informatique se répand dans tous les secteurs de l’activité, des plus classiques comme le commerce de détail aux plus sophistiqués comme la chirurgie ou les bio-technologies. Ce mouvement se poursuivra. Ceci signifie nullement la fin de l’histoire informatique car il se prépare bien sûr dans les laboratoires d’autres innovations qui vont permettre d’élargir l’usage en enrichissant les contenus et en rendant encore attractifs les contenants. Mais l’addition de techniques ne suffit plus à alimenter le mythe quand la magie est dissipée.

La banalisation démocratique

Au milieu du XIXéme siècle, l’électricité statique était une attraction de foire. Comme le cinéma.  Puis ces prouesses individuelles ont donné naissance à de puissantes industries qui ont mis quelques décennies à trouver leur taille adulte. L’exposition universelle de Paris en 1881 consacrait le statut industriel de l’électricité, mais l’électrification de la France a pris des décennies. Un immeuble sur trois seulement était électrifié à Paris dans les quartiers riches, en 1914, mais seulement un sur vingt dans les quartiers populaires. La photographie a mis des décennies pour sortir du domaine de la découverte et se démocratiser. Il est paradoxal que la numérisation rattrape pour la déstabiliser une firme aussi robuste que Kodak qui avait innové en contribuant à rendre la photographie facile et populaire dès 1900 avec ses célèbres appareils Brownie à 1$.

L’informatique, elle, est née adulte et mondiale, sérieuse et coûteuse. Elle ne s’adressait qu’aux grandes entreprises et aux puissantes organisations publiques. Et même si la mise au point de cette technique s’est révélée complexe et coûteuse, tout allait bien pour la poignée de spécialistes qui en avaient la charge. Au grand dam de ces experts, l’informatique a commencé à quitter le champ des grandes organisations pour percer dans le grand public avec le micro-ordinateur et c’est la généralisation de la micro-informatique propulsée par le web qui en quelques années lui a donné le statut d’industrie de masse désacralisée. Il y a désormais un milliard de micro-ordinateurs dans le monde. En quatre ans, un tiers des 22 millions d’internautes français se sont connectés au web par des lignes à haut débit ADSL usage qui était absolument inimaginable pour les informaticiens d’entreprise… comme pour les sociétés de télécommunications.

Depuis lors, cette industrie portée à célébrer le culte de la technologie assiste à sa propre banalisation. Qui se soucie désormais de la puissance de son micro-ordinateur ? Le langage codé des systèmes d’exploitation, des gigabytes et des méga-octets ne fait plus recette. De plus cette transformation ne se limite plus au grand public, mais concerne aussi maintenant les infrastructures des grandes entreprises. Il n’est plus nécessaire de posséder avec fierté ses grands ordinateurs, car la banalisation, appelée ici « utility computing », (fiabilisation, puissance et économie d’usage) concerne aussi les composants centraux des systèmes d’information des entreprises. Certes la technicité y demeure forte, le poids de l’héritage applicatif est encore lourd, mais les méthodes et les outils industriels mis au point au cours des dernières années permettent de gérer l’énergie informatique de façon industrielle. Cette révolution s’est faite en quelques années et brutalement l’industrie informatique a accédée à la maturité, c’est à dire à la baisse des prix et donc des profits. Ce qui compte désormais c’est l’usage, pour tous, de la puissance, de la fiabilité, de la bande passante et de l’ergonomie. La discrimination dans les choix se fait désormais plus sur des critères consuméristes que sur les performances techniques intrinsèques.

Les télécommunications en panne 

L’histoire récente du téléphone préfigure assez largement le sort de l’informatique, au moins dans ses couches d’infrastructure. L’ère du 22 à Asnières est définitivement révolue dans nos pays. Tous les habitants des pays développés utilisent un téléphone même s’il ne faut pas oublier que près de deux habitants de la planète sur trois ne passeront jamais de coup de téléphone de leur vie. Ce qui laisse un bel avenir à l’industrie du mobile qui relègue les vieilles dames du fixe au statut d’icônes préhistoriques, devenues des mamies Bell. Le téléphone vocal a longtemps été une machine magique, un objet de désir. Aujourd’hui ce n’est qu’un objet banal qu’on jette rapidement au gré des modes. La grande force de l’industrie du mobile est de se renouveler par l’usage, certains futiles comme le téléchargement des fonds d’écran ou des sonneries, mais aussi par de vraies trouvailles sociologiques comme le SMS et peut-être l’image. Mais c’est une industrie sous pression des coûts, avec des marges laminées et une concurrence féroce entre les grands anciens comme Motorola ou Nokia et les nouveaux venus agressifs comme Samsung et LG avant que n’entrent en scène à grande échelle les producteurs chinois.

La convergence

Depuis plusieurs années, l’utilisation de composants et de logiciels informatiques dans les appareils électroniques conduisait à prédire la convergence des industries informatiques et des industries électroniques. De fait, la numérisation des informations conduit à ce rapprochement sans toutefois que les deux familles industrielles se confondent, chacune conservant son indépendance. Cette hésitation semble révolue, la convergence gagne du terrain à travers des industries comme celle des écrans plats qui servent aussi bien l’informatique que la télévision, ou la numérisation complète des supports audio et vidéo. Dès lors les fournisseurs informatiques n’ont pas de difficulté à franchir le pas pour investir le domaine des écrans de télévision que les grands fabricants d’ordinateur commencent à attaquer. L’industrie du disque, autant support physique que contenu, vit cette transformation dans la douleur, alors que les acteurs de l’informatique excellent, comme Apple, dans la captation de ce marché de la musique numérique à consommer plutôt qu’à posséder.

Nouveau produit cherche service

Les revues et séminaires informatiques bruissent des innovations qui vont à nouveau faire faire un bond en avant à l’industrie. La question se pose de savoir si ces innovations vont générer de nouveaux usages attractifs, justifiant ces nouveaux investissements, ou simplement entretenir le renouvellement du parc applicatif et des infrastructures. Car pour les utilisateurs professionnels, il faut des motifs sérieux pour investir dans des techniques nouvelles plus perturbatrices que génératrices de gains.

Le champ majeur de développement restera la poursuite de la numérisation complète des informations et donc des processus de création, d’industrialisation, de commercialisation et d’échanges entre acteurs économiques. Autour d’internet, se développeront les échanges entre les acteurs des mêmes écosystèmes pour créer de vastes entreprises étendues, comme se développera entre les personnes d’une même entreprise, d’une même communauté d’intérêt un tissu de relations économiques, culturelles et sociales. Les usages collectifs d’Internet sont encore limités par l’insuffisant équipement des ménages et les difficultés d’apprentissage, obstacle qui se diluera dans les jeunes générations du « chat » et de Kazaa.

La mobilité des personnes et des objets est un vecteur majeur d’innovation annoncée. L’utilisation de la voix sur IP, qui n’en fait qu’un cas particulier de flux de données, à travers un micro-ordinateur connecté en Wi Fi semble ouvrir une ère nouvelle de connectivité, l’extension des capacités du WI-FI vers le WIMAX (802.16) d’une portée de 50 km à 70 M bit/sec et l’UWB (Ultra Wide Band) pour les courtes distances compromettant même les chances, déjà fragiles de l’UMTS au moins dans les zones denses. Les étiquettes électroniques (RFID : radio frequency identification)  vont permettre de relier les objets, sans contact, aux systèmes d’information de façon plus facile et généralisable que les étiquettes à code à barres, fluidifiant la chaîne d’approvisionnement.

Enfin l’informatique continuera à repousser les limites de la modélisation dans les applications de santé, de bio-technologie, dans le développement industriel, dans la compréhension de la matière et de l’univers.

Ces nouveaux produits enrichiront les services existants dans une société plus avide de connaissance et de rapidité. Elles pourront continuer à laisser au bord de la route tous les exclus de la société numérique, ou, peut-on espérer, contribuer à leur réintégration dans la société tout court.

La course off shore

Si l’innovation dans les couches techniques va graduellement enrichir ce qui est possible, c’est par la capacité de mettre en œuvre ces outils par des logiciels appropriés que les changements se concrétiseront dans les processus métier. Les logiciels représentent donc la voie royale du changement. Il reste que la production de code applicatif demeure une activité consommatrice de ressources pour les éditeurs dont c’est le métier mais aussi pour beaucoup d’entreprises utilisatrices qui doivent gérer la transformation de leur parc applicatif. Le cœur applicatif des grandes entreprises est en effet composé d’applications anciennes mêlées de façon souvent  inextricable, sans urbanisme d’ensemble, sans cohérence technique. Ces couches historiques sont coûteuses en entretien technique et en modifications, parfois simplement pour des raisons légales et sans création de valeur. Toute insertion d’innovation perturbe l’équilibre souvent instable des applications antérieures, et coûte cher en création d’interfaces nouvelles.

Pour accomplir les tâches informatiques répétitives de maintenance ou de conversion de codes anciens, les entreprises ont engagé la recherche de solutions plus économiques que l’emploi de techniciens et de cadres de pays développés. Elles se sont orientés en premier lieu vers l’industrialisation et l’automatisation des tâches de réalisation de logiciels. Ces méthodes et outils ont toutefois trouvé leurs limites dans les technologies classiques, mais, de plus, les innovations confortables pour les utilisateurs, comme les interfaces web, se sont révélés contre-productives pour les développeurs. Puis dans une deuxième étape, les « producteurs » de code ont cherché des solutions moins onéreuses en coût de main d’œuvre dans des pays aux salaires plus compétitifs.

Ce mouvement vers l’externalisation off-shore a commencé aux Etats-Unis et en Grande-Bretagne au début des années quatre-vingt dix. L’exploitation des ressources informatiques mondiales trouve son origine dans la même démarche économique que pour les métiers industriels. Elle a été beaucoup plus rapide dans les pays anglo-saxons qu’ailleurs pour des raisons culturelles, linguistiques, légales. Ceci a clairement favorisé l’essor de l’Inde dans ce secteur. Mais le problème n’est pas seulement économique. Les firmes indiennes ont développé une compétence rare dans la gestion des processus, sont devenus champions du niveau 5 du CMMI, et vont sans aucun doute étendre leurs compétences vers la gestion complète de processus. S’il s’agissait de simplement trouver une main d’œuvre meilleure marché, bien que formée, pour « faire du code », l’Inde se verrait elle-même dépassée par des pays plus compétitifs, comme les Philippines. Mais l’Inde est en train de construire une véritable usine informatique puissante qui sert tous les acteurs mondiaux de l’informatique et pose un énorme défi aux Etats-Unis, qui risquent de perdre des centaines de milliers d’emplois en informatique, ce qui devient un problème politique majeur aux USA.

La course off-shore se  joue non seulement sur les coûts mais désormais de plus en plus sur l’expertise. C’est un défi considérable pour les pays développés qui se croyaient mieux protégés dans les métiers de la « manipulation de symboles » que dans ceux utilisant la seule main d’œuvre.

Le monde de l’informatique et des informaticiens est instable. Si l’innovation ne gagne pas les couches les plus importantes de la population, dans les entreprises comme dans la société, pour s’intégrer de façon harmonieuse dans les pratiques courantes de la vie, l’informatique n’aura pas remplie sa mission de transformation. Si elle réussit, elle perdra en grande partie son identité. Les informaticiens ont cette redoutable charge de transformer une formidable réussite collective en banalisation de leur métier tout en conservant leur professionnalisme et leur rigueur.


French touch, French Tech

Le « paradoxe français »  prendrait-il un autre visage ? On sait que les Français ont un goût immodéré pour la possession et l’usage des objets techniques  mais que les entreprises en raffolent beaucoup moins. De fait si nous sommes dans le peloton de tête en matière d’objets connectés, nous sommes plutôt à la traîne par rapport à nos concurrents pour l’usage en entreprise, grandes et petites, des technologies de l’information. Plusieurs rapports publiés à l’automne 2014 convergent pour souligner la faible appétence des entreprises françaises pour le numérique, au moment où, paradoxalement, l’Etat apparait aux yeux de l’ONU comme le meilleur élève européen en matière d’administration numérique !

Or la France est en train de montrer au monde qu’elle dispose d’une ressource majeure de créativité et de compétitivité, les start-up ! Nous avons réussi à prouver depuis quelques années déjà que quelques entrepreneurs audacieux étaient capables de dépasser la Silicon Valley aux Etats-Unis même et de réussir mondialement avec des objets qui remportent chaque année au CES de Las Vegas la palme de la créativité. Car ils savent  aussi transformer ces intuitions en succès commerciaux. Parrot, Withings, Netatmo sont aujourd’hui de jeunes vétérans, imités désormais par des centaines de start-up qui partout en France innovent, créent, se battent. Elles sont particulièrement visibles en région où elles trouvent un terreau favorable auprès des collectivités territoriales, des grandes écoles et des universités qui en soutiennent la création.

 Les Trophées des industries numériques*, organisés par L’usine nouvelle en octobre 2014 et dont Sia Partners est sponsor, ne concernent pas que des start-up. Ils ont rassemblé  des entreprises de taille et de secteurs différents mais toutes désireuses d’exploiter les technologies de l’information comme vecteur majeur de leur transformation. Airbus, Orange, L’Oréal ou Renault ont concouru notamment avec Daitaku, née en 2013 pour mettre au point un logiciel d’analyse de données, Upgraduate, qui acclimate les MOOC au monde de l’entreprise. Le slip français s’est imposé dans le textile grâce aux réseaux sociaux, Lippi a bouleversé l’organisation du travail en formant la totalité de son personnel aux techniques numériques.  Cette diversité démontre que le numérique s’applique à tous les secteurs, à toutes les tailles d’entreprise, à toutes les situations. C’est tout le cycle de vie des produits et les rythmes de l’entreprise qui sont concernés par la transformation numérique. Les start-up qui sont nées dans cet univers numérique disposent d’une capacité innée à en tirer toutes les potentialités. Elles offrent un modèle dont s’inspirent les grandes entreprises les plus mobiles.

Les start-up françaises représentent d’abord un enjeu économique  majeur car elles permettent de créer de nouvelles activités pour relayer la vieille économie défaillante. Mais elles jouent aussi un rôle politique en incarnant le dynamisme et l’espoir alors que la plupart des indicateurs classiques incitent au pessimisme.

Le gouvernement entend utiliser ce mouvement comme vecteur d’attraction de capitaux internationaux mais aussi pour changer l’image d’un pays trop souvent perçu comme vieilli, bureaucratique, râleur  et déconnecté de la réalité du monde de l’entreprise du XXIe siècle.

French Tech est un programme gouvernemental qui vise à labelliser des territoires qui font du numérique leur axe majeur de développement.   Plus de vingt métropoles ont constitué un dossier pour recevoir le label French Tech, se faire connaître à l’étranger et catalyser initiatives privées et actions publiques. Avec un Etat peu riche en moyens, ce ne sont pas des subventions qui déclencheront l’ambition numérique mais la coopération entre acteurs. Il faut souligner que sans participer à cette reconnaissance publique, de nombreuses collectivités engagent la convergence numérique de leur territoire en partenariat avec les Chambres de commerce, les agences de développement économique et les entreprises. Il faut ainsi citer l’exemple de Roanne dont la première édition des « Instants numériques » a été un remarquable succès, rapprochant des entreprises anciennes comme Nexter et des start-up.

Le mouvement des start-up françaises, dynamique et foisonnant, s’appuie sur plusieurs vecteurs de performance qui ont été développés au cours des dernières années et ont progressivement constitué un environnement favorable à la  création.

D’abord le crédit impôt-recherche qui est un outil très apprécié fait de la France « un paradis fiscal » pour l’innovation. Les grandes entreprises exploitent largement cette manne  de six milliards € par an, qui permet d’obtenir un crédit d’impôt égal à 30 % des dépenses de R&D éligibles. C’est également un élément d’attraction pour les entreprises étrangères. Les PME qui n’en ont pas été les premières bénéficiaires, avec 88% des déclarants mais seulement 35% des crédits, ont vu en 2013 élargies les conditions d’attribution.

Ensuite le travail des pôles de compétitivité, lancés en 2004, qui ont fait émerger des zones d’excellence, les clusters, où entreprises, laboratoires de recherche et universités travaillent étroitement ensemble pour faire émerger des idées neuves et développer les entreprises qui les incarnent et les propulsent sur le marché.

Les incubateurs de start-up se multiplient. Paris dispose de 10000 m2 de bureaux qui leur sont destinés, et grâce à l’initiative conjointe de la Caisse des dépôts, de la Ville de Paris et de Xavier Neil va se doter en 2016 avec la Halle Freyssinet d’un nouvel espace qui serait aujourd’hui unique au monde. Les grandes entreprises et les banques suivent également ce mouvement. Le Crédit Agricole a ouvert à Paris en octobre 2014 son « village by CA », espace d’open innovation et pépinière destiné à accueillir les start-up. Les espaces de co-working, comme Numa, accueillent en séminaire les équipes des grandes entreprises, telles Airbus, pour décloisonner et ouvrir les cadres à la culture de l’innovation transversale.

 

La France apparaît déjà dans les classements internationaux comme un pays fertile en initiatives  numériques. Elle se prépare, notamment avec la French Tech, à la nouvelle révolution industrielle. Après les NTIC – Nouvelles technologies de l’information – ce sera en effet les NBIC – nanotechnologies, biotechnologies, intelligence artificielle et sciences cognitives – qui vont alimenter la transformation de notre tissu économique. Le pessimisme ambiant ne doit pas nous faire négliger que les entreprises se sont mises en mouvement et qu’une génération de nouveaux entrepreneurs leur montrent la voie. La France numérique n’est plus une volonté désincarnée, c’est une réalité en marche.

*Evènement dont Sia Partners, qui  publie à cette occasion l’édition pilote 2014 de son Observatoire des stratégies digitales :  les entreprises à l’ère du digital : les prémices d’une métamorphose. Voir le blog : http://tinyurl.com/SiaPartnersTD

Isabelle Denervaud et  Jean-Pierre Corniou, associés, Sia Partners

http://www.usine-digitale.fr/article/trophees-des-industries-numeriques-les-lecons-d-innovation-des-neuf-laureats.N291642


Qui peut orchestrer la mutation numérique de l'entreprise ?

Le débat, récurrent, sur la nature et le positionnement de la direction des systèmes d’information est, cette fois, en train de changer radicalement. Il est tout à fait normal que la DSI du XXIe siècle ne ressemble pas à celle du XXe siècle. Depuis les années soixante-dix, c’est surtout une direction technique  qui s’est construite pour installer progressivement l’informatisation dans les entreprises. Après une époque pionnière de défrichage technique, elle a été un acteur de l’industrialisation de l’informatique  pour ensuite intégrer l’organisation et créer le système d’information. Si internet n’avait été dans une première étape qu’une évolution technique supplémentaire dans une longue histoire d’innovations techniques de « traitement du signal », le web  s’inscrit dans une autre histoire.  Il est clair que c’est aujourd’hui  une transformation sociétale qui envahit  les entreprises et submerge la direction des systèmes d’information par un flot ininterrompu d’innovations comportementales.

  Digital-orchestra-beethoven-violon-ipad-iphone

Ce n’est pas l’informatique qui s’est transformée, mais le monde qui a changé

Certes ce sont bien les progrès techniques qui nourrissent ces innovations, mais elles ne doivent plus rien à l’informatique interne car elles sont initiées et propagées par les acteurs du marché grand public. Quand il se vend un milliard de smartphones dans le monde,  et que chacun des collaborateurs de l’entreprise détient à titre personnel un de ces ordinateurs  mobile, moderne et surpuissant que l’on appelle smartphone, équipé de dizaines de logiciels attractifs, l’informatique interne n’est plus audible ni dans ses recommandations ni encore moins dans ses interdits.

 Mais cette évolution des comportements ne se limite pas au confort de communication  individuel comme l’ont longtemps cru les DSI. Elle  touche surtout les processus d’affaires. Le web conduit à travailler autrement au sein des directions, intégrer les fournisseurs dans un processus de conception, répondre aux clients, inventer de nouveaux produits, voire même de nouveaux métiers. La DSI ne peut prétendre « diriger » les systèmes d’information qui par nature appartiennent à toutes les composantes de l’entreprise dont le système d’information constitue le système nerveux central. Elle ne peut pas non plus impulser ces transformations organiques de l’entreprise.

C’est pourquoi naissent à côté de la DSI de nouvelles structures pour capter l’énergie du web et construire les fondements de cette nouvelle économie, « l’iconomie »,  que le web soutient et propage dans toutes les entreprises et dans tous les métiers. Ces nouvelles structures, à l’instar des directions e-commerce du début des années 2000, ne s’occupent pas d’infrastructure mais d’usage et de business. Qualifiées « d’ agency », de « lab », de « factory », elles portent des  appellations flatteuses, au goût de marketing anglo-saxon, synonyme de modernité. Leurs moyens ne sont que peu comptés et non intégrés dans les coûts du SI de l’entreprise.

La Direction des systèmes d’information se voit confier de fait  la tâche certes essentielle mais moins en visibilité de faire fonctionner les systèmes classiques de l’entreprise. Elle s’appuie sur les outils historiques de l’informatique, autour des ERP, qui n’ont jamais déchaîné l’enthousiasme des utilisateurs. Elle diffuse certes les outils modernes que sont les smartphones, tablettes et apps, mais plutôt dans une logique de régulation économique et de contrôle de la sécurité, fonctions qui là encore sont guère flatteuses. Plus que jamais, la DSI est victime d’un processus  d’individualisation des gains de la numérisation par les directions métiers et de socialisation des coûts sur le budget système d’information, notamment l’infrastructure. Concentrant le budget, la DSI apparait naturellement comme un centre de coûts dont le seul objectif de la direction générale est d’en obtenir une réduction constante.

Choisir, c’est renoncer : le gambit de l’infrastructure

La DSI est donc aujourd’hui à la croisée des chemins. Structure généraliste mêlant le fonctionnement opérationnel, l’entretien des systèmes et des infrastructures et quelques projets d’envergure aux résultats aléatoires, elle oscille entre indifférence  et critiques sur ses coûts et ses règles normatives d’attribution de matériels et de gestion contraignante de la sécurité. Ce positionnement la condamne à ne jouer qu’un rôle, certes vital, mais subalterne, dont le très faible nombre de DSI parvenant à des postes de direction générale est un indicateur.

Or il est plus que jamais nécessaire d’investir dans les technologies du XXIe siècle pour booster la capacité des entreprises à innover et conquérir une nouvelle rentabilité. Cette recherche de performances nouvelles ne peut que venir que de l’utilisation intensive de toutes les techniques qui  permettent de produire, capter, traiter, traduire, restituer, transformer, stocker l’information. Chaque jour de nouveaux progrès scientifiques sont obtenus grâce à l’exploitation des outils numériques. De nouveaux outils comme le Big Data, c’est-à-dire l’exploitation des données massives, permettent l’essor de disciplines nouvelles ou jusqu’alors confidentielles comme l’intelligence artificielle,   l’analyse des comportements, la modélisation de systèmes complexes. Les capteurs se multiplient ajoutant aux informations de gestion classique de nouveaux champs considérables d’informations opérationnelles. La démocratisation de ces outils permet de les exploiter dans des situations de plus en plus larges, au plus près de la décision, dans chacun des contextes d’action, au niveau le plus approprié. Que ce soit en matière logistique, dans le domaine du transport, de l’énergie, de la santé, pour concevoir de nouveaux produits et services, on exploite le rapprochement de données par des outils logiciels puissants et la diffusion de ces informations à travers les réseaux et les écrans de toutes natures.

 Ce choc numérique ne peut se faire à l’écart des professionnels du traitement de l’information

Qui peut maîtriser cette expansion infinie de la donnée  et des outils ?  Il est évident que l’initiative de chacun risque de conduire à une vaste cacophonie où données, informations et connaissances seraient gérées par impulsions aléatoires. Il faut donc un chef d’orchestre. Ce ne peut être que le dirigeant lui-même. Mais pour exercer cette fonction, il lui faut s’appuyer sur un professionnel des systèmes complexes  qui saura architecturer, structurer et pérenniser  les flux de données qui constituent aujourd’hui l’ADN de l’entreprise. On ne confie pas son ADN à une « fonction support ».  Cette fonction métier d’un nouveau type doit agir comme un pôle de veille et d’impulsions, mais aussi comme un référent des pratiques, des outils et un garant de l’intégrité des données.  Elle gère aussi la dynamique du « temps du web », où les décisions sont prises rapidement, les outils produits et mis en œuvre de façon collaborative en mode agile, les méthodes de déploiement instantanées… Chef d’orchestre, elle garantit la cohérence systémique, veille à une exécution parfaite et à une qualité qu’aucun des instrumentistes ne peut atteindre seul.

Plutôt que de multiplier les initiatives fractionnistes, la création de cette entité nouvelle doit assurer à l’entreprise que toutes les innovations seront exploitées dans les règles de l’art et dans l’intérêt commun de chaque composant de l’entreprise. Il s’agit clairement d’une fonction centrale majeure pour l’avenir qui doit s’affranchir des lourdes opérations ancillaires qui occupent encore largement l’emploi du temps des DSI.

Pour se hisser à ce niveau, il faut que les DSI acceptent de ne plus gérer l’infrastructure et le service au quotidien qui sont aujourd’hui des fonctions industrielles et banalisées qu’il faut confier au marché en les standardisant et mutualisant. Cela s’appelle, notamment,  le cloud computing, qu’il faut mettre en œuvre sans inquiétude en créant les normes d’excellence opérationnelle indispensables et en en pilotant l’exécution. Ce métier relève d’une entité professionnelle très proche de la performance au quotidien.

Deux pistes institutionnelles complètent cette analyse de l’évolution fonctionnelle, et plusieurs scénarios d’évolution pourraient être envisagés en fonction de la nature et de la maturité informatique et numérique de l’entreprise. Si l’ancrage de ces entités n’est pas le sujet majeur, on sait également qu’il revêt en termes d’autorité et de symbolique une importance non négligeable.

 On   peut imaginer que les fonctions de la DSI soient confiées à deux entités clairement distinctes dans une gouvernance unifiée conforme aux principes de COBIT:

-        Une Direction de l’efficacité opérationnelle du système d’information, chargée du pilotage au quotidien à travers des partenariats et donc de la conclusion des contrats d’externalisation et de leur pilotage, rattachée au Chief operation officer de l’entreprise ou au DG

-        Une Direction de la transformation numérique, chargée de l’orchestration de la mutation numérique de l’entreprise et rendant compte au président directeur général

Les CIO actuels sont d’excellents candidats pour les deux postes. Mais ils doivent clairement choisir entre l’optimisation incrémentale du passé ou l’incertaine mais exaltante construction de l’avenir.

 

NB : l'image est tirée de ce document étonnant  http://www.buzzwebzine.fr/digital-orchestra-beethoven-joue-avec-ipads-iphones/


Réhabiliter l'exploitation informatique à l'heure du numérique

L'histoire de l'informatique est celle de la lente dissociation de la machine et des programmes. Au tout début, c'était la machine qui était au centre de toutes les préoccupations, coûteuse, complexe, capricieuse. Puis la domestication de la machine et de son environnement d'exploitation a relégué l'informatique de production dans les couches basses du système d'information.  Devenues depuis les années quatre vingt-dix parent pauvre de la direction des systèmes d'information face aux projets, plus mobilisateurs et plus en vue des directions générales,  les fonctions de construction et le pilotage des infrastructures  reviennent aujourd'hui avec force sous la lumière des projecteurs. Ce n'est d'ailleurs que justice car l'exploitation informatique et le maintien en conditions opérationnelles  des applications ont toujours représenté l'essentiel de la dépense informatique - autour de 80% - . Et l'on sait qu'un système ne vaut que ce vaut le plus faible de ses éléments, ce qui implique de les traiter tous avec la même attention.
 
Or ce sont les domaines techniques qui ont fait  l'objet d'une constante, et discrète, modernisation et d'une industrialisation performante sous la poussée de l'innovation  des constructeurs et opérateurs de télécommunications et de l'augmentation des volumes de données. L'usine informatique, de plus en plus partagée dans un modèle coopératif entre les équipes internes des entreprises et leurs partenaires externes, est sortie du modèle intuitif et heroïque de ses origines. Elle est devenue un ensemble composite de techniques de haut niveau piloté de façon cohérente. Le "sujet infrastructures" est redevenu prioritaire et les directions générales deviennent soucieuses de ne pas voir leur informatique décrocher pour des raisons techniques. L'organisation et la gouvernance des infrastructures revêt désormais un enjeu majeur pour les métiers. 
 
747860331
Un centre d'exploitation informatique des années 80
 
Enn effet, si le paysage informatique n'a cessé d'évoluer  au gré des grands paliers d'évolution technique que l'on pouvait situer tous les dix ans - mainframe, informatique départementale, PC, réseau, stockage - internet a là encore tout bousculé. Le réseau, lui-même longtemps mal aimé de l'exploitation, est au cœur de la performance économique de l'entreprise. Tout est devenu temps réel tant par la poussée  du client qui doit pouvoir accéder aux sites web 24 h sur 24 que pour répondre à l'organisation des entreprises globalisées installées sur plusieurs fuseaux horaires. Arrêter pour maintenance un système ou une base de données est devenu simplement impossible.
 
Mais plus encore ce sont les applications, et donc les usages, qui poussent les infrastructures à progresser sans cesse. L'utilité du stockage sur le cloud a convaincu tous les utilisateurs mobiles et multi-plateformes. Ne plus avoir à réfléchir pour savoir où on a stocké son dernier document est un vrai service. Ne plus devoir de façon fastidieuse mettre à jour son agenda et son carnet d'adresse est un vrai bonheur quand on se souvient , encore, du monde d'avant... Ce ne sont que les éléments visibles d'une profonde révolution qui implique une totale dématérialisation des services applicatifs dans des réseaux distants rendant l'accès à l'information indépendant de l'infrastructure et des plate-formes techniques. 
  Google-server-farm
Ferme de serveurs Google
 
Ainsi la mise à niveau des infrastructures permet de consolider la base applicative et de hisser le niveau de service. Les grands acteurs comme Google, Apple et Microsoft nous ont aussi appris à ne plus se préoccuper vraiment de la mise à jour des applications devenue permanente et fluide. Amazon, fort de son expérience propre, en a fait un métier. Mais le processus d'adaptation des applications dans le portefeuille des entreprises est loin d'être achevé. Beaucoup restent liées à un poste de travail et à son environnement technique. Leur "webification", qui est un préalable à cette fluidité n'est pas achevée, ce qui pousse d'ailleurs nombre de directions métiers vers les acteurs qui ont compris comme Salesforce  la force du modèle de l'informatique en nuage. Elles doivent être agiles, flexibles. Internet est devenu le modèle unificateur du portefeuille applicatif. Pouvoir accéder en tous temps et à partir de sa plateforme du moment à ses informations n'est plus comme par le passé une exigence de dirigeant, mais la réalité quotidienne de tous les collaborateurs même quand ils ne sont pas spécifiquement mobiles. Et il est évident que ce sont les collaborateurs les plus actifs sur le terrain qui doivent disposer des outils les mieux adaptés à l'usage contextuel.
 
L'économie internet va doubler d'ici la fin de la décennie. Les métiers doivent aller plus vite, ne peuvent se contenter de leurs applications régaliennes. Les cycles de développement sont plus courts et l'espérance de vie des applications est aussi beaucoup plus courte. Ceci conduit à structurer un couplage fort et continu entre développement et exploitation
 
 Une organisation de production légère et coopérative 
 
Face aux défis qu'induit cette nouvelle situation, la tentation de dissocier  une informatique structurante de back-office et une informatique légère et réactive de front office répond au souci d'aller vite à l'essentiel pour ne pas décrocher face aux besoins des clients. Nenamoins ce choix tactique ne doit être que provisoire car Il serait dangereux d'opposer une Informatique interne "lente"  et une informatique externe rapide. En effet les deux utilisent les mêmes données, visent les mêmes utilisateurs convertis au web, nécessitent la même rigueur d'exploitation et doivent donner lieu à un pilotage de même niveau d'exigence. Il faut donc s'engager dans une transformation globale du niveau de service informatique qui traite toutes les applications de la même manière, en en profitant pour rationaliser et simplifier le patrimoine applicatif alourdi par des années de projets hétérogènes et souvent inachevés.  Le rôle de l'infrastructure au sens large, du data center au smartphone et aux capteurs, est bien de fédérer les services rendus aux parties prenantes du système d'information, internes et externes.
 
Comme l'entreprise ne peut atteindre avec ses seuls moyens le niveau d'exigence industrielle qui caractérise désormais le standard mondial de service, elle doit rechercher les partenaires  les mieux à même à concrétiser son projet. C'est ainsi qu'il faut imaginer de nouveaux types de contrats d'infogerance plus tactiques, exploitant un multi sourcing sélectif, et véritablement conçus en entreprise étendue et non pas comme un choc frontal arbitré par les avocats.
 
Plusieurs tendances lourdes  émergent des signaux du marché  et obligent à repenser le rôle de la production et de la distribution multi-plateformes :
 
- les applications web nécessitent des méthodes de mise en production lean et agile bien différentes des processus habituels mais tout aussi exigeantes 
 
- les nouvelles "apps" doivent intègrer les contraintes de production et la qualité de service, ce qui implique une industrialisation des tests et validation
 
- le "Bring Your Own Device" est déjà bien ancré dans les pratiques sociales et ne fera que se développer. C'est même "Bring Your Own Application", les travailleurs du savoir, mobiles, en crowdsourcing, utilisant leur propre environnement de travail.
 
- la mutualisation des Infrastructures s'imposera sur le moyen terme car elle offre baisse des coûts et accroissement de la fiabilité 
 
- la sécurité doit être repensée pour ne plus être périmétrique mais contextuelle en protégeant de façon ciblée les actifs les plus essentiels de l'entreprise ( ce qui implique de bien les connaître...)
 
Il est évident qu'une telle transformation ne se fera pas sans talents. Comment attirer les compétences dans ces métiers proches de la technique, aussi bien chez les opérateurs que dans les entreprises uitlisatrices, qui rebutent souvent. S'il n'a jamais été facile pas de recruter des informaticiens et encore moins pour les infrastructures, il faut revaloriser ces fonctions qui ont un rôle critique dans la performance opérationnelle de l'entreprise.
 
Ceci est d'autant plus essentiel qu'il faut contrôler la totalité des applications et des services dans un environnement technique d'exploitation multi-sources, internes et externes. Ces nouvelles exigences exigent une culture nouvelle de l'orchestration, ouverte, documentée, partenariale qui renouvelle le modèle d'une gouvernance figée et souvent limitée à un affrontement inefficace. Il y a là non seulement une source d'emplois hautement qualifiés et motivants, mais aussi la possibilité de développer de nouveaux métiers. L'exploitation informatique ets bien vivante. C'est un métier d'avenir mais qui sera, comme beaucoup d'autres, très mobile.

Le choc numérique, le livre, le site

Pour enrichir la compréhension du monde numérique dans lequel nous entrons avec force, et qui inquiète autant qu'il peut stimuler, nous avons décidé de mettre en oeuvre nos convictions par la réalisation d'un ouvrage collaboratif. Pour valider notre vision d'un monde nouveau où ce n'est plus la hiérarchie seule qui peut résoudre des problèmes complexes, mais un processus collaboratif intégrant la diversité des cultures, des parcours et des opinions, nous avons co-construit avec dix consultants de Sia Partners cet ouvrage, Le choc numérique, qui sort le 26 novembre chez Nuvis dans la collection "Economie et prospective numérique". Le livre papier n'est qu'un support particulier d'un ensemble qui comprend une édition numérique, et un site web où la vidéo, les outils de présentation comme prezi, les forums et un wiki trouvent toute leur place.


Le choc numérique

Lancé en mars 2013, notre travaill collectif est entré dans sa phase finale, l'impression. Dans quelques jours, l'ouvrage va être mis en distribution par l'éditeur Nuvis sous forme papier et numérique. Toute l'équipe est heureuse d'avoir mené à bien ce projet collectif qui illustre pleinement notre propos : le numérique met en synergie les compétences et les efforts individuels pour un résultat supérieur à celui atteint par une personne seule. Bien entendu le collectif ne se décrète pas, c'est aussi le résultat d'une volonté et d'un effort particulier de se mettre au service du groupe en acceptant de négocier son point de vue afin de trouver systématiquement un consensus; nous expliquons cela dans le "making off" du livre. Que toute l'équipe enthousiaste des consultants de Sia Partners qui ont participé spontanément à cette aventure soit ici remerciée !

En attendant la parution voici, en avant-première,  la préface de Geoffroy Roux de Bézieux, vice-président délégué du MEDEF en charge, notamment, de l'économie numérique et l'introduction.

Couv choc numerique3

Préface

Jamais l’espèce humaine n’a produit autant de traces de son quotidien, de ses actions, de ses modes de vie et de son intelligence en si peu de temps et à si grande échelle. Jamais elle n’a bâti de réseaux aussi gigantesques et ouverts, qu’elle ne le fait aujourd’hui grâce aux technologies de l’information et de la communication. Jamais elle n’a tiré autant parti de l’intelligence collective pour changer son environnement, son quotidien et pour transformer son futur.

Et pourtant, ce à quoi nous assistons aujourd’hui n’est qu’un commencement ! Nous sommes à l’aube de transformations qu’un seul individu est incapable de conceptualiser mais que chacun d’entre nous est d’ores et déjà en train d’amorcer. La force du numérique est une promesse que nous contribuons tous à construire, à titre individuel mais surtout de façon collective.

L’enjeu maintenant est d’être en capacité de tirer le meilleur de cet écosystème mouvant, itératif, évolutif, en s’en appropriant les règles du jeu, la logique et surtout en en définissant les objectifs. Tout semble désormais possible, le numérique nous affranchit des distances et du temps, il est un levier incontestable d’optimisation des actions et un accélérateur de la prise de décision. Mais il  impose en même temps, une veille, une vigilance et une responsabilisation des acteurs décuplées tant les effets produits sont puissants.

 

Pour l’entreprise, le défi est à la hauteur des promesses portées : promesses de performances, promesses de compétitivité, promesses de créativité et d’innovation renouvelées. Le saut qualitatif est renforcé par des conditions de coûts qui ne constituent plus une barrière à l’entrée. La PME et le grand groupe bénéficient des mêmes accès, des mêmes avantages, pour peu que la transformation des process et des modèles devienne leur priorité. Nous sommes passés dans un univers où les pesanteurs matérielles s’estompent par la montée en puissance de l’immatériel et sa souplesse d’appropriation.

Tout serait alors vraiment idyllique ?

L’avantage comparatif ira désormais au plus souple, au plus adaptable, à celui qui aura su capter les forces de la métamorphose des systèmes. Il ne faudra plus être le plus gros pour durer mais le plus agile, il ne faudra plus être le riche pour se doter des moyens les plus performants mais certainement le mieux informé, le plus initié. Parce que voilà, la clé du succès dans l’appréhension de ce changement majeur de paradigmes, se cache dans ces petits détails : l’information et sa maîtrise !

Ces deux notions sont en effet le corolaire de la performance des outils qui ont contribué à imposer les nouveaux modèles. Celui qui décode, rend intelligible, s’approprie, diffuse ou organise les flux d’informations produits par la « multitude » saura, à n’en pas douter, tirer son épingle du jeu. A l’inverse, ne pas s’en emparer condamne à quitter le jeu.

Aussi, l’entreprise quelle qu’elle soit, n’a plus le choix du numérique ! Elle n’a d’ailleurs même plus le temps de se poser la question. Tôt ou tard, l’ensemble de ses fonctions, son organisation elle-même, son management et les ressources humaines dont elle a besoin seront impactées par ces transformations.

Le défi aujourd’hui pour les entreprises de France est d’opérer au plus vite ce basculement inéluctable.

En tant que vice-Président délégué du MEDEF en charge de l’économie, de la fiscalité, de l’innovation et du numérique, j’aurai donc à cœur d’accompagner les entrepreneurs dans cette mutation des modèles. Parce que le « Choc numérique » fera résonner encore et pour longtemps ses répliques, nous devons tous nous mobiliser pour rendre cette mutation la plus opportune qu’il soit ! Il en va en effet, de l’intérêt de notre économie, de l’emploi et plus largement du rayonnement de la France dans le monde.

 Geoffroy Roux de Bézieux 

 

Introduction

« J’ai fini par comprendre que les grandes révolutions économiques de l’histoire se produisent quand de nouvelles technologies de communication convergent avec de nouveaux systèmes d’énergie »

Jeremy Rifkin, La troisième révolution industrielle

 Ceci est une oeuvre collective. Passionnée. Imparfaite. Nous avons voulu rassembler nos connaissances, nos interrogations, enrichir notre culture naissante de cette ère de l’internet et du web. Tous acteurs d’un cabinet de conseil, engagés auprès de nos clients, nous souhaitons comme eux comprendre cette époque pour les aider à tirer parti des formidables opportunités qu’elle recèle, mais aussi à en déjouer les pièges et les risques. Nous ressentons aussi le devoir comme acteurs sociaux de contribuer à éclairer ce chemin nouveau et bien entendu incertain pour expliquer les faits, poser les problèmes, les expliquer et tenter de contribuer à les résoudre. Avec cette écriture à plusieurs mains, beaucoup de neurones et de travail, de longues discussions et échanges animés, nous avons aussi voulu écrire un ouvrage contemporain. Casser le mode traditionnel avec un livre qui puisse se lire facilement, permettant de rassembler les pièces de ce puzzle parfois complexe que représente l’émergence d’un nouveau cadre socio-technique. Essayer, à chaque instant, de dépasser les modes, dont on mesure la volatilité, comme la pensée toute faite, unique, aux conséquences aussi tranchantes que fragiles. Se poser plus de questions certainement, que les résoudre totalement, car ce monde se créée chaque jour et bien ambitieux celui qui pourra prétendre en dessiner les contours à dix ou vingt ans. C’est un essai. C’est-à-dire une réflexion inachevée, avec  des impasses assumées, qui se poursuivra sous forme d’un site web collaboratif, ouvert aux réflexions de chacun. Nous avons tenté de ne pas refaire ce qui a déjà été fait cent fois en assénant des convictions définitives sur le monde numérique ou en poussant des solutions marchandes du moment. Chaque chapitre éclaire des thématiques indépendantes, des questionnements forts sur le « comment faire ? », étayés par de nombreux exemples. Chaque entrée peut être abordée indépendamment et permet de comprendre le sujet de façon holographique à partir de plusieurs angles.

Nous sommes partis d’un constat simple : beaucoup de gens se posent des questions sans réponse sur cette époque déconcertante. Nous pensons que l’irruption dans nos vies de travailleur, de consommateur, d’épargnant, de citoyen, de parent de cette avalanche de données et d’outils numériques rebat totalement les cartes. En nous adressant aux chefs d’entreprise comme aux décideurs politiques qui sont par leur position actuelle les acteurs majeurs de cette transformation, nous leur disons aussi que leur responsabilité n’est pas seulement économique et politique, mais aussi sociétale. La transformation ne viendra plus seulement comme par le passé des seuls décideurs, mais sera aussi entraînée par de puissants courants décentralisés. Mais il appartient aux responsables politiques de préparer cette société nouvelle en avancant sur deux éléments du socle sociétal : l’éducation et la sécurité.

 Nous disons à tous ceux qui pensent que le développement de nouveaux objets et programmes numériques suffit à transformer le monde que la technologie seule ne fait rien, mais que le changement suppose la révolution des usages, et donc l’adhésion et la compréhension de tous. Un système n’a ni centre ni périphérie. Tout y est important et suppose engagement et conscience.

 Nous vivons une rupture dans l’histoire qui ouvre les portes d’un monde nouveau, attirant et inquiétant à la fois. Mais n’en était-il pas de même lorsque le livre, tous les livres, et surtout ceux qui n’étaient ni attendus ni autorisés, se sont répandus dans l’Europe du XVe siècle ? Aujourd’hui, c’est la planète tout entière qui est entraînée à grande vitesse dans ce monde de l’information et de la connaissance en temps réel. Sans frein, sans chef de projet, sans régulateur...