Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


Informatique, banalisation, usage: retour vers le passé

Ce texte date de 2004. Nous avons le sentiment de vivre une période d'accélération de l'histoire des technologies. Or dix années plus tôt, en avril 2004, au moment du lancement de la sonde Rosetta, j'écrivais cet article pour la revue L'informatique professionnelle. Il est intéressant de relire ce document qui traduisait les proéccupations de l'époque pré-iPhone et qui ouvrait quelques perspectives largement confirmées.

L’informatique connaît une banalisation démocratique qui la range peu à peu au rang des autres industries. Désacralisée par le web, elle participe à la convergence générale des technologies. Bien des innovations sont encore à venir mais c’est l’usage qui en déterminera la valeur.

Il y a encore quelques temps, il aurait pu paraître curieux, voire même provocateur, de s’interroger sur les relations entre informatique et innovation tant l’informatique a longtemps été porteuse, dans la représentation collective, d’une image de modernité et de progrès. Il y a en effet très peu de secteurs économiques qui peuvent s’enorgueillir de repousser sans cesse depuis si longtemps leurs limites technologiques, à l’image de l’emblématique loi de Moore, et de célébrer avec tant d’éclat leurs performances. Depuis un siècle, et surtout depuis les années cinquante, tout réussit à l’informatique, propulsée par quatre puissantes vagues d’innovation matérielles et logicielles. Dans les années soixante IBM et le BUNCH inventent les ordinateurs centraux, puis au début des années soixante dix DEC lance les ordinateurs départementaux. En quatre vingt apparaît le révolutionnaire micro-ordinateur, vite relié en réseau, puis connecté mondialement grâce au web en 1993. Mais après la frénésie d’investissements justifiés par le passage de l’an 2000 et l’éclatement de la bulle le monde informatique semble patiner. L’informatique serait-elle en panne d’inspiration ? Aurait-elle perdu son aura et sa magie ?

Pour qui sonne le glas ?

Industrie écologiquement bien pensante, composée de personnel qualifié, à l’image moderniste, l’informatique n’a guère suscité de rejet, tout au plus de l’indifférence. Le marketing et les relations publiques de l’industrie de l’informatique et des télécommunications se sont chargés d’entretenir la flamme et se sont toujours révélés prodigieusement efficaces pour focaliser l’attention sur les nouvelles prouesses de leurs produits. Toutefois, l’informatique traverse une crise de désenchantement qui amène tous les acteurs à s’interroger sur les perspectives réelles de cette industrie. Et tout porte à croire que ce n’est pas une baisse de forme passagère. L’article de Nicolas Carr paru en mai 2003 dans la Harvard Business Review, « IT doesn’t matter », a sonné bruyamment la première charge contre l’informatique toute puissante, ouvrant  une brèche dans laquelle se sont engouffrés tous ceux que l’arrogance de l’informatique a pu agacer et qui finalement se sont révélés plus nombreux que prévu ! La question, nouvelle, est désormais posée : l’industrie informatique va-t-elle définitivement se banaliser et rejoindre dans l’anonymat  de la routine quotidienne d’autres industries stars qui, en leur temps, ont révolutionné notre appréhension du monde avant de succomber à la fatalité de la courbe en S ? Ou bien va-t-elle continuer son essor vers de nouvelles perspectives de transformation en se réinventant grâce à une nouvelle alchimie composée de rêve, de réussite économique et d’appropriation collective ? Qui pourrait gagner, qui pourrait perdre, parmi les acteurs de l’écosystème informatique : éditeurs, consultants, intégrateurs, fabricants de matériel, sociétés de télécommunications, informaticiens d’entreprise, direction des systèmes d’information d’entreprises ? A quelles évolutions de la localisation des compétences va-t-on assister ?

De l’innovation

L’innovation technologique ne provient pas d’un monde extérieur désincarné en percutant nos sociétés telle une météorite. Les innovations naissent au sein de nos sociétés et sont  le fruit de l’interaction dynamique de trois vecteurs : les hommes qui les imaginent, les conçoivent, les réalisent ; les structures qui les financent et les propagent, les utilisateurs qui s’en emparent et se les approprient. Elle s’inscrit dans une logique sociétale où s’arbitrent en permanence ce qui est techniquement possible et ce qui est socialement accepté. C’est à travers cette mécanique complexe d’acteurs que, dans le temps et dans l’espace, se joue le sort des innovations technologiques.

La production d’innovation vient enrichir le stock de ce qui est utilisable, alors que les logiques économiques, l’acceptabilité sociale et la capacité d’apprentissage font un tri pour choisir ce qui est utilisé, et en définitive c’est l’usage qui finit par consacrer ce qui est vraimentutile.

Le déplacement des vagues de l’innovation se fait ainsi à partir du cœur de la recherche scientifique transformée par la maîtrise industrielle vers la périphérie de l’usage. Plus une technologie est adoptée, plus elle se dissout dans la banalisation qui a fait son succès et perd son aura. C’est ce qui se passe avec l’informatique. Le modèle de Von Neuman qui a formalisé la structure de base de l’informatique et permis l’essor de cette industrie n’a pas changé. Mais qui sait qu’une calculette à 2 euros ou un téléphone portable sont des ordinateurs. Même les grands ordinateurs scientifiques ont laissé la place à des fermes de serveurs banalisés. Qui s’en soucie désormais dès lors que la rareté a disparu ? Des produits souvent banals intègrent des technologies sophistiquées, un des meilleurs exemples étant le DVD, réussite de l’intégration de l’optique, de l’électronique et des algorithmes de compression de l’information. Dans cet exemple, l’adoption rapide du service rendu a fait baisser les prix au point qu’un lecteur DVD est aujourd’hui vendu le prix de deux disques … DVD !

Ce qui fait de l’informatique un objet désormais banal est précisément ce qui a fait son succès : accélération de la vitesse, augmentation de la fiabilité, miniaturisation, autonomie en énergie croissante, facilité d’accès grâce à des logiciels de plus en plus simples (le navigateur web est devenu l’outil universel d’accès) mobilité et interopérabilité et surtout baisse des prix. Non seulement les outils sont plus performants, mais l’utilisation de l’informatique se répand dans tous les secteurs de l’activité, des plus classiques comme le commerce de détail aux plus sophistiqués comme la chirurgie ou les bio-technologies. Ce mouvement se poursuivra. Ceci signifie nullement la fin de l’histoire informatique car il se prépare bien sûr dans les laboratoires d’autres innovations qui vont permettre d’élargir l’usage en enrichissant les contenus et en rendant encore attractifs les contenants. Mais l’addition de techniques ne suffit plus à alimenter le mythe quand la magie est dissipée.

La banalisation démocratique

Au milieu du XIXéme siècle, l’électricité statique était une attraction de foire. Comme le cinéma.  Puis ces prouesses individuelles ont donné naissance à de puissantes industries qui ont mis quelques décennies à trouver leur taille adulte. L’exposition universelle de Paris en 1881 consacrait le statut industriel de l’électricité, mais l’électrification de la France a pris des décennies. Un immeuble sur trois seulement était électrifié à Paris dans les quartiers riches, en 1914, mais seulement un sur vingt dans les quartiers populaires. La photographie a mis des décennies pour sortir du domaine de la découverte et se démocratiser. Il est paradoxal que la numérisation rattrape pour la déstabiliser une firme aussi robuste que Kodak qui avait innové en contribuant à rendre la photographie facile et populaire dès 1900 avec ses célèbres appareils Brownie à 1$.

L’informatique, elle, est née adulte et mondiale, sérieuse et coûteuse. Elle ne s’adressait qu’aux grandes entreprises et aux puissantes organisations publiques. Et même si la mise au point de cette technique s’est révélée complexe et coûteuse, tout allait bien pour la poignée de spécialistes qui en avaient la charge. Au grand dam de ces experts, l’informatique a commencé à quitter le champ des grandes organisations pour percer dans le grand public avec le micro-ordinateur et c’est la généralisation de la micro-informatique propulsée par le web qui en quelques années lui a donné le statut d’industrie de masse désacralisée. Il y a désormais un milliard de micro-ordinateurs dans le monde. En quatre ans, un tiers des 22 millions d’internautes français se sont connectés au web par des lignes à haut débit ADSL usage qui était absolument inimaginable pour les informaticiens d’entreprise… comme pour les sociétés de télécommunications.

Depuis lors, cette industrie portée à célébrer le culte de la technologie assiste à sa propre banalisation. Qui se soucie désormais de la puissance de son micro-ordinateur ? Le langage codé des systèmes d’exploitation, des gigabytes et des méga-octets ne fait plus recette. De plus cette transformation ne se limite plus au grand public, mais concerne aussi maintenant les infrastructures des grandes entreprises. Il n’est plus nécessaire de posséder avec fierté ses grands ordinateurs, car la banalisation, appelée ici « utility computing », (fiabilisation, puissance et économie d’usage) concerne aussi les composants centraux des systèmes d’information des entreprises. Certes la technicité y demeure forte, le poids de l’héritage applicatif est encore lourd, mais les méthodes et les outils industriels mis au point au cours des dernières années permettent de gérer l’énergie informatique de façon industrielle. Cette révolution s’est faite en quelques années et brutalement l’industrie informatique a accédée à la maturité, c’est à dire à la baisse des prix et donc des profits. Ce qui compte désormais c’est l’usage, pour tous, de la puissance, de la fiabilité, de la bande passante et de l’ergonomie. La discrimination dans les choix se fait désormais plus sur des critères consuméristes que sur les performances techniques intrinsèques.

Les télécommunications en panne 

L’histoire récente du téléphone préfigure assez largement le sort de l’informatique, au moins dans ses couches d’infrastructure. L’ère du 22 à Asnières est définitivement révolue dans nos pays. Tous les habitants des pays développés utilisent un téléphone même s’il ne faut pas oublier que près de deux habitants de la planète sur trois ne passeront jamais de coup de téléphone de leur vie. Ce qui laisse un bel avenir à l’industrie du mobile qui relègue les vieilles dames du fixe au statut d’icônes préhistoriques, devenues des mamies Bell. Le téléphone vocal a longtemps été une machine magique, un objet de désir. Aujourd’hui ce n’est qu’un objet banal qu’on jette rapidement au gré des modes. La grande force de l’industrie du mobile est de se renouveler par l’usage, certains futiles comme le téléchargement des fonds d’écran ou des sonneries, mais aussi par de vraies trouvailles sociologiques comme le SMS et peut-être l’image. Mais c’est une industrie sous pression des coûts, avec des marges laminées et une concurrence féroce entre les grands anciens comme Motorola ou Nokia et les nouveaux venus agressifs comme Samsung et LG avant que n’entrent en scène à grande échelle les producteurs chinois.

La convergence

Depuis plusieurs années, l’utilisation de composants et de logiciels informatiques dans les appareils électroniques conduisait à prédire la convergence des industries informatiques et des industries électroniques. De fait, la numérisation des informations conduit à ce rapprochement sans toutefois que les deux familles industrielles se confondent, chacune conservant son indépendance. Cette hésitation semble révolue, la convergence gagne du terrain à travers des industries comme celle des écrans plats qui servent aussi bien l’informatique que la télévision, ou la numérisation complète des supports audio et vidéo. Dès lors les fournisseurs informatiques n’ont pas de difficulté à franchir le pas pour investir le domaine des écrans de télévision que les grands fabricants d’ordinateur commencent à attaquer. L’industrie du disque, autant support physique que contenu, vit cette transformation dans la douleur, alors que les acteurs de l’informatique excellent, comme Apple, dans la captation de ce marché de la musique numérique à consommer plutôt qu’à posséder.

Nouveau produit cherche service

Les revues et séminaires informatiques bruissent des innovations qui vont à nouveau faire faire un bond en avant à l’industrie. La question se pose de savoir si ces innovations vont générer de nouveaux usages attractifs, justifiant ces nouveaux investissements, ou simplement entretenir le renouvellement du parc applicatif et des infrastructures. Car pour les utilisateurs professionnels, il faut des motifs sérieux pour investir dans des techniques nouvelles plus perturbatrices que génératrices de gains.

Le champ majeur de développement restera la poursuite de la numérisation complète des informations et donc des processus de création, d’industrialisation, de commercialisation et d’échanges entre acteurs économiques. Autour d’internet, se développeront les échanges entre les acteurs des mêmes écosystèmes pour créer de vastes entreprises étendues, comme se développera entre les personnes d’une même entreprise, d’une même communauté d’intérêt un tissu de relations économiques, culturelles et sociales. Les usages collectifs d’Internet sont encore limités par l’insuffisant équipement des ménages et les difficultés d’apprentissage, obstacle qui se diluera dans les jeunes générations du « chat » et de Kazaa.

La mobilité des personnes et des objets est un vecteur majeur d’innovation annoncée. L’utilisation de la voix sur IP, qui n’en fait qu’un cas particulier de flux de données, à travers un micro-ordinateur connecté en Wi Fi semble ouvrir une ère nouvelle de connectivité, l’extension des capacités du WI-FI vers le WIMAX (802.16) d’une portée de 50 km à 70 M bit/sec et l’UWB (Ultra Wide Band) pour les courtes distances compromettant même les chances, déjà fragiles de l’UMTS au moins dans les zones denses. Les étiquettes électroniques (RFID : radio frequency identification)  vont permettre de relier les objets, sans contact, aux systèmes d’information de façon plus facile et généralisable que les étiquettes à code à barres, fluidifiant la chaîne d’approvisionnement.

Enfin l’informatique continuera à repousser les limites de la modélisation dans les applications de santé, de bio-technologie, dans le développement industriel, dans la compréhension de la matière et de l’univers.

Ces nouveaux produits enrichiront les services existants dans une société plus avide de connaissance et de rapidité. Elles pourront continuer à laisser au bord de la route tous les exclus de la société numérique, ou, peut-on espérer, contribuer à leur réintégration dans la société tout court.

La course off shore

Si l’innovation dans les couches techniques va graduellement enrichir ce qui est possible, c’est par la capacité de mettre en œuvre ces outils par des logiciels appropriés que les changements se concrétiseront dans les processus métier. Les logiciels représentent donc la voie royale du changement. Il reste que la production de code applicatif demeure une activité consommatrice de ressources pour les éditeurs dont c’est le métier mais aussi pour beaucoup d’entreprises utilisatrices qui doivent gérer la transformation de leur parc applicatif. Le cœur applicatif des grandes entreprises est en effet composé d’applications anciennes mêlées de façon souvent  inextricable, sans urbanisme d’ensemble, sans cohérence technique. Ces couches historiques sont coûteuses en entretien technique et en modifications, parfois simplement pour des raisons légales et sans création de valeur. Toute insertion d’innovation perturbe l’équilibre souvent instable des applications antérieures, et coûte cher en création d’interfaces nouvelles.

Pour accomplir les tâches informatiques répétitives de maintenance ou de conversion de codes anciens, les entreprises ont engagé la recherche de solutions plus économiques que l’emploi de techniciens et de cadres de pays développés. Elles se sont orientés en premier lieu vers l’industrialisation et l’automatisation des tâches de réalisation de logiciels. Ces méthodes et outils ont toutefois trouvé leurs limites dans les technologies classiques, mais, de plus, les innovations confortables pour les utilisateurs, comme les interfaces web, se sont révélés contre-productives pour les développeurs. Puis dans une deuxième étape, les « producteurs » de code ont cherché des solutions moins onéreuses en coût de main d’œuvre dans des pays aux salaires plus compétitifs.

Ce mouvement vers l’externalisation off-shore a commencé aux Etats-Unis et en Grande-Bretagne au début des années quatre-vingt dix. L’exploitation des ressources informatiques mondiales trouve son origine dans la même démarche économique que pour les métiers industriels. Elle a été beaucoup plus rapide dans les pays anglo-saxons qu’ailleurs pour des raisons culturelles, linguistiques, légales. Ceci a clairement favorisé l’essor de l’Inde dans ce secteur. Mais le problème n’est pas seulement économique. Les firmes indiennes ont développé une compétence rare dans la gestion des processus, sont devenus champions du niveau 5 du CMMI, et vont sans aucun doute étendre leurs compétences vers la gestion complète de processus. S’il s’agissait de simplement trouver une main d’œuvre meilleure marché, bien que formée, pour « faire du code », l’Inde se verrait elle-même dépassée par des pays plus compétitifs, comme les Philippines. Mais l’Inde est en train de construire une véritable usine informatique puissante qui sert tous les acteurs mondiaux de l’informatique et pose un énorme défi aux Etats-Unis, qui risquent de perdre des centaines de milliers d’emplois en informatique, ce qui devient un problème politique majeur aux USA.

La course off-shore se  joue non seulement sur les coûts mais désormais de plus en plus sur l’expertise. C’est un défi considérable pour les pays développés qui se croyaient mieux protégés dans les métiers de la « manipulation de symboles » que dans ceux utilisant la seule main d’œuvre.

Le monde de l’informatique et des informaticiens est instable. Si l’innovation ne gagne pas les couches les plus importantes de la population, dans les entreprises comme dans la société, pour s’intégrer de façon harmonieuse dans les pratiques courantes de la vie, l’informatique n’aura pas remplie sa mission de transformation. Si elle réussit, elle perdra en grande partie son identité. Les informaticiens ont cette redoutable charge de transformer une formidable réussite collective en banalisation de leur métier tout en conservant leur professionnalisme et leur rigueur.


S'emparer des outils numériques pour revitaliser l'économie

Où en est la France dans la relance de son économie ? Perdue dans le rêve d'un retour à la croissance d'antan, transpercée par les déficits, la France se vit comme la grande victime de la mondialisation. Comme tous les autres pays, elle dispose toutefois d'un levier de transformation majeur, la généralisation des outils numériques pour simplifier, rationaliser le passé et ouvrir le champ immense du futur. Or tout se passe comme s'il fallait encore convaincre les dirigeants qu'ils avaient entre les mains un moyen puissant de reconfigurer leurs processus et d'inventer de nouvelles activités. Cette cécité paradoxale dans un pays qui aime l'innovation technologique pour ses usages individuels conduit, par exemple, à être très en retrad en matière de robots industriels. Or le web et internet fournissent des solutions accessibles, faciles à mettre en oeuvre et peu coûteuses. Il n'est que temps d'agir sans délai pour changer et aller de l'avant !

Vingt ans après la démocratisation de l’accès à internet par la mise au point d’outils de navigation simples et efficaces, le réseau internet et l’ensemble des services accessibles par le web sont partout dans le monde devenus une réalité économique, culturelle et sociologique dont l’ampleur, dans l’histoire de l’innovation, est unique. La France n'y échappe pas. Pourtant elle en retarde la prise de conscience en dépit du nombre élévé de rapports pertinents qui visent à en réveiller la conscience numérique.

VOxjmwJiVW2VQOg14w1CR685mBVg8rUjZbyzLNCL-CI

Or cette mutation a été servie par la démocratisation de l’accès aux services de l’internet et du web, qui n’exige aucun apprentissage, par la baisse des coûts des terminaux et des services et par la généralisation des usages dans chacune des sphères de la vie professionnelle et sociale. Chacun de ces vecteurs de transformation va continuer à agir dans les prochaines années pour amplifier le nombre des innovations et leur impact sur la vie sociale. C'est un phénomène inéluctable, sauf cygne noir qui viendrait bouleverser toutes les perspectives mondiales.

Avec plus de 90% de la population mondiale pouvant accéder aux services de la téléphonie mobile, avec plus du tiers de la population mondiale disposant d’un accès au web, avec plus d’un milliard de terminaux intelligents mobiles vendus en 2014, le web ne représente plus une nouvelle frontière élitiste et confidentielle, mais un phénomène de masse totalement immergé dans la réalité économique et sociale de notre époque. La France qui a pu se considérer comme en retard par rapport à ses principaux concurrents n’est plus techniquement pénalisée grâce à la concurrence qui offre des accès économiques aux ressources fixes et mobiles du web. Le nombre de start-ups, l’action publique  pour la numérisation des services publics, le développement des services numériques dans les grands secteurs économiques mettent la France au diapason des grands pays.  La France peut même s'enorgueillir d'être classée en 2014 par l'ONU parmi les premiers pays mondiaux et même au premier rang en Europe pour la e-administration.  Mais toute situation acquise est fragile dans un champ hautement concurrentiel et mondial. Car très prochainement, c’est bien l’ensemble de la population mondiale qui pourra accéder aux potentiel du web, ce sont les objets connectés qui  vont être au cœur de la future vague de transformation. Cette double expansion dans le nombre d’utilisateurs  et dans le champ des usages possibles du numérique offre naturellement de nouvelles opportunités mais aussi dilue rapidement tout avantage comparatif temporaire. 

Nous avons construit pour la simple année 2010, selon les calculs du MIT,  cent fois le volume d’informations créées depuis l’origine de la civilisation.  Nous ne sommes qu’au début d’une aventure humaine exceptionnelle où la mise en connexion par le web de milliards d’êtres humains constitue une expérience cognitive sans aucun équivalent dans notre histoire. Nous sommes sortis d’une vision linéaire, prédictive du progrès de connaissances pour entrer dans un modèle à la fois systémique et exponentiel, où chaque discipline se nourrit et alimente les progrès des autres disciplines. De cette croissance sans limite  vont émerger des produits et services aujourd’hui simplement inimaginables. 50% des produits et services que nous utiliserons couramment en 2025 n’existent pas aujourd’hui.

La  capture de données, la recherche d’informations et l’élaboration de connaissances constituent les fondements d’un nouveau cycle économique impliquant nouveaux acteurs, nouvelles disciplines, nouveaux modes de gestion et de management.

C'est là où se joue vraiment l'avenir des entreprises : concevoir et mettre sur le marché des produits innovants, attractifs, en ligne avec les besoins des clients  est la vraie -et seule- finalité des entreprises. Le faire en disposant d'un moyen ultra efficace pour rapprocher des informations structurées issues du système d'information interne, et les informations non structurées internes comme externes, donne une efficacité accrue au système de conception, qui bénéficie d'une nouvelle qualité d'exploitation du stock d'informations et de connaissances, souvent dormant. Il s’agit non seulement de gérer des données structurées, mais surtout non structurées, dont des images 3D. Veille technologique, analyses concurrentielles, suivi en temps réel du cycle de vie des produits, analyses fines de la réaction des clients sont les nouveaux outils de la performance. Ce qui naguère fut un exercice souvent négligé, la gestion et l’archivage des données numériques devient désormais un outil incontournable d'efficacité dans tous les métiers.

La France, par la qualité de son enseignement, par la persistance d’une industrie numérique qui a su résister dans les applications professionnelles, même si elle a quasi disparu dans les applications grand public, par l’existence d’une génération d’entrepreneurs numériques audacieux, par une infrastructure numérique de qualité  peut retrouver une dynamique de croissance économique alimentée par un usage pertinent du potentiel numérique dans l’entreprise.

Produire dans l’ère numérique c’est bien évidemment s’adapter en temps réel à la  demande par une analyse continue de l’évolution de la demande finale, des stocks et des encours de production. Le cycle de conception, production, distribution est désormais ramassé dans le temps ce qui offre de nouvelles perspectives de réindustrialisation des territoires. Cet exercice est sous-tendu par la capacité de gérer les approvisionnements en flux tendu grâce à une logistique précise. Passer de la conception numérique à la maquette numérique puis au  process numérique devient naturel grâce aux outils de PLM (« product life management ») qui permettent de rassembler dans un référentiel unique l’ensemble des informations nécessaires à la conception, à l’évolution et à la production. La conception entièrement numérique  permet des gains considérables dans les phases d'industrialisation et de production : élimination des retouches et problèmes de fabrication, qualité maximale atteinte dès le démarrage de la production industrielle,  temps d'assemblage divisé par deux, outillage de production réduit de plus de 50%. Ainsi, l’avantage lié au coût de la main-d’œuvre disparaît si les gains obtenus par la vitesse de conception et de déploiement des produits, la réduction des stocks et la limitation des coûts logistiques.

Cette logique s’applique également aux produits dont toute la chaîne de conception est numérique, qu’ils adoptent une forme matérielle (le journal papier) ou immatérielle (l’image du même journal sur internet). Cette continuité protéiforme qui conduit d’ailleurs à remettre en cause l’opposition duale matériel/immatériel s’applique à de nombreux produits comme par exemple un prêt bancaire ou un voyage où la chaîne de conception et de décision purement numérique s’incarne dans une réalité physique. Ces outils permettent un gain de temps et d’efficacité considérables par rapport aux circuits fragmentés de décision. Leur mise en œuvre est de plus en plus simple et accessible, même aux petites entreprises.

Que peut faire l'Etat dans ce contexte nouveau pour lui d'une révolution dont il n'a pas les clefs ? De ce fait, les modes d’actions que peut impulser l’initiative publique ont changé de nature. Il ne s’agit plus de faire connaître et comprendre  le web en tant qu’objet technologique à travers des laboratoires d’expériences, il faut désormais construire avec les outils courants du marché, largement disponibles, les organisations et les processus d’affaires qui vont servir la compétitivité de la France à travers de nouveaux modèles d’affaires, à travers de nouvelles structures, de nouveaux modes d’apprentissages et de nouveaux comportements. Il est aussi indispensable, dans cette réalité mouvante qu’est l’économie numérique, d’en comprendre les ressorts pour anticiper les évolutions futures et préparer leur intégration dans la quotidienneté. Le choix de soutenir des projets techniques doit être sélectif pour éviter une dilution préjudiciable des moyens.

Certes en dépit de cette généralisation rapide, la révolution numérique est encore inégalement répartie entre les territoires, les groupes sociaux, les usages. Comme face à chaque nouvelle mutation, certains acteurs peuvent estimer être gagnants et d’autres perdants, voire victimes. L’action publique doit favoriser un accès équitable aux ressources numériques en laissant l’initiative individuelle opérer de façon libre. Un des thèmes majeurs de cette dynamique est l’accès aux ressources de l’internet haut débit dans les zones où la rentabilité des investissements ne peut être garanti par la seule dynamique du marché. Or la qualité de l’accès à internet, de façon fixe ou mobile, est une des conditions de base d’un usage pertinent du web.

Le monde du web, et de façon générale l’économie numérique, présente la caractéristique d’être oligopolistique dans ses fournisseurs techniques et totalement dilutif dans la capacité de chacun à tirer profit des objets et services fournis par les moteurs du cœur technique. La compétition ne porte plus sur seulement sur l’invention de nouveaux outils mais sur la combinaison rapide des outils et des services pour proposer  de nouvelles opportunités aux utilisateurs. C’est en portant ces nouvelles opportunités dans les activités et métiers que l’impulsion numérique fait naitre de nouveaux potentiels qui trouveront leurs marchés et leurs publics. Ce processus de métabolisation peut être favorisé et accéléré par les acteurs publics dès lors que les composantes de cette dynamique sont bien identifiées et comprises. Il ne s’agit plus de donner des moyens financiers, il faut favoriser la construction d’écosystèmes qui deviendront rapidement autoporteurs. C’est la philosophie du Fonds national pour la société numérique gérée par la Caisse des dépôts.

C’est bien la capacité à construire des modèles coopératifs entre acteurs qui va permettre de concevoir et porter de nouvelles propositions de valeur dont l'utilisateur sera, in fine, seul juge de la pertinence. S'il y a bien une caractéristique de l'économie numérique qui perturbe les pouvoirs publics et les décideurs, c'est bien cette absence de prévision sur la maîtrise des éléments. Or si l'on ne peut prévoir, c'est alors qu'il faut préparer !

Références

 - Pour ceux que l'industrie numérique passionne, il faut lire l'excellent document publié par le Gimelec  sous le thème de l'industrie 4.0  http://www.gimelec.fr/Publications-Outils/Industrie-4.0-l-usine-connectee-Publication

- Le rapport des Nations Unies, élogieux pour la France, sur le e-government est accessible sur le site

 http://unpan3.un.org/egovkb/en-us/Reports/UN-E-Government-Survey-2014

- Philippe Lemoine a été chargé par Fleur Pellerin en janvier 2014 d'une mission sur la transformation numérique de l'économie française dont les conclusions seront présentées en septembre 2014

 


Qui peut orchestrer la mutation numérique de l'entreprise ?

Le débat, récurrent, sur la nature et le positionnement de la direction des systèmes d’information est, cette fois, en train de changer radicalement. Il est tout à fait normal que la DSI du XXIe siècle ne ressemble pas à celle du XXe siècle. Depuis les années soixante-dix, c’est surtout une direction technique  qui s’est construite pour installer progressivement l’informatisation dans les entreprises. Après une époque pionnière de défrichage technique, elle a été un acteur de l’industrialisation de l’informatique  pour ensuite intégrer l’organisation et créer le système d’information. Si internet n’avait été dans une première étape qu’une évolution technique supplémentaire dans une longue histoire d’innovations techniques de « traitement du signal », le web  s’inscrit dans une autre histoire.  Il est clair que c’est aujourd’hui  une transformation sociétale qui envahit  les entreprises et submerge la direction des systèmes d’information par un flot ininterrompu d’innovations comportementales.

  Digital-orchestra-beethoven-violon-ipad-iphone

Ce n’est pas l’informatique qui s’est transformée, mais le monde qui a changé

Certes ce sont bien les progrès techniques qui nourrissent ces innovations, mais elles ne doivent plus rien à l’informatique interne car elles sont initiées et propagées par les acteurs du marché grand public. Quand il se vend un milliard de smartphones dans le monde,  et que chacun des collaborateurs de l’entreprise détient à titre personnel un de ces ordinateurs  mobile, moderne et surpuissant que l’on appelle smartphone, équipé de dizaines de logiciels attractifs, l’informatique interne n’est plus audible ni dans ses recommandations ni encore moins dans ses interdits.

 Mais cette évolution des comportements ne se limite pas au confort de communication  individuel comme l’ont longtemps cru les DSI. Elle  touche surtout les processus d’affaires. Le web conduit à travailler autrement au sein des directions, intégrer les fournisseurs dans un processus de conception, répondre aux clients, inventer de nouveaux produits, voire même de nouveaux métiers. La DSI ne peut prétendre « diriger » les systèmes d’information qui par nature appartiennent à toutes les composantes de l’entreprise dont le système d’information constitue le système nerveux central. Elle ne peut pas non plus impulser ces transformations organiques de l’entreprise.

C’est pourquoi naissent à côté de la DSI de nouvelles structures pour capter l’énergie du web et construire les fondements de cette nouvelle économie, « l’iconomie »,  que le web soutient et propage dans toutes les entreprises et dans tous les métiers. Ces nouvelles structures, à l’instar des directions e-commerce du début des années 2000, ne s’occupent pas d’infrastructure mais d’usage et de business. Qualifiées « d’ agency », de « lab », de « factory », elles portent des  appellations flatteuses, au goût de marketing anglo-saxon, synonyme de modernité. Leurs moyens ne sont que peu comptés et non intégrés dans les coûts du SI de l’entreprise.

La Direction des systèmes d’information se voit confier de fait  la tâche certes essentielle mais moins en visibilité de faire fonctionner les systèmes classiques de l’entreprise. Elle s’appuie sur les outils historiques de l’informatique, autour des ERP, qui n’ont jamais déchaîné l’enthousiasme des utilisateurs. Elle diffuse certes les outils modernes que sont les smartphones, tablettes et apps, mais plutôt dans une logique de régulation économique et de contrôle de la sécurité, fonctions qui là encore sont guère flatteuses. Plus que jamais, la DSI est victime d’un processus  d’individualisation des gains de la numérisation par les directions métiers et de socialisation des coûts sur le budget système d’information, notamment l’infrastructure. Concentrant le budget, la DSI apparait naturellement comme un centre de coûts dont le seul objectif de la direction générale est d’en obtenir une réduction constante.

Choisir, c’est renoncer : le gambit de l’infrastructure

La DSI est donc aujourd’hui à la croisée des chemins. Structure généraliste mêlant le fonctionnement opérationnel, l’entretien des systèmes et des infrastructures et quelques projets d’envergure aux résultats aléatoires, elle oscille entre indifférence  et critiques sur ses coûts et ses règles normatives d’attribution de matériels et de gestion contraignante de la sécurité. Ce positionnement la condamne à ne jouer qu’un rôle, certes vital, mais subalterne, dont le très faible nombre de DSI parvenant à des postes de direction générale est un indicateur.

Or il est plus que jamais nécessaire d’investir dans les technologies du XXIe siècle pour booster la capacité des entreprises à innover et conquérir une nouvelle rentabilité. Cette recherche de performances nouvelles ne peut que venir que de l’utilisation intensive de toutes les techniques qui  permettent de produire, capter, traiter, traduire, restituer, transformer, stocker l’information. Chaque jour de nouveaux progrès scientifiques sont obtenus grâce à l’exploitation des outils numériques. De nouveaux outils comme le Big Data, c’est-à-dire l’exploitation des données massives, permettent l’essor de disciplines nouvelles ou jusqu’alors confidentielles comme l’intelligence artificielle,   l’analyse des comportements, la modélisation de systèmes complexes. Les capteurs se multiplient ajoutant aux informations de gestion classique de nouveaux champs considérables d’informations opérationnelles. La démocratisation de ces outils permet de les exploiter dans des situations de plus en plus larges, au plus près de la décision, dans chacun des contextes d’action, au niveau le plus approprié. Que ce soit en matière logistique, dans le domaine du transport, de l’énergie, de la santé, pour concevoir de nouveaux produits et services, on exploite le rapprochement de données par des outils logiciels puissants et la diffusion de ces informations à travers les réseaux et les écrans de toutes natures.

 Ce choc numérique ne peut se faire à l’écart des professionnels du traitement de l’information

Qui peut maîtriser cette expansion infinie de la donnée  et des outils ?  Il est évident que l’initiative de chacun risque de conduire à une vaste cacophonie où données, informations et connaissances seraient gérées par impulsions aléatoires. Il faut donc un chef d’orchestre. Ce ne peut être que le dirigeant lui-même. Mais pour exercer cette fonction, il lui faut s’appuyer sur un professionnel des systèmes complexes  qui saura architecturer, structurer et pérenniser  les flux de données qui constituent aujourd’hui l’ADN de l’entreprise. On ne confie pas son ADN à une « fonction support ».  Cette fonction métier d’un nouveau type doit agir comme un pôle de veille et d’impulsions, mais aussi comme un référent des pratiques, des outils et un garant de l’intégrité des données.  Elle gère aussi la dynamique du « temps du web », où les décisions sont prises rapidement, les outils produits et mis en œuvre de façon collaborative en mode agile, les méthodes de déploiement instantanées… Chef d’orchestre, elle garantit la cohérence systémique, veille à une exécution parfaite et à une qualité qu’aucun des instrumentistes ne peut atteindre seul.

Plutôt que de multiplier les initiatives fractionnistes, la création de cette entité nouvelle doit assurer à l’entreprise que toutes les innovations seront exploitées dans les règles de l’art et dans l’intérêt commun de chaque composant de l’entreprise. Il s’agit clairement d’une fonction centrale majeure pour l’avenir qui doit s’affranchir des lourdes opérations ancillaires qui occupent encore largement l’emploi du temps des DSI.

Pour se hisser à ce niveau, il faut que les DSI acceptent de ne plus gérer l’infrastructure et le service au quotidien qui sont aujourd’hui des fonctions industrielles et banalisées qu’il faut confier au marché en les standardisant et mutualisant. Cela s’appelle, notamment,  le cloud computing, qu’il faut mettre en œuvre sans inquiétude en créant les normes d’excellence opérationnelle indispensables et en en pilotant l’exécution. Ce métier relève d’une entité professionnelle très proche de la performance au quotidien.

Deux pistes institutionnelles complètent cette analyse de l’évolution fonctionnelle, et plusieurs scénarios d’évolution pourraient être envisagés en fonction de la nature et de la maturité informatique et numérique de l’entreprise. Si l’ancrage de ces entités n’est pas le sujet majeur, on sait également qu’il revêt en termes d’autorité et de symbolique une importance non négligeable.

 On   peut imaginer que les fonctions de la DSI soient confiées à deux entités clairement distinctes dans une gouvernance unifiée conforme aux principes de COBIT:

-        Une Direction de l’efficacité opérationnelle du système d’information, chargée du pilotage au quotidien à travers des partenariats et donc de la conclusion des contrats d’externalisation et de leur pilotage, rattachée au Chief operation officer de l’entreprise ou au DG

-        Une Direction de la transformation numérique, chargée de l’orchestration de la mutation numérique de l’entreprise et rendant compte au président directeur général

Les CIO actuels sont d’excellents candidats pour les deux postes. Mais ils doivent clairement choisir entre l’optimisation incrémentale du passé ou l’incertaine mais exaltante construction de l’avenir.

 

NB : l'image est tirée de ce document étonnant  http://www.buzzwebzine.fr/digital-orchestra-beethoven-joue-avec-ipads-iphones/


Réhabiliter l'exploitation informatique à l'heure du numérique

L'histoire de l'informatique est celle de la lente dissociation de la machine et des programmes. Au tout début, c'était la machine qui était au centre de toutes les préoccupations, coûteuse, complexe, capricieuse. Puis la domestication de la machine et de son environnement d'exploitation a relégué l'informatique de production dans les couches basses du système d'information.  Devenues depuis les années quatre vingt-dix parent pauvre de la direction des systèmes d'information face aux projets, plus mobilisateurs et plus en vue des directions générales,  les fonctions de construction et le pilotage des infrastructures  reviennent aujourd'hui avec force sous la lumière des projecteurs. Ce n'est d'ailleurs que justice car l'exploitation informatique et le maintien en conditions opérationnelles  des applications ont toujours représenté l'essentiel de la dépense informatique - autour de 80% - . Et l'on sait qu'un système ne vaut que ce vaut le plus faible de ses éléments, ce qui implique de les traiter tous avec la même attention.
 
Or ce sont les domaines techniques qui ont fait  l'objet d'une constante, et discrète, modernisation et d'une industrialisation performante sous la poussée de l'innovation  des constructeurs et opérateurs de télécommunications et de l'augmentation des volumes de données. L'usine informatique, de plus en plus partagée dans un modèle coopératif entre les équipes internes des entreprises et leurs partenaires externes, est sortie du modèle intuitif et heroïque de ses origines. Elle est devenue un ensemble composite de techniques de haut niveau piloté de façon cohérente. Le "sujet infrastructures" est redevenu prioritaire et les directions générales deviennent soucieuses de ne pas voir leur informatique décrocher pour des raisons techniques. L'organisation et la gouvernance des infrastructures revêt désormais un enjeu majeur pour les métiers. 
 
747860331
Un centre d'exploitation informatique des années 80
 
Enn effet, si le paysage informatique n'a cessé d'évoluer  au gré des grands paliers d'évolution technique que l'on pouvait situer tous les dix ans - mainframe, informatique départementale, PC, réseau, stockage - internet a là encore tout bousculé. Le réseau, lui-même longtemps mal aimé de l'exploitation, est au cœur de la performance économique de l'entreprise. Tout est devenu temps réel tant par la poussée  du client qui doit pouvoir accéder aux sites web 24 h sur 24 que pour répondre à l'organisation des entreprises globalisées installées sur plusieurs fuseaux horaires. Arrêter pour maintenance un système ou une base de données est devenu simplement impossible.
 
Mais plus encore ce sont les applications, et donc les usages, qui poussent les infrastructures à progresser sans cesse. L'utilité du stockage sur le cloud a convaincu tous les utilisateurs mobiles et multi-plateformes. Ne plus avoir à réfléchir pour savoir où on a stocké son dernier document est un vrai service. Ne plus devoir de façon fastidieuse mettre à jour son agenda et son carnet d'adresse est un vrai bonheur quand on se souvient , encore, du monde d'avant... Ce ne sont que les éléments visibles d'une profonde révolution qui implique une totale dématérialisation des services applicatifs dans des réseaux distants rendant l'accès à l'information indépendant de l'infrastructure et des plate-formes techniques. 
  Google-server-farm
Ferme de serveurs Google
 
Ainsi la mise à niveau des infrastructures permet de consolider la base applicative et de hisser le niveau de service. Les grands acteurs comme Google, Apple et Microsoft nous ont aussi appris à ne plus se préoccuper vraiment de la mise à jour des applications devenue permanente et fluide. Amazon, fort de son expérience propre, en a fait un métier. Mais le processus d'adaptation des applications dans le portefeuille des entreprises est loin d'être achevé. Beaucoup restent liées à un poste de travail et à son environnement technique. Leur "webification", qui est un préalable à cette fluidité n'est pas achevée, ce qui pousse d'ailleurs nombre de directions métiers vers les acteurs qui ont compris comme Salesforce  la force du modèle de l'informatique en nuage. Elles doivent être agiles, flexibles. Internet est devenu le modèle unificateur du portefeuille applicatif. Pouvoir accéder en tous temps et à partir de sa plateforme du moment à ses informations n'est plus comme par le passé une exigence de dirigeant, mais la réalité quotidienne de tous les collaborateurs même quand ils ne sont pas spécifiquement mobiles. Et il est évident que ce sont les collaborateurs les plus actifs sur le terrain qui doivent disposer des outils les mieux adaptés à l'usage contextuel.
 
L'économie internet va doubler d'ici la fin de la décennie. Les métiers doivent aller plus vite, ne peuvent se contenter de leurs applications régaliennes. Les cycles de développement sont plus courts et l'espérance de vie des applications est aussi beaucoup plus courte. Ceci conduit à structurer un couplage fort et continu entre développement et exploitation
 
 Une organisation de production légère et coopérative 
 
Face aux défis qu'induit cette nouvelle situation, la tentation de dissocier  une informatique structurante de back-office et une informatique légère et réactive de front office répond au souci d'aller vite à l'essentiel pour ne pas décrocher face aux besoins des clients. Nenamoins ce choix tactique ne doit être que provisoire car Il serait dangereux d'opposer une Informatique interne "lente"  et une informatique externe rapide. En effet les deux utilisent les mêmes données, visent les mêmes utilisateurs convertis au web, nécessitent la même rigueur d'exploitation et doivent donner lieu à un pilotage de même niveau d'exigence. Il faut donc s'engager dans une transformation globale du niveau de service informatique qui traite toutes les applications de la même manière, en en profitant pour rationaliser et simplifier le patrimoine applicatif alourdi par des années de projets hétérogènes et souvent inachevés.  Le rôle de l'infrastructure au sens large, du data center au smartphone et aux capteurs, est bien de fédérer les services rendus aux parties prenantes du système d'information, internes et externes.
 
Comme l'entreprise ne peut atteindre avec ses seuls moyens le niveau d'exigence industrielle qui caractérise désormais le standard mondial de service, elle doit rechercher les partenaires  les mieux à même à concrétiser son projet. C'est ainsi qu'il faut imaginer de nouveaux types de contrats d'infogerance plus tactiques, exploitant un multi sourcing sélectif, et véritablement conçus en entreprise étendue et non pas comme un choc frontal arbitré par les avocats.
 
Plusieurs tendances lourdes  émergent des signaux du marché  et obligent à repenser le rôle de la production et de la distribution multi-plateformes :
 
- les applications web nécessitent des méthodes de mise en production lean et agile bien différentes des processus habituels mais tout aussi exigeantes 
 
- les nouvelles "apps" doivent intègrer les contraintes de production et la qualité de service, ce qui implique une industrialisation des tests et validation
 
- le "Bring Your Own Device" est déjà bien ancré dans les pratiques sociales et ne fera que se développer. C'est même "Bring Your Own Application", les travailleurs du savoir, mobiles, en crowdsourcing, utilisant leur propre environnement de travail.
 
- la mutualisation des Infrastructures s'imposera sur le moyen terme car elle offre baisse des coûts et accroissement de la fiabilité 
 
- la sécurité doit être repensée pour ne plus être périmétrique mais contextuelle en protégeant de façon ciblée les actifs les plus essentiels de l'entreprise ( ce qui implique de bien les connaître...)
 
Il est évident qu'une telle transformation ne se fera pas sans talents. Comment attirer les compétences dans ces métiers proches de la technique, aussi bien chez les opérateurs que dans les entreprises uitlisatrices, qui rebutent souvent. S'il n'a jamais été facile pas de recruter des informaticiens et encore moins pour les infrastructures, il faut revaloriser ces fonctions qui ont un rôle critique dans la performance opérationnelle de l'entreprise.
 
Ceci est d'autant plus essentiel qu'il faut contrôler la totalité des applications et des services dans un environnement technique d'exploitation multi-sources, internes et externes. Ces nouvelles exigences exigent une culture nouvelle de l'orchestration, ouverte, documentée, partenariale qui renouvelle le modèle d'une gouvernance figée et souvent limitée à un affrontement inefficace. Il y a là non seulement une source d'emplois hautement qualifiés et motivants, mais aussi la possibilité de développer de nouveaux métiers. L'exploitation informatique ets bien vivante. C'est un métier d'avenir mais qui sera, comme beaucoup d'autres, très mobile.

Le choc numérique

Lancé en mars 2013, notre travaill collectif est entré dans sa phase finale, l'impression. Dans quelques jours, l'ouvrage va être mis en distribution par l'éditeur Nuvis sous forme papier et numérique. Toute l'équipe est heureuse d'avoir mené à bien ce projet collectif qui illustre pleinement notre propos : le numérique met en synergie les compétences et les efforts individuels pour un résultat supérieur à celui atteint par une personne seule. Bien entendu le collectif ne se décrète pas, c'est aussi le résultat d'une volonté et d'un effort particulier de se mettre au service du groupe en acceptant de négocier son point de vue afin de trouver systématiquement un consensus; nous expliquons cela dans le "making off" du livre. Que toute l'équipe enthousiaste des consultants de Sia Partners qui ont participé spontanément à cette aventure soit ici remerciée !

En attendant la parution voici, en avant-première,  la préface de Geoffroy Roux de Bézieux, vice-président délégué du MEDEF en charge, notamment, de l'économie numérique et l'introduction.

Couv choc numerique3

Préface

Jamais l’espèce humaine n’a produit autant de traces de son quotidien, de ses actions, de ses modes de vie et de son intelligence en si peu de temps et à si grande échelle. Jamais elle n’a bâti de réseaux aussi gigantesques et ouverts, qu’elle ne le fait aujourd’hui grâce aux technologies de l’information et de la communication. Jamais elle n’a tiré autant parti de l’intelligence collective pour changer son environnement, son quotidien et pour transformer son futur.

Et pourtant, ce à quoi nous assistons aujourd’hui n’est qu’un commencement ! Nous sommes à l’aube de transformations qu’un seul individu est incapable de conceptualiser mais que chacun d’entre nous est d’ores et déjà en train d’amorcer. La force du numérique est une promesse que nous contribuons tous à construire, à titre individuel mais surtout de façon collective.

L’enjeu maintenant est d’être en capacité de tirer le meilleur de cet écosystème mouvant, itératif, évolutif, en s’en appropriant les règles du jeu, la logique et surtout en en définissant les objectifs. Tout semble désormais possible, le numérique nous affranchit des distances et du temps, il est un levier incontestable d’optimisation des actions et un accélérateur de la prise de décision. Mais il  impose en même temps, une veille, une vigilance et une responsabilisation des acteurs décuplées tant les effets produits sont puissants.

 

Pour l’entreprise, le défi est à la hauteur des promesses portées : promesses de performances, promesses de compétitivité, promesses de créativité et d’innovation renouvelées. Le saut qualitatif est renforcé par des conditions de coûts qui ne constituent plus une barrière à l’entrée. La PME et le grand groupe bénéficient des mêmes accès, des mêmes avantages, pour peu que la transformation des process et des modèles devienne leur priorité. Nous sommes passés dans un univers où les pesanteurs matérielles s’estompent par la montée en puissance de l’immatériel et sa souplesse d’appropriation.

Tout serait alors vraiment idyllique ?

L’avantage comparatif ira désormais au plus souple, au plus adaptable, à celui qui aura su capter les forces de la métamorphose des systèmes. Il ne faudra plus être le plus gros pour durer mais le plus agile, il ne faudra plus être le riche pour se doter des moyens les plus performants mais certainement le mieux informé, le plus initié. Parce que voilà, la clé du succès dans l’appréhension de ce changement majeur de paradigmes, se cache dans ces petits détails : l’information et sa maîtrise !

Ces deux notions sont en effet le corolaire de la performance des outils qui ont contribué à imposer les nouveaux modèles. Celui qui décode, rend intelligible, s’approprie, diffuse ou organise les flux d’informations produits par la « multitude » saura, à n’en pas douter, tirer son épingle du jeu. A l’inverse, ne pas s’en emparer condamne à quitter le jeu.

Aussi, l’entreprise quelle qu’elle soit, n’a plus le choix du numérique ! Elle n’a d’ailleurs même plus le temps de se poser la question. Tôt ou tard, l’ensemble de ses fonctions, son organisation elle-même, son management et les ressources humaines dont elle a besoin seront impactées par ces transformations.

Le défi aujourd’hui pour les entreprises de France est d’opérer au plus vite ce basculement inéluctable.

En tant que vice-Président délégué du MEDEF en charge de l’économie, de la fiscalité, de l’innovation et du numérique, j’aurai donc à cœur d’accompagner les entrepreneurs dans cette mutation des modèles. Parce que le « Choc numérique » fera résonner encore et pour longtemps ses répliques, nous devons tous nous mobiliser pour rendre cette mutation la plus opportune qu’il soit ! Il en va en effet, de l’intérêt de notre économie, de l’emploi et plus largement du rayonnement de la France dans le monde.

 Geoffroy Roux de Bézieux 

 

Introduction

« J’ai fini par comprendre que les grandes révolutions économiques de l’histoire se produisent quand de nouvelles technologies de communication convergent avec de nouveaux systèmes d’énergie »

Jeremy Rifkin, La troisième révolution industrielle

 Ceci est une oeuvre collective. Passionnée. Imparfaite. Nous avons voulu rassembler nos connaissances, nos interrogations, enrichir notre culture naissante de cette ère de l’internet et du web. Tous acteurs d’un cabinet de conseil, engagés auprès de nos clients, nous souhaitons comme eux comprendre cette époque pour les aider à tirer parti des formidables opportunités qu’elle recèle, mais aussi à en déjouer les pièges et les risques. Nous ressentons aussi le devoir comme acteurs sociaux de contribuer à éclairer ce chemin nouveau et bien entendu incertain pour expliquer les faits, poser les problèmes, les expliquer et tenter de contribuer à les résoudre. Avec cette écriture à plusieurs mains, beaucoup de neurones et de travail, de longues discussions et échanges animés, nous avons aussi voulu écrire un ouvrage contemporain. Casser le mode traditionnel avec un livre qui puisse se lire facilement, permettant de rassembler les pièces de ce puzzle parfois complexe que représente l’émergence d’un nouveau cadre socio-technique. Essayer, à chaque instant, de dépasser les modes, dont on mesure la volatilité, comme la pensée toute faite, unique, aux conséquences aussi tranchantes que fragiles. Se poser plus de questions certainement, que les résoudre totalement, car ce monde se créée chaque jour et bien ambitieux celui qui pourra prétendre en dessiner les contours à dix ou vingt ans. C’est un essai. C’est-à-dire une réflexion inachevée, avec  des impasses assumées, qui se poursuivra sous forme d’un site web collaboratif, ouvert aux réflexions de chacun. Nous avons tenté de ne pas refaire ce qui a déjà été fait cent fois en assénant des convictions définitives sur le monde numérique ou en poussant des solutions marchandes du moment. Chaque chapitre éclaire des thématiques indépendantes, des questionnements forts sur le « comment faire ? », étayés par de nombreux exemples. Chaque entrée peut être abordée indépendamment et permet de comprendre le sujet de façon holographique à partir de plusieurs angles.

Nous sommes partis d’un constat simple : beaucoup de gens se posent des questions sans réponse sur cette époque déconcertante. Nous pensons que l’irruption dans nos vies de travailleur, de consommateur, d’épargnant, de citoyen, de parent de cette avalanche de données et d’outils numériques rebat totalement les cartes. En nous adressant aux chefs d’entreprise comme aux décideurs politiques qui sont par leur position actuelle les acteurs majeurs de cette transformation, nous leur disons aussi que leur responsabilité n’est pas seulement économique et politique, mais aussi sociétale. La transformation ne viendra plus seulement comme par le passé des seuls décideurs, mais sera aussi entraînée par de puissants courants décentralisés. Mais il appartient aux responsables politiques de préparer cette société nouvelle en avancant sur deux éléments du socle sociétal : l’éducation et la sécurité.

 Nous disons à tous ceux qui pensent que le développement de nouveaux objets et programmes numériques suffit à transformer le monde que la technologie seule ne fait rien, mais que le changement suppose la révolution des usages, et donc l’adhésion et la compréhension de tous. Un système n’a ni centre ni périphérie. Tout y est important et suppose engagement et conscience.

 Nous vivons une rupture dans l’histoire qui ouvre les portes d’un monde nouveau, attirant et inquiétant à la fois. Mais n’en était-il pas de même lorsque le livre, tous les livres, et surtout ceux qui n’étaient ni attendus ni autorisés, se sont répandus dans l’Europe du XVe siècle ? Aujourd’hui, c’est la planète tout entière qui est entraînée à grande vitesse dans ce monde de l’information et de la connaissance en temps réel. Sans frein, sans chef de projet, sans régulateur...

 

 

 


Développer soi-même, un retour aux sources ?

 

Le monde de l’informatique connaît une adaptation plus rapide aux changements que les autres secteurs économiques car il est mû par la force de ses moteurs techniques qui connaissent une croissance exponentielle.  Que ce soient la puissance des microprocesseurs, la capacité des mémoires et la bande passante des réseaux, ces facteurs de performance évoluent avec constance vers des niveaux de performance sans cesse croissant pour un prix en baisse. En soixante années de développement, le monde informatique a ainsi connu plusieurs révolutions technologiques qui ont poussé de massives vagues de transformation dans ses propres entreprises. Ces mutations se sont ensuite propagées  dans tous les secteurs au rythme de déploiement de ces nouvelles solutions informatiques.  

Cette accélération du changement a été fatale pour de nombreuses entreprises du secteur qui, bien qu’un temps leader, n’ont pas su anticiper la révolution suivante et ont dû ou se vendre ou disparaître. La marche héroïque de l’informatique est peuplée de ces héros malheureux dont la liste est très longue. Ce film accéléré a permis de voir en quelques années sombrer des géants  et émerger de nouveaux champions, eux-mêmes contestés par des rivaux agressifs. Nul secteur économique n’a connu une telle mutation, qui est loin de se stabiliser.

C’est  la révolution informatique qui a contribué directement aux mutations des autres secteurs économiques plus que tout autre facteur.

Entre  l’informatique centrale et artisanale des années cinquante, le monde des mainframes des années soixante, la révolution des PC des années quatre-vingt  et les premiers  sites web des années quatre vingt-dix, il n’y a pas grand-chose de commun sinon une architecture remarquablement stable, le modèle dessiné par von Neuman en 1945 qui sépare données, traitements et interfaces.

Aujourd’hui l’informatique moderne hérite de ces vagues de transformations successives et certains peuvent reconnaître dans la vogue de l’informatique en nuage le retour au « service bureau » des années soixante qui visait à partager entre utilisateurs des capacités de calcul rares et coûteuses.

Si l’histoire des matériels informatiques est bien connue car elle se visualise aisément, et chacun aujourd’hui peut apprécier  les performances de l’industrie en exploitant au quotidien  les potentialités de son smartphone ou de sa tablette, l’évolution de la programmation informatique est moins connue en dehors des cercles de spécialistes. Certes les entreprises ont vu des progiciels succéder aux logiciels développées en interne pour la plupart des fonctions régaliennes et nul n’ignore aujourd’hui la place des grands éditeurs de logiciels comme Microsoft, Oracle, SAP ou IBM.

Mais si les ERP ont conquis en vingt ans les fonctions classiques de l’entreprise et permettent de gérer avec efficacité la comptabilité, la facturation, les ressources humaines, les  achats, le cœur de métiers des entreprises reste encore confié à des applications spécifiques ou à des éditeurs de niche.

Or le web est en train de bouleverser une situation qui paraissait stabilisée. Il y avait un consensus établi dans la profession entre vendeurs de solutions et DSI pour considérer que le développement spécifique n’était plus une option crédible même pour les logiciels de cœur de métier. La première cause de cette doctrine est bien évident la recherche d’économies d’échelle, les entreprises ayant  les mêmes caractéristiques métier pouvant mettre en commun, à travers un éditeur, leurs analyses fonctionnelles et le développement industriel des programmes informatiques qui les supportent. Le renouvellement incontournable des « vieux » logiciels maison ne pouvait se faire, à en coire le marché, qu’avec des solutions packagées. Les éditeurs  centrés sur les besoins métier ont ainsi pu développer une approche industrielle qui a eu un succès réel dans des domaines comme la conception assistée par ordinateur avec Dassault Systems ou la gestion des voyages avec Amadeus. Dans des domaines pointus comme la gestion des risques on a vu apparaître des éditeurs comme Fermat qui ont rapidement pris une importance majeure dans la stratégie logicielle des banques.

Mais le monde du web est en train de conduire les acteurs et notamment les DSI à reconsidérer cette vision « tout progiciel ».  L’observation des pratiques des nouveaux acteurs de l’économie apporte un éclairage nouveau et inattendu dans cette évolution du marché.

En effet, les grands acteurs du web ont dû leur essor et leur fortune au fait qu’ils ont eux-mêmes inventés leurs logiciels métier. Que ce soit Facebook, Amazon, LinkedIn, tous ont fait le choix de développer leur propre environnement logiciel. C’est parce que ces entreprises sont nées autour de la spécificité de leur logiciel qu’elles ont pu conquérir le marché, qui ne peut exister sans logiciel. C’est bien là l’immense différence entre l’économie classique des progiciels qui s’appuie sur la formalisation et la mutualisation de pratiques existantes et « l’économie numérique » ou « digitale » qui invente de nouvelles pratiques.

Non seulement ces entreprises s’appuient sur leur ingénierie logicielle pour développer une différenciation sur le marché, mais elles remettent totalement en cause les méthodes de développement classique. Pulvérisant la distinction conventionnelle entre maîtrise d’ouvrage et maîtrise d’œuvre, qui a toujours un grand succès en France, elles cassent le cycle de développement en V pour associer étroitement leurs analystes et concepteurs  produits avec les informaticiens. Le développement « agile » est devenu le seul modèle de ces équipes. De même génération, partageant le même langage, les mêmes plateaux techniques, en petites équipes soudées, ils co-concoivent en temps réel  les applications informatiques qui donnent corps à leurs stratégie client. Ces équipes, compactes et calées sur les besoins métiers qu’elles mesurent en permanence, sont capables d’ajuster en continu les programmes informatiques pour épouser le rythme du métier.

Cette approche ne consiste toutefois pas à négliger l’intérêt d’une mutualisation. Si dans le monde des applications classiques, le grand espoir qu’avait suscité l’approche objet et les SOA (« service oriented architecture ») ne s’est pas souvent concrétisé devant la complexité de l’architecture, la discipline qui doit l’accompagner, et la mutualisation des financements entre projets, cette approche a un grand succès dans les développements web. C’est l’open source qui assure cette indispensable fonction de mutualisation. Or elle le fait mieux, plus vite et moins cher – qualités essentielles du développement informatique - que les éditeurs propriétaires. L’open source était le chainon manquant dans l’évolution  de l’informatique.  Les grands acteurs du web utilisent les solutions open source et nourrissent activement les communautés.

Si les idées de mutualisation étaient bien présentes dans les équipes de développement, elles se heurtaient à l’absence d’organisation d’un marché des composants logiciels. Or l’open source y pourvoie aujourd’hui et l’open source est le fruit du web. C’est la mise en relation des compétences à travers les forums, les échanges de code, qui permettent au développeur de produire des solutions novatrices. Tout développeur isolé, et talentueux, peut assembler de briques de composants en ajoutant à un édifice standard les logiques qui vont assurer l’originalité de son produit.

Agile-management-marketing

La révolution du web est donc également une révolution méthodologique qui bouleverse les bases de l’édition logicielle.

Mais le web a introduit un autre changement majeur : la place de l’utilisateur est devenue centrale. Dans une logique classique de développement informatique, le dialogue est surtout centré sur les représentants des métiers, qui vont exprimer leurs attentes, et les informaticiens, qui vont tenter d’inventer le code qui répond à ces désirs au prix d’ajustements lents et de compromis tactiques. L’utilisateur final n’est que peu présent  dans cette boucle de rétroaction et l’ergonomie applicative n’est généralement pas le facteur majeur de décision.

Or dans le monde du web, c’est l’utilisateur qui décide. Tout défaut dans l’affichage d’une page, tout délai intempestif dans le déroulement d’un menu, toute attente exaspérante d’une fonction, et il décide d’interrompre la transaction. Or contrairement à une idée courante, le problème ne vient en général pas du réseau mais de la conception de l’application.

L’ergonomie est le premier facteur de performance commerciale d’un site web. Les applications web sont donc toutes conçues pour plaire à leurs utilisateurs et la mesure de cette satisfaction est une activité centrale de l’exploitation informatique. Il est évident que ce soin accordé à la production de  performances crée une réelle satisfaction qui renvoie l’informatique classique à la préhistoire.

Cette exigence technique remet en lumière la nécessité de maîtriser l’architecture et le développement applicatifs. Ce sont des fonctions clefs pour créer des applications attractives qui vont, en interne, accroître la productivité, et développer le chiffre d’affaires et la satisfaction client. Il faut donc être en mesure de recruter des développeurs talentueux et de les retenir. C’est bien évidemment ce que font en priorité les acteurs du web, qui ont parfaitement compris l’enjeu économique réel qui n’est pas de réduire le coût de la ressource mais de maximiser la valeur créée. Ce modèle de développement rapide et efficient condamne, au moins pour ce type de service, les grandes concentrations de développeurs en off-shore. Il ne s’agit plus de faire massivement moins cher, il faut désormais faire vite ce qui est pertinent.

Pour conclure, il faut aussi mettre en évidence que la qualité des nouveaux développements ne serait pas suffisante si elle en s’appuyait pas sur une infrastructure puissante et efficace. Là encore les progrès ont été spectaculaires grâce à la virtualisation et au « cloud computing » qui permettent de disposer à tout moment d’une infrastructure d’exploitation et de distribution efficace et constamment mise à jour.  Il ne faut toutefois pas en sous-estimer le coût et, là encore, la nécessité de disposer des compétences requises, en interne et auprès des fournisseurs.

L’informatique du web change les méthodes de l’informatique classique et cassant les modèles lents et lourds. Plutôt que de porte-avions structurés et coûteux, l’informatique moderne requiert des flotilles de développeurs, et d’utilisateurs experts, légers, agiles, réactifs. La coordination de ces talents nécessite toutefois un changement dans les méthodes de management et de contrôle.

Mais c’est aussi toute l’entreprise qui serait bien inspirée de suivre ce modèle d’évolution.


Le vrai prix de la sécurité informatique

 

Comment sortir d’un débat sans issue source d’irritation pour tous les acteurs

La sécurité informatique est devenue un thème lancinant des colloques, revues,  articles et flux RSS qui traitent de la révolution numérique. Il n’est pas de jour où on ne parle de cyber-attaque, de cybercriminalité, de cyber-guerre, de campagne de phishing,  dont on était récemment victimes de célèbres enseignes de télécommunications et d’énergie, d’attaque contre la e-réputation… Se mélangent ainsi sous cette vaste rubrique « sécurité informatique » une série d’informations touchant des natures de délinquance très différentes, qui vont de la banale escroquerie, classique, à la carte bleue ou aux prestations sociales aux opérations de fraude de haut vol et à la déstabilisation d’Etat. On cherche ainsi à se prémunir contre la curiosité présumée des services de sécurité de pays pourtant amis en cherchant à inventer le « made in France » de la localisation des données dans le monde éthéré du « nuage ». S’il y a beaucoup de paranoïa derrière cet inventaire, c’est que l’on cerne mal les menaces dans le monde de l’immatériel et que l’on a beaucoup de difficultés à concevoir une politique de sécurité dont on puisse prévoir l’efficacité, et donc le rapport coût/valeur.

Cette omniprésence du thème sécuritaire génère un climat d’inquiétude diffuse qui perturbe les directions générales, soucieuses de se prémunir face à ces risques nouveaux et mal compris, comme les pouvoirs publics désireux de juguler cette nouvelle délinquance.

Mais face à cette avalanche de mises en garde dramatiques, l’utilisateur manifeste une souveraine indifférence et se rue sans modération vers les nouveaux outils que sont les smartphones et les tablettes dont l’attractivité balaie toutes les inhibitions. On stocke sur son disque dur d’ordinateur portable des documents « confidentiels », on utilise, comme 47% des collaborateurs des entreprises américaines, son iPhone pour accéder partout à ses courriers électroniques professionnels, on néglige de sauvegarder sur un autre support le précieux résultat de son travail, sans compter les petits post-it jaunes collés sur l’écran qui contiennent en clair ses mots de passe.

Face à cette légèreté des comportements, les DSI tentent avec détermination d’opposer une stratégie de sécurité inflexible. Pour cela ils bannissent le libre usage des smartphones, bloquent les sites web, imposent un mot de passe alphanumérique complexe et changé tous les mois, cryptent les disques durs et accumulent sur les PC officiels les couches de sécurité qui en ralentissent le démarrage. Les utilisateurs trouvent dans ces précautions multiples qui ralentissent le travail et brident la liberté d’utiliser le matériel de leur choix  une raison supplémentaire de blâmer l’informatique. On observe des débats curieux. L’ire des utilisateurs agace les directions qui blâment la DSI. Celle-ci se défend derrière l’exécution des décisions de ces mêmes directions générales, alors même qu’elles ne sont  souvent pas les dernières à utiliser des matériels officiellement non autorisés.

La sécurité informatique est donc bien une pomme de discorde et un facteur de tension au sein des entreprises. Elle est perçue comme le frein ultime et aveugle de l’innovation et de la créativité.

Il est clair que ce débat est aujourd’hui dans l’impasse ce qui impose une remise à plat des analyses et des stratégies.

Prendre la mesure de la fragilité de son capital informationnel

Si la sécurité numérique a pris une telle place dans les préoccupations des entreprises, c’est une preuve par défaut que l’information est perçue désormais comme jouant un rôle déterminant dans le capital des entreprises. Si les mesures de sécurité sont mal comprises et mal acceptées c’est que la maturité des politiques et des outils n’ont pas suivi l’extraordinaire vitesse de déploiement des nouveaux objets numériques. Le libre usage de ces outils informationnels, en toutes situations de la vie personnelle et professionnelle, crée un nouvel état de fait, une revendication irrépressible à laquelle les réponses sécuritaires sont inappropriées, inopérantes et jugées comme vexatoires.

Il faut donc réconcilier deux mouvements majeurs : la place nouvelle de l’immatériel dans la valeur des entreprises et l’impérieuse nécessité de laisser à tous les acteurs la possibilité de créer et d’exploiter cette information.

Ce double défi implique une révision des concepts utilisés depuis le début de l’essor de l’informatique. L’information est un flux liquide qui irrigue tous les temps de la vie et qu’il est vain d’endiguer. L’informatique a été conçue initialement pour gérer des flux  stables et identifiés de données formalisées internes aux entreprises, partagées entre des personnes connues et toutes soumises au même type de contrat de travail, avec ses règles, droits d’usage, mots de passe. Cette situation est en passe de devenir minoritaire.  L’informatique doit aujourd’hui faire face à des flux multiples.  Les principes de sécurité doivent permettre d’accéder aisément à des informations internes non structurées, comme la vidéo, de même qu’à des informations structurées externes, tels les échanges de données entre tous les acteurs de l’entreprise étendue. Mais ce qui a pris un essor considérable depuis quelques années, c’est le volume des informations non structurées externes,  avec le torrent des données issues du web, textes, images fixes ou vidéos.  

La situation est devenue complexe pour les responsables de la DSI. Aussi, la réponse fréquente face à cet afflux de données composites est une réponse malthusienne : on cherche désespérément à  limiter les flux et les volumes pour les contrôler avec deux motifs également incompréhensibles pour les utilisateurs, les coûts et la sécurité.

La consumérisation des technologies de l’information mine en effet ces arguments pour des utilisateurs qui chez eux disposent de moyens en libre accès : des téraoctets de stockage, de la bande passante abondante (presque toujours !) et des opérateurs qui autorisent des stockages individuels et des tailles de pièces jointes presque sans limite. Et quand les documents à échanger sont trop lourds, on utilise les outils comme DropBox sans problème… Tout ceci est aujourd’hui à la portée de chacun tant en coût qu’en facilité d’usage. Alors pourquoi les entreprises semblent en décalage constant avec la réalité perçue par les utilisateurs ?

Pour appréhender sérieusement le dossier de la sécurité, et entrer dans une boucle vertueuse de résolution de problème, il faut reposer clairement des questions fondamentales : que doit-on protéger ? quels sont les risques réels ? où sont les « ennemis » ? quelle est l’efficacité des parades ? quel est leur coût ?

La protection du patrimoine informationnel de l’entreprise est un sujet mal exploré car souvent mal posé. Faute de diagnostic fin on applique sans nuance le principe de précaution : tout doit faire l’objet du même degré de protection. Et pour  y parvenir, on impose une protection périmétrique étanche, partant du principe que les « bad guys » sont nécessairement à l’extérieur et que si on leur impose un mur d’enceinte efficace la vie à l’intérieur sera protégée. Cette vision, acceptable dans un monde figé, n’est plus opératoire dans un monde ouvert où précisément les flux internes et externes sont constamment mélangés. La question pratique qui est posée aux nomades est bien d’accéder aux informations des entreprises où ils opèrent comme à celles de leur propre entreprise à partir de l’extérieur. La mobilité des personnes (employés, sous-traitants, partenaires, clients) entraine la nécessité de maitriser ce qui se connecte sur le réseau de l’entreprise, quelle que soit la méthode d’accès. Accéder au web, partager des ressources collaboratives, utiliser des flux vidéo pose constamment des problèmes pratiques frustrant. Or l’entreprise étendue  impose ce mode de fonctionnement. L’efficacité qui en résulte ne peut être compromise par des mesures de sécurité trop générales et trop contraignantes.

Il faut donc organiser cet accès en gérant la qualité du service fourni comme la maîtrise de la sécurité à chaque étape et pour chaque usage.

La protection des données sensibles suppose une bonne compréhension par tous du caractère réellement sensible des informations manipulées par les entreprises. Ce travail d’identification valide les précautions prises et les renforce. Il permet une sélectivité des mesures et une meilleure acceptation collective. Il permet également de mettre en rapport le risque et le coût de la protection.

La cartographie des applications sensibles est également une base précieuse d’informations pour le pilotage de la gestion informatique. Il ne s’agit plus alors de protéger contre le risque de disparition ou d’exploitation frauduleuse des données mais, simplement, de permettre à l’entreprise d’exploiter sans rupture l’activité qui va générer ses flux économiques. Par exemple on constatera sans grande surprise que les applications prioritaires sont celles qui assurent la facturation et la gestion de trésorerie. Ce qu’il faut protéger dans l’entreprise c’est ce qui menace son activité courante comme son image. Il faut protéger la valeur de l’entreprise, immédiate ou future, et donc bien cerner les flux d’information les plus sensibles pour y appliquer une politique appropriée.

Le poste de travail, porte d’entrée, recouvre des situations multiples

Le poste de travail qui n’était jusqu’alors un seul « objet » banalisé se transforme en « espace de travail personnel» composite. Pour mener à bien ses tâches, l’utilisateur met en jeu plusieurs terminaux différents dont l’usage  soulève des problèmes de sécurité plus complexes.

Plutôt que de répondre à ce nouveau défi par des interdictions qui ont peu de chances d’être suivies d’effet, il faut  analyser la nature des risques et face  à chaque situation  déployer la mesure la mieux appropriée à la fois sur le plan technique et économique, mais aussi en termes d’acceptabilité. Une politique de sécurité passe en effet avant toute autre considération par l’adhésion des utilisateurs qui doivent comprendre les mesures qui leur sont imposées.

Aussi la problématique doit évoluer d’une vision statique de la sécurité à une vision dynamique et contextuelle. Comment protéger les données face à un accès non autorisé ? Comment protéger le service fourni contre les risques d’attaque de déni de service ? Comment faire face à la perte, ou vol, à la destruction d’équipements intégrés dans la chaîne de traitement de l’information ? Comment mesurer la vitesse et l’impact de la propagation d’un défaut, attaque, sinistre, faille de sécurité ? Comment évoluent les flux d’information : l’analyse des variations de flux peut-elle permettre d’identifier une situation atypique, des utilisateurs non programmés, des scénarios d’usage des informations non identifiés ? La sécurité impose une analyse active des événements.

A chaque menace doit correspondre une riposte graduée.  Une politique de sécurité ne peut s’en remettre au hasard en se basant sur la multiplication des barrières, des obstacles pour décourager les adversaires potentiels. La sécurité sera le résultat d’un travail précis sur le contrôle à l’entrée du réseau pour  identifier et autoriser les flux en fonction des politiques mises en place et isoler les différents flux en fonction de leur identification à l’entrée du réseau. Le réseau doit être en mesure de reconnaitre les équipements connectés au réseau  et d’appliquer des règles de contrôle d’accès sur les nombreux  critères  qui auront été définis : utilisateur, contexte, équipements, localisation.

 

Une politique de sécurité ne doit donc pas isoler artificiellement l’entreprise du terreau qui la nourrit : ses collaborateurs, ses clients, ses fournisseurs. En intégrant toutes les parties prenantes, la politique de sécurité n’est plus l’application mécanique de règles générales. Elle doit contribuer, comme l’ensemble du système d’information, à irriguer chaque fonction avec les informations les mieux appropriées et protégées à bon escient. La sécurité n’est donc plus aux frontières de l’entreprise, elle se situe à chaque niveau dans une granulométrie fine et doit s’appuyer sur une intelligence de l’information. C’est un chantier majeur qui doit s’appuyer sur l’analyse des actifs immatériels pour mesurer les risques et mettre en place le « juste nécessaire » de contraintes et donc de coûts. 


Un monde qui s'efface... un autre qui émerge !

LinkedIn a publié les résultats d'une étude mondiale sur les espèces en danger dans le monde du bureau...Sans surprise on constate que tous les professionnels de la planète sont d'accord pour enterrer les symaboles de la précedente révolution du monde du tertiaire... Aux DSI d'orchestre la suite de l'histoire : la tablette connectée au nuage, à la fois personnelle et professionnelle, accédant à toutes les applications par un navigateur...

 

As part of its “Office Endangered Species” study, LinkedIn surveyed more than 7,000 professionals across the globe and asked which offices tools and trends will most likely not be seen around offices by the year 2017. Thousands of professionals agreed they could easily picture office stalwarts like tape recorders, fax machines and Rolodexes nestled in museum exhibits next to fossils and Tyrannosaurus Rex skeletons.

According to professionals, the top 10 items and office trends that are becoming rare and could even disappear in the next five years are:

Tape recorders (79 percent)
Fax machines (71 percent)
The Rolodex (58 percent)
Standard working hours (57 percent)
Desk phones (35 percent)
Desktop computers (34 percent)
Formal business attire like suits, ties, pantyhose, etc. (27 percent)
The corner office for managers/executives (21 percent)
Cubicles (19 percent)
USB thumb drives (17 percent)
Globally, professionals selected tablets (55 percent), cloud storage (54 percent), flexible working hours and smartphones (which tied at 52 percent) as office tools that are becoming more ubiquitous. Professionals in the U.S. selected tablets (62 percent) as the office tool that is ruling the Earth.

“It’s no surprise to see the Rolodex gathering dust as the pace of technological innovation rapidly makes many workplace practices and tools redundant,” said LinkedIn’s connection director, Nicole Williams. “The beauty of modern devices and platforms, such as LinkedIn, is that they constantly evolve to meet professionals’ needs, allowing them to connect more quickly and easily than ever before.”

Professionals from around the world also hinted at several key dream tools they’d like to see in the future. These include having a clone or assistant to help you in your day (25 percent), a place in the office that provides natural sunlight (25 percent) and a quiet place in your office where you’re allowed to take a nap (22 percent). In a funny twist, nineteen percent of respondents said they wish they had a mute button for their co-workers, so they don’t have to hear them talk.


Ouvrir une brèche dans la conception des applications informatiques

https://www.gov.uk/designprinciples

Un pur moment de bonheur pour ceux qui aiment la conception de systèmes ! Ces principes encore provisoires et perfectibles ont été conçu pour guider  les concepteurs de sites et d'application du domaine GOV.UK. Le gouvrenement britannique a engagé un vaste chantier de rénovation de son apporche du gouvernment-to-citizen ( G2C)

  1. Partir des besoins

  2. Faire moins !

  3.  Construire avec les données

  4. Travailler dur pour faire simple

  5. Commencer petit, et itérer

  6. Utiliser un design qui rend les choses simples

  7.  Comprendre le contexte

  8. Construire les services numériques, pas seulement des sites web

  9. Etre cohérent, pas uniforme

  10. Ouvrir les données, sans cesse,( et les API...)

    Un beau chantier pour faire pénétrer le numérique dans l'adminstration et les services publics, non pas pour automatiser l'existant, mais pour réinventer le service public du XXIe siècle. Nous n'avons plus besoin de notre cheval pour aller à la préfecture !