Previous month:
février 2013
Next month:
avril 2013

Sortir de la crise en exploitant les ressorts de l'iconomie

Ce texte a servi de trame à une intervention que j'ai faite le 27 mars au deuxième colloque organisé par l'Insititut Xerfi sur "Iconomie et entrepreneuriat". L'objectif est de mettre en évidence le rôle des entreprenuers innovants dans la nouvelle dynamique  de la troisième révolution industrielle.

Notre enthousiasme pour la force des idées qui sous-tendent l’iconomie nous pousse à travailler sans cesse à réduire l’espace qui sépare cette vision globale, cohérente et séduisante, de la réalité économique quotidienne. Car, si les mauvaises nouvelles sont nombreuses, il faut avec encore plus d’intensité aller à la recherche des pistes qui vont permettre non seulement de sortir de la crise du système d’hier, mais surtout de construire le système de demain.

Nous voulons montrer que l’iconomie loin de n’être qu’une construction théorique, est devenue une réalité opérationnelle. Nourrie par internet et par l’audace d’entreprendre, l’innovation permet dès maintenant à des dirigeants avisés d’explorer avec succès ces voies nouvelles. Nous en avons identifié trois dont l’expérience nous donne tous les motifs de penser que, ici, dans cette France pessimiste, et maintenant,  la transformation de notre économie est en marche.

L’Iconomie révolutionne les objets du quotidien

Prenons un premier exemple de transition réussi vers l’Iconomie : celui de la start-up française Withings et de son pèse-personne. Il permet de comprendre que l’Iconomie ne concerne pas forcément des algorithmes sophistiqués et  des processus complexes. Non ! l’Iconomie concerne aussi des produits aussi simples et familiers qu’un pèse-personne, que tout le monde a dans sa salle de bains. Aujourd’hui, le pèse-personne de Withings figure parmi les plus belles réussites du prestigieux Consumer Electronic Show de Las Vegas qui chaque année sélectionne les innovations  les plus marquantes.

Alors voici l’histoire de Withings : l’entrepreneur Eric Carreel et son équipe produisaient il y a quelques années des box internet pour France Télécom. Ils ont ensuite exploité leur connaissance de l’électronique grand public, acquise grâce à cette activité dans les box, et ont doté le banal pèse-personne de fonctionnalités remarquables qui en font un auxiliaire de santé efficace. En connectant de façon ultra-simple en wi-fi cet outil à un site spécialisé, on dispose d’un suivi personnalisé de son poids et de son IMC accessible de tout ordinateur, tablette ou smartphone. On peut le partager avec son médecin ou un groupe engagé dans la réduction collective du surpoids.

Withings1

En quatre ans, Whitings est devenu un des symboles des entreprises françaises qui ont su séduire le difficile marché américain et figurer dans les meilleures ventes des magasins Apple. Et puis pour l’entreprise Withings, le pèse-personne  a ouvert la voie à une gamme de produits de santé personnelle, dont un tensiomètre, qui leur assure aujourd’hui un succès mondial.

L’Iconomie au service des industries 1.0

Vous allez me dire en entendant ce premier exemple : l’Iconomie ne concerne que les start-up de l’internet. Eh bien non, pas seulement. Vous allez le comprendre avec mon deuxième exemple. 

Il concerne Lippi, un industriel de Mouthiers en Charente spécialisé dans la production de clôture métallique. En 2008, Lippi se battait pour sa survie sur un marché particulièrement déprimé, coincé entre les prix de l’acier et les exigences économiques des donneurs d’ordre. Aujourd’hui, cette PME est une référence pour sa profession et pour l’industrie du bâtiment.

Alors comment s’est passée cette mutation ? Eh bien quand Frédéric Lippi récupère avec son frère   les clés de l’entreprise familiale de son père, il fait un pari : exploiter tout le potentiel de l’internet pour se donner l’oxygène dont a besoin l’entreprise pour reconstruire son futur. Et pour cela il choisit de faire confiance à chacun de ses trois-cents salariés. Tous seront formés à toutes les techniques de l’internet, faire un site web, exploiter les réseaux sociaux, construire un wi-ki, utiliser Twitter pour communiquer. En vingt-quatre mois, l’entreprise est transformée, le bureau d’études communique avec l’atelier, les commerciaux s’appuient sur la logistique pour conquérir des marchés nouveaux, le savoir est partagé dans un wiki public sur la clôture métallique qui est la référence de la profession. Plus encore, les collaborateurs sont fiers de cette expertise nouvelle qu’ils mettent au service d’un dynamisme de leur entreprise. Dans cette aventure, ce qui est le plus marquant c'est l'effet de percolation qu'a eu l’ initiative web sur des hommes et des femmes qui étaient bloqués dans le système "classique" et qui se sont révélés être des leaders. Pas des chefs, mais des leaders qui montrent aux autres, simplement, par leur engagement personnel, qu'une bifurcation dans sa vie est possible pour peu que l'on saisisse sa chance. Des leaders qui transforment le corps social. Des leaders qui rendent possible tout le reste, explorer toutes opportunités nouvelles offertes par la déstructuration/réorganisation en réseau de l'entreprise. Partager, concevoir en commun, communiquer sans échelon intermédiaire, mettre le client au cœur des processus de l’entreprise, ce sont parmi les facteurs clefs de succès de l’iconomie.

L’Iconomie concerne aussi les grandes entreprises !

Avec ces deux premiers exemples,  vous allez me dire: l’Iconomie ne concerne que des entreprises de taille réduite. Des start-up comme Withings ou des PME familiales comme Lippi. Eh bien avec mon troisième exemple, vous allez voir que les grands groupes n’échapperont pas non plus à cette transition, puisque cet exemple concerne à la fois l’équipementier sportif Décathlon et le spécialiste de la domotique Somfy.

En fait il concerne un homme, Serge Darrieumerlou, qui a travaillé au sein de ces deux entreprises. D’abord chez Oxylane, la maison mère des différentes marques distribuées par Décathlon. Il a démontré lors de ses années au sein de ce groupe que dans un secteur largement dominé par les grandes marques mondiales faisant fabriquer en Chine, il était possible de lancer des produits radicalement nouveaux sous des marques françaises, fabriquées en France et en Europe. Il est en effet à l’origine de l’élan d’innovation qui a propulsé Oxylane au premier rang des enseignes de produits pour le sport et le grand air. Il a avec ses équipes inventé des concepts, des produits  nouveaux comme la tente déployable automatiquement, la marque Quechua, les produits électroniques sportifs abordables, faciles à utiliser.

Window-Covering-Scene

Ces innovations pratiques et efficaces traduisent une inventivité dans les produits mais aussi dans l’approche du marché où le consommateur est guidé en confiance vers les solutions les mieux adaptées à leurs besoins réels.

Aujourd’hui, Serge Darrieumerlou apporte ce savoir-faire à Somfy, l’un des leaders sur le marché de la domotique. C’est une entreprise mondiale, dont le siège est à Cluses en Haute-Savoie et dont le plus récent fait d’arme est d’avoir racheté son concurrent… chinois.  Somfy est au cœur des nouveaux métiers de l’iconomie, la préservation des ressources rares par la régulation électronique.  Somfy est en effet le leader mondial de l’automatisation des ouvertures de la maison et a étendu cette expertise à la domotique. Rien à voir avec la domotique gadget dont on parlait il y a 20 ans… C'est une domotique intuitive, évolutive et accessible, réinventée à l’heure du numérique, une domotique utile qui contribue à l’amélioration des cadres de vie des habitants en apportant confort, sécurité et économie d’énergie. C'est aussi un cadre qui apporte une impulsion à la profession en faisant émerger des nouveaux métiers autour de l’accompagnement et des services.

Se battre avec les armes de demain

Trois exemples, trois secteurs, trois personnalités, mais une seule dynamique : l’innovation par tous, pour tous. Dans ces exemples, il y a certes des hommes qui ont su capter l’air du temps. Mais il y a aussi une solide conviction : il faut se battre, en équipe, non pas avec les armes d’hier, mais avec celles de demain. A l’écoute du marché, sensible aux préoccupations des clients, s’appuyant sur le talent de leurs équipes, sans arrogance ni défaitisme, ils explorent le champ du possible avec tenacité. L’iconomie, c’est bien la réinvention de notre économie avec des idées fortes, simples, pragmatiques exploitant tout le potentiel technique de l’époque et prêtes à  épouser sans délai les promesses du futur.

 

http://prezi.com/wrfxgblrobpi/copy-of-innovation2/?kw=view-wrfxgblrobpi&rc=ref-35519087

 

Pour en savoir plus : http://www.institutxerfi.org/


Genève 2013, luxe et confort pour un marché en quête d’apaisement

Le 83e Salon de l’automobile de Genève a fermé ses portes le 17 mars sur un constat de succès: 690000 visiteurs, soit 2% de moins qu'en 2012. L’automobile attire toujours autant de curieux et de passionnés. La crise de l’automobile était en effet peu discernable dans les allées du salon. Toutefois, chez les grands constructeurs, les budgets plus serrés ont conduit à moins de débauche de prototypes, d’effets d’annonce tapageurs, de démonstrations spectaculaires. Ils se font plus discrets face à un marché incertain, même en Asie. Néanmoins, la tonalité générale des produits  reste orientée vers le haut de gamme et les fortes motorisations  pour séduire plus volontiers un consommateur aisé, ou asiatique, qu’un client européen contraint.

L’automobile reste toujours, en dépit des crises, un objet de désir paradoxal. Les voitures de très haut de gamme, inaccessibles, et inutilisables dans leurs spécificités techniques extrêmes, déploient tous leurs chromes et leurs cuirs. Elles marquent encore ce salon qui fait du luxe  et de l’exception une tradition accentuée, comme chaque année, par la présence visible de très nombreux carrossiers et préparateurs. Cette fête de l’automobile d’exception continue à attirer les foules qui n’hésitent pas à se masser devant les stands de voiture de luxe pour apercevoir la dernière Ferrari ou Maserati, ou s’extasier devant la McLaren P1, déjà mythique, ou la Koenigsegg  de plus de 1000 cv dans sa livrée toute pailletée d’or que l’on imagine destinée aux nouveaux milliardaires chinois.

Mclaren_p1_001_big
McLaren P1

En revanche, il faut chercher les  nouveautés sur le front de la voiture raisonnable, accessible économiquement et dont la trace environnementale est peu visible. Il y a incontestablement un retrait de la « voiture propre » en ce printemps 2013 comme si cet engouement fébrile destiné, depuis 2008, à sauver l’industrie automobile en danger, était retombé. Il n’y a plus d'espace consacré aux motorisations alternatives ni de piste d’essai de véhicules électriques, et les produits innovants se cherchent dans les stands.

Il y a plusieurs raisons à cette situation. Le monde de l’automobile est pragmatique. La mévente des voitures électriques sur le marché européen conduit les constructeurs à minimiser leurs investissements dans ce qui apparaît devoir rester longtemps un segment marginal malgré les immenses avantages du véhicule électrique. La déconfiture en Israël du modèle de location Better Place, malgré 2000 bornes et 21 stations d’échange de batteries, a aussi désenchanté le marché. L’ensemble des voitures à motorisation alternative ne représente en 2012 en Europe que 2,5 % du marché. Et parmi celles-ci, 70% sont des hybrides. D’autre part, alors qu’en 2008 les voitures « zéro émission » représentaient un espoir fédérateur, le marché aujourd’hui s’est consolidé et a opéré des choix. Les véhicules existent, sont en vente, peuvent être essayés chez les concessionnaires. Et on observe une segmentation naturelle entre le haut de gamme très cher, bien représenté à Genève par Fisker, qui a vendu 44 voitures en Suisse en 2012, et Tesla qui exposaient leurs berlines statutaires, ou BMW qui annonce l’entrée en production de ses I3 et i8 , et l’entrée de gamme accessible avec la séduisante Zoé de Renault, très mise en valeur pour fêter son entrée officielle sur le marché après avoir été visible depuis longtemps sur les salons en tant que concept car. Renault est le seul constructeur généraliste à continuer à valoriser le véhicule électrique aux côtés de ses motorisations thermiques optimisées et de l’utilisation de start & stop. Mitsubishi expose sa «Mitsubishi house» qui installe la voiture électrique comme réserve d’énergie connectée à un réseau électrique intelligent. VW présente sa e-Up ! électrique annoncée sur le marché pour 2014.

Il faut aussi noter que si l’électrique donne le sentiment d’avoir perdu sa dynamique, les véhicules hybrides connaissent un succès réel. La plupart des constructeurs a désormais emboîté le pas au groupe Toyota et propose dans leur gamme des motorisations hybrides. L’hybride est donc clairement entré dans une phase de normalisation.

PSA développe sur ses modèles Citröen et Peugeot (DS5, 3008) son système Hybrid 4 qui a fait l’objet de 20000 commandes en 2012. Le groupe présente également sa recherche sur le système Hybrid Air, avec moteur pneumatique et gaz comprimé. Honda poursuit le développement de sa stratégie hybride avec une petite Jazz.  Même Nissan s’engage dans cette voie, même si Renault pour l’instant ne s’y est pas engagé, alors que sa Leaf pure électrique ne faisait pas l’objet de la même mise en scène que lors des années précédentes. GM adapte à sa légendaire marque Cadillac sa chaine de traction électrique à prolongateur d’autonomie, développée pour la Volt, sur son coupé ELR.

L’hybride gagne du terrain chez tous les constructeurs mais l’opiniâtreté  de Toyota est récompensée. Son stand illustre le savoir-faire de la marque dans ce domaine avec quatre véhicules de toutes tailles - Prius +, Prius, Auris, Yaris- désormais bien installés sur le marché, puisque Toyota et Lexus ont dépassé quatre millions de véhicules vendus depuis la première Prius confidentielle de 1997, dont 500 000 en Europe, soit 13% des ventes du groupe Toyota en Europe. Les hybrides plug-in, comme la Prius, tentent la synthèse entre électrique pur et hybride, à l’instar de la Volvo V-60 ou de la Chevrolet  Volt.

Les motorisations à pile à combustible à hydrogène sont plus discrètes. La Hyundai ix 35 Fuel Cell se présente comme la première voiture de série à hydrogène, avant la Classe B F-Cell de Mercedes Benz alors que Honda expose une fois encore la même iconique Clarity. Toyota qui a pourtant de grandes ambitions en matière d’hydrogène ne reprend pas ce thème sur son stand comme cela avait été fait à Paris.

Pour relancer le marché, il est clair que l’évolution des motorisations vers des solutions moins gourmandes en carburant ne suffit pas. L’avantage en coût d’usage sauf pour les gros rouleurs ne justifie pas l’investissement. Aussi les constructeurs continuent à déployer de larges gammes pour couvrir tous les micro-segments de marché. On veut séduire en proposant des véhicules personnalisables, flatteurs, tellement personnalisables que la revente sur le marché de l’occasion risque de poser problème. Les mini-SUV de Renault, avec Captur, de Peugeot, avec 2008, Opel, avec sa Mokka sacrifient à cette tendance du multicolore. 

Il faut aussi noter que plusieurs groupes misent sur l’internet embarqué pour séduire leurs clients mobiles et connectés. C’est le cas de Renault avec son très complet système R-Link et de Ford avec Sync. Enfin carrosseries et environnement intérieur se font plus flatteurs pour renforcer le caractère distinctif et redonner un plaisir esthétique aux conducteurs. 

Il faut aussi relever quelques symboles dans ce monde automobile qui en est très friand.

- Les constructeurs chinois sont les grands absents de ce salon. Geely, BYD ont disparu. Visiblement leurs ambitions européennes sont brisées par le marché. Seul un nouveau venu, Qoros, montre sa volonté de vendre en Europe un véhicule haut de gamme à prix cassé, GQ3, une berline tricorps très typée BMW Série 5. Ce stop and go des constructeurs chinois, qui n’engendre pas la confiance, illustre un manque de cohérence et de vision dans leur approche de l’Europe.

- Si le groupe Volkswagen affiche sa puissance en déclinant avec force  toutes ses marques dans un même espace, si le groupe Fiat en fait de même en montrant la cohérence Fiat/Chrysler et esquissant même un rapprochement Alfa Roméo/ Ferrari avec la 4C, l’Alliance Renault-Nissan, en revanche, choisit une discrète et curieuse dispersion en diluant l’entrée de gamme Dacia et son haut de gamme Infiniti, avec sa nouvelle berline Q50, très loin des stands Renault et Nissan.

- Les véhicules alternatifs qui avaient marqué les précédents salons  ont quasiment disparu à l’exception d’un intéressant stand du département des Yvelines qui met en valeur sa contribution au renouveau de l’automobile en montrant des véhicules automatiques de transport et des véhicules de livraison électriques. Deux véhicules cherchent également  à explorer la voie des systèmes automatiques de transport : le MicroMAX du suisse Rinspeed et Edag. Répondant au Twizy de Renault, le trois-roues de Toyota i-road est une figure de style sans grande ambition commerciale. Il faut également mentionner l’étude de Volkswagen pour un véhicule descendant au-dessous d’un litre aux 100 de consommation,  la VW XL1, doté d’un système de propulsion hybride diesel/électrique de 0,8 l de cylindrée, d’une structure en fibre de carbone et surtout d’un aérodynamisme  exceptionnel avec un Cx de 0,189. Ce véhicule ne répond en rien aujourd’hui à des critères d’industrialisation !

Ilaf_vw_xl1_new_bigDsc02651a_iPadMedia

- Au moment où les véhicules diesel font l’objet d’une vigoureuse mise en garde en matière de santé publique, on ne sent pas chez les constructeurs une prise de conscience du sérieux de cette situation.

 

Genève 2013 s’inscrit bien dans la tradition d’un salon attractif, ouvert et séduisant, panorama représentatif  de l’automobile mondiale. Il est vrai que le marché suisse a continué à croître de 3% en 2012. Il n’en reste pas moins vrai que les espoirs mis un temps sur la volonté de l’industrie automobile de trouver des pistes nouvelles audacieuses pour s’affranchir de la contrainte pétrolière et mieux s’insérer dans l’espace urbain sont aujourd’hui déçus. Est-ce un renoncement provisoire face à la crise, ou au contraire la tentation du retour au bon vieux temps de la croissance alimentée par les marchés émergents ?


Développer soi-même, un retour aux sources ?

 

Le monde de l’informatique connaît une adaptation plus rapide aux changements que les autres secteurs économiques car il est mû par la force de ses moteurs techniques qui connaissent une croissance exponentielle.  Que ce soient la puissance des microprocesseurs, la capacité des mémoires et la bande passante des réseaux, ces facteurs de performance évoluent avec constance vers des niveaux de performance sans cesse croissant pour un prix en baisse. En soixante années de développement, le monde informatique a ainsi connu plusieurs révolutions technologiques qui ont poussé de massives vagues de transformation dans ses propres entreprises. Ces mutations se sont ensuite propagées  dans tous les secteurs au rythme de déploiement de ces nouvelles solutions informatiques.  

Cette accélération du changement a été fatale pour de nombreuses entreprises du secteur qui, bien qu’un temps leader, n’ont pas su anticiper la révolution suivante et ont dû ou se vendre ou disparaître. La marche héroïque de l’informatique est peuplée de ces héros malheureux dont la liste est très longue. Ce film accéléré a permis de voir en quelques années sombrer des géants  et émerger de nouveaux champions, eux-mêmes contestés par des rivaux agressifs. Nul secteur économique n’a connu une telle mutation, qui est loin de se stabiliser.

C’est  la révolution informatique qui a contribué directement aux mutations des autres secteurs économiques plus que tout autre facteur.

Entre  l’informatique centrale et artisanale des années cinquante, le monde des mainframes des années soixante, la révolution des PC des années quatre-vingt  et les premiers  sites web des années quatre vingt-dix, il n’y a pas grand-chose de commun sinon une architecture remarquablement stable, le modèle dessiné par von Neuman en 1945 qui sépare données, traitements et interfaces.

Aujourd’hui l’informatique moderne hérite de ces vagues de transformations successives et certains peuvent reconnaître dans la vogue de l’informatique en nuage le retour au « service bureau » des années soixante qui visait à partager entre utilisateurs des capacités de calcul rares et coûteuses.

Si l’histoire des matériels informatiques est bien connue car elle se visualise aisément, et chacun aujourd’hui peut apprécier  les performances de l’industrie en exploitant au quotidien  les potentialités de son smartphone ou de sa tablette, l’évolution de la programmation informatique est moins connue en dehors des cercles de spécialistes. Certes les entreprises ont vu des progiciels succéder aux logiciels développées en interne pour la plupart des fonctions régaliennes et nul n’ignore aujourd’hui la place des grands éditeurs de logiciels comme Microsoft, Oracle, SAP ou IBM.

Mais si les ERP ont conquis en vingt ans les fonctions classiques de l’entreprise et permettent de gérer avec efficacité la comptabilité, la facturation, les ressources humaines, les  achats, le cœur de métiers des entreprises reste encore confié à des applications spécifiques ou à des éditeurs de niche.

Or le web est en train de bouleverser une situation qui paraissait stabilisée. Il y avait un consensus établi dans la profession entre vendeurs de solutions et DSI pour considérer que le développement spécifique n’était plus une option crédible même pour les logiciels de cœur de métier. La première cause de cette doctrine est bien évident la recherche d’économies d’échelle, les entreprises ayant  les mêmes caractéristiques métier pouvant mettre en commun, à travers un éditeur, leurs analyses fonctionnelles et le développement industriel des programmes informatiques qui les supportent. Le renouvellement incontournable des « vieux » logiciels maison ne pouvait se faire, à en coire le marché, qu’avec des solutions packagées. Les éditeurs  centrés sur les besoins métier ont ainsi pu développer une approche industrielle qui a eu un succès réel dans des domaines comme la conception assistée par ordinateur avec Dassault Systems ou la gestion des voyages avec Amadeus. Dans des domaines pointus comme la gestion des risques on a vu apparaître des éditeurs comme Fermat qui ont rapidement pris une importance majeure dans la stratégie logicielle des banques.

Mais le monde du web est en train de conduire les acteurs et notamment les DSI à reconsidérer cette vision « tout progiciel ».  L’observation des pratiques des nouveaux acteurs de l’économie apporte un éclairage nouveau et inattendu dans cette évolution du marché.

En effet, les grands acteurs du web ont dû leur essor et leur fortune au fait qu’ils ont eux-mêmes inventés leurs logiciels métier. Que ce soit Facebook, Amazon, LinkedIn, tous ont fait le choix de développer leur propre environnement logiciel. C’est parce que ces entreprises sont nées autour de la spécificité de leur logiciel qu’elles ont pu conquérir le marché, qui ne peut exister sans logiciel. C’est bien là l’immense différence entre l’économie classique des progiciels qui s’appuie sur la formalisation et la mutualisation de pratiques existantes et « l’économie numérique » ou « digitale » qui invente de nouvelles pratiques.

Non seulement ces entreprises s’appuient sur leur ingénierie logicielle pour développer une différenciation sur le marché, mais elles remettent totalement en cause les méthodes de développement classique. Pulvérisant la distinction conventionnelle entre maîtrise d’ouvrage et maîtrise d’œuvre, qui a toujours un grand succès en France, elles cassent le cycle de développement en V pour associer étroitement leurs analystes et concepteurs  produits avec les informaticiens. Le développement « agile » est devenu le seul modèle de ces équipes. De même génération, partageant le même langage, les mêmes plateaux techniques, en petites équipes soudées, ils co-concoivent en temps réel  les applications informatiques qui donnent corps à leurs stratégie client. Ces équipes, compactes et calées sur les besoins métiers qu’elles mesurent en permanence, sont capables d’ajuster en continu les programmes informatiques pour épouser le rythme du métier.

Cette approche ne consiste toutefois pas à négliger l’intérêt d’une mutualisation. Si dans le monde des applications classiques, le grand espoir qu’avait suscité l’approche objet et les SOA (« service oriented architecture ») ne s’est pas souvent concrétisé devant la complexité de l’architecture, la discipline qui doit l’accompagner, et la mutualisation des financements entre projets, cette approche a un grand succès dans les développements web. C’est l’open source qui assure cette indispensable fonction de mutualisation. Or elle le fait mieux, plus vite et moins cher – qualités essentielles du développement informatique - que les éditeurs propriétaires. L’open source était le chainon manquant dans l’évolution  de l’informatique.  Les grands acteurs du web utilisent les solutions open source et nourrissent activement les communautés.

Si les idées de mutualisation étaient bien présentes dans les équipes de développement, elles se heurtaient à l’absence d’organisation d’un marché des composants logiciels. Or l’open source y pourvoie aujourd’hui et l’open source est le fruit du web. C’est la mise en relation des compétences à travers les forums, les échanges de code, qui permettent au développeur de produire des solutions novatrices. Tout développeur isolé, et talentueux, peut assembler de briques de composants en ajoutant à un édifice standard les logiques qui vont assurer l’originalité de son produit.

Agile-management-marketing

La révolution du web est donc également une révolution méthodologique qui bouleverse les bases de l’édition logicielle.

Mais le web a introduit un autre changement majeur : la place de l’utilisateur est devenue centrale. Dans une logique classique de développement informatique, le dialogue est surtout centré sur les représentants des métiers, qui vont exprimer leurs attentes, et les informaticiens, qui vont tenter d’inventer le code qui répond à ces désirs au prix d’ajustements lents et de compromis tactiques. L’utilisateur final n’est que peu présent  dans cette boucle de rétroaction et l’ergonomie applicative n’est généralement pas le facteur majeur de décision.

Or dans le monde du web, c’est l’utilisateur qui décide. Tout défaut dans l’affichage d’une page, tout délai intempestif dans le déroulement d’un menu, toute attente exaspérante d’une fonction, et il décide d’interrompre la transaction. Or contrairement à une idée courante, le problème ne vient en général pas du réseau mais de la conception de l’application.

L’ergonomie est le premier facteur de performance commerciale d’un site web. Les applications web sont donc toutes conçues pour plaire à leurs utilisateurs et la mesure de cette satisfaction est une activité centrale de l’exploitation informatique. Il est évident que ce soin accordé à la production de  performances crée une réelle satisfaction qui renvoie l’informatique classique à la préhistoire.

Cette exigence technique remet en lumière la nécessité de maîtriser l’architecture et le développement applicatifs. Ce sont des fonctions clefs pour créer des applications attractives qui vont, en interne, accroître la productivité, et développer le chiffre d’affaires et la satisfaction client. Il faut donc être en mesure de recruter des développeurs talentueux et de les retenir. C’est bien évidemment ce que font en priorité les acteurs du web, qui ont parfaitement compris l’enjeu économique réel qui n’est pas de réduire le coût de la ressource mais de maximiser la valeur créée. Ce modèle de développement rapide et efficient condamne, au moins pour ce type de service, les grandes concentrations de développeurs en off-shore. Il ne s’agit plus de faire massivement moins cher, il faut désormais faire vite ce qui est pertinent.

Pour conclure, il faut aussi mettre en évidence que la qualité des nouveaux développements ne serait pas suffisante si elle en s’appuyait pas sur une infrastructure puissante et efficace. Là encore les progrès ont été spectaculaires grâce à la virtualisation et au « cloud computing » qui permettent de disposer à tout moment d’une infrastructure d’exploitation et de distribution efficace et constamment mise à jour.  Il ne faut toutefois pas en sous-estimer le coût et, là encore, la nécessité de disposer des compétences requises, en interne et auprès des fournisseurs.

L’informatique du web change les méthodes de l’informatique classique et cassant les modèles lents et lourds. Plutôt que de porte-avions structurés et coûteux, l’informatique moderne requiert des flotilles de développeurs, et d’utilisateurs experts, légers, agiles, réactifs. La coordination de ces talents nécessite toutefois un changement dans les méthodes de management et de contrôle.

Mais c’est aussi toute l’entreprise qui serait bien inspirée de suivre ce modèle d’évolution.


Le vrai prix de la sécurité informatique

 

Comment sortir d’un débat sans issue source d’irritation pour tous les acteurs

La sécurité informatique est devenue un thème lancinant des colloques, revues,  articles et flux RSS qui traitent de la révolution numérique. Il n’est pas de jour où on ne parle de cyber-attaque, de cybercriminalité, de cyber-guerre, de campagne de phishing,  dont on était récemment victimes de célèbres enseignes de télécommunications et d’énergie, d’attaque contre la e-réputation… Se mélangent ainsi sous cette vaste rubrique « sécurité informatique » une série d’informations touchant des natures de délinquance très différentes, qui vont de la banale escroquerie, classique, à la carte bleue ou aux prestations sociales aux opérations de fraude de haut vol et à la déstabilisation d’Etat. On cherche ainsi à se prémunir contre la curiosité présumée des services de sécurité de pays pourtant amis en cherchant à inventer le « made in France » de la localisation des données dans le monde éthéré du « nuage ». S’il y a beaucoup de paranoïa derrière cet inventaire, c’est que l’on cerne mal les menaces dans le monde de l’immatériel et que l’on a beaucoup de difficultés à concevoir une politique de sécurité dont on puisse prévoir l’efficacité, et donc le rapport coût/valeur.

Cette omniprésence du thème sécuritaire génère un climat d’inquiétude diffuse qui perturbe les directions générales, soucieuses de se prémunir face à ces risques nouveaux et mal compris, comme les pouvoirs publics désireux de juguler cette nouvelle délinquance.

Mais face à cette avalanche de mises en garde dramatiques, l’utilisateur manifeste une souveraine indifférence et se rue sans modération vers les nouveaux outils que sont les smartphones et les tablettes dont l’attractivité balaie toutes les inhibitions. On stocke sur son disque dur d’ordinateur portable des documents « confidentiels », on utilise, comme 47% des collaborateurs des entreprises américaines, son iPhone pour accéder partout à ses courriers électroniques professionnels, on néglige de sauvegarder sur un autre support le précieux résultat de son travail, sans compter les petits post-it jaunes collés sur l’écran qui contiennent en clair ses mots de passe.

Face à cette légèreté des comportements, les DSI tentent avec détermination d’opposer une stratégie de sécurité inflexible. Pour cela ils bannissent le libre usage des smartphones, bloquent les sites web, imposent un mot de passe alphanumérique complexe et changé tous les mois, cryptent les disques durs et accumulent sur les PC officiels les couches de sécurité qui en ralentissent le démarrage. Les utilisateurs trouvent dans ces précautions multiples qui ralentissent le travail et brident la liberté d’utiliser le matériel de leur choix  une raison supplémentaire de blâmer l’informatique. On observe des débats curieux. L’ire des utilisateurs agace les directions qui blâment la DSI. Celle-ci se défend derrière l’exécution des décisions de ces mêmes directions générales, alors même qu’elles ne sont  souvent pas les dernières à utiliser des matériels officiellement non autorisés.

La sécurité informatique est donc bien une pomme de discorde et un facteur de tension au sein des entreprises. Elle est perçue comme le frein ultime et aveugle de l’innovation et de la créativité.

Il est clair que ce débat est aujourd’hui dans l’impasse ce qui impose une remise à plat des analyses et des stratégies.

Prendre la mesure de la fragilité de son capital informationnel

Si la sécurité numérique a pris une telle place dans les préoccupations des entreprises, c’est une preuve par défaut que l’information est perçue désormais comme jouant un rôle déterminant dans le capital des entreprises. Si les mesures de sécurité sont mal comprises et mal acceptées c’est que la maturité des politiques et des outils n’ont pas suivi l’extraordinaire vitesse de déploiement des nouveaux objets numériques. Le libre usage de ces outils informationnels, en toutes situations de la vie personnelle et professionnelle, crée un nouvel état de fait, une revendication irrépressible à laquelle les réponses sécuritaires sont inappropriées, inopérantes et jugées comme vexatoires.

Il faut donc réconcilier deux mouvements majeurs : la place nouvelle de l’immatériel dans la valeur des entreprises et l’impérieuse nécessité de laisser à tous les acteurs la possibilité de créer et d’exploiter cette information.

Ce double défi implique une révision des concepts utilisés depuis le début de l’essor de l’informatique. L’information est un flux liquide qui irrigue tous les temps de la vie et qu’il est vain d’endiguer. L’informatique a été conçue initialement pour gérer des flux  stables et identifiés de données formalisées internes aux entreprises, partagées entre des personnes connues et toutes soumises au même type de contrat de travail, avec ses règles, droits d’usage, mots de passe. Cette situation est en passe de devenir minoritaire.  L’informatique doit aujourd’hui faire face à des flux multiples.  Les principes de sécurité doivent permettre d’accéder aisément à des informations internes non structurées, comme la vidéo, de même qu’à des informations structurées externes, tels les échanges de données entre tous les acteurs de l’entreprise étendue. Mais ce qui a pris un essor considérable depuis quelques années, c’est le volume des informations non structurées externes,  avec le torrent des données issues du web, textes, images fixes ou vidéos.  

La situation est devenue complexe pour les responsables de la DSI. Aussi, la réponse fréquente face à cet afflux de données composites est une réponse malthusienne : on cherche désespérément à  limiter les flux et les volumes pour les contrôler avec deux motifs également incompréhensibles pour les utilisateurs, les coûts et la sécurité.

La consumérisation des technologies de l’information mine en effet ces arguments pour des utilisateurs qui chez eux disposent de moyens en libre accès : des téraoctets de stockage, de la bande passante abondante (presque toujours !) et des opérateurs qui autorisent des stockages individuels et des tailles de pièces jointes presque sans limite. Et quand les documents à échanger sont trop lourds, on utilise les outils comme DropBox sans problème… Tout ceci est aujourd’hui à la portée de chacun tant en coût qu’en facilité d’usage. Alors pourquoi les entreprises semblent en décalage constant avec la réalité perçue par les utilisateurs ?

Pour appréhender sérieusement le dossier de la sécurité, et entrer dans une boucle vertueuse de résolution de problème, il faut reposer clairement des questions fondamentales : que doit-on protéger ? quels sont les risques réels ? où sont les « ennemis » ? quelle est l’efficacité des parades ? quel est leur coût ?

La protection du patrimoine informationnel de l’entreprise est un sujet mal exploré car souvent mal posé. Faute de diagnostic fin on applique sans nuance le principe de précaution : tout doit faire l’objet du même degré de protection. Et pour  y parvenir, on impose une protection périmétrique étanche, partant du principe que les « bad guys » sont nécessairement à l’extérieur et que si on leur impose un mur d’enceinte efficace la vie à l’intérieur sera protégée. Cette vision, acceptable dans un monde figé, n’est plus opératoire dans un monde ouvert où précisément les flux internes et externes sont constamment mélangés. La question pratique qui est posée aux nomades est bien d’accéder aux informations des entreprises où ils opèrent comme à celles de leur propre entreprise à partir de l’extérieur. La mobilité des personnes (employés, sous-traitants, partenaires, clients) entraine la nécessité de maitriser ce qui se connecte sur le réseau de l’entreprise, quelle que soit la méthode d’accès. Accéder au web, partager des ressources collaboratives, utiliser des flux vidéo pose constamment des problèmes pratiques frustrant. Or l’entreprise étendue  impose ce mode de fonctionnement. L’efficacité qui en résulte ne peut être compromise par des mesures de sécurité trop générales et trop contraignantes.

Il faut donc organiser cet accès en gérant la qualité du service fourni comme la maîtrise de la sécurité à chaque étape et pour chaque usage.

La protection des données sensibles suppose une bonne compréhension par tous du caractère réellement sensible des informations manipulées par les entreprises. Ce travail d’identification valide les précautions prises et les renforce. Il permet une sélectivité des mesures et une meilleure acceptation collective. Il permet également de mettre en rapport le risque et le coût de la protection.

La cartographie des applications sensibles est également une base précieuse d’informations pour le pilotage de la gestion informatique. Il ne s’agit plus alors de protéger contre le risque de disparition ou d’exploitation frauduleuse des données mais, simplement, de permettre à l’entreprise d’exploiter sans rupture l’activité qui va générer ses flux économiques. Par exemple on constatera sans grande surprise que les applications prioritaires sont celles qui assurent la facturation et la gestion de trésorerie. Ce qu’il faut protéger dans l’entreprise c’est ce qui menace son activité courante comme son image. Il faut protéger la valeur de l’entreprise, immédiate ou future, et donc bien cerner les flux d’information les plus sensibles pour y appliquer une politique appropriée.

Le poste de travail, porte d’entrée, recouvre des situations multiples

Le poste de travail qui n’était jusqu’alors un seul « objet » banalisé se transforme en « espace de travail personnel» composite. Pour mener à bien ses tâches, l’utilisateur met en jeu plusieurs terminaux différents dont l’usage  soulève des problèmes de sécurité plus complexes.

Plutôt que de répondre à ce nouveau défi par des interdictions qui ont peu de chances d’être suivies d’effet, il faut  analyser la nature des risques et face  à chaque situation  déployer la mesure la mieux appropriée à la fois sur le plan technique et économique, mais aussi en termes d’acceptabilité. Une politique de sécurité passe en effet avant toute autre considération par l’adhésion des utilisateurs qui doivent comprendre les mesures qui leur sont imposées.

Aussi la problématique doit évoluer d’une vision statique de la sécurité à une vision dynamique et contextuelle. Comment protéger les données face à un accès non autorisé ? Comment protéger le service fourni contre les risques d’attaque de déni de service ? Comment faire face à la perte, ou vol, à la destruction d’équipements intégrés dans la chaîne de traitement de l’information ? Comment mesurer la vitesse et l’impact de la propagation d’un défaut, attaque, sinistre, faille de sécurité ? Comment évoluent les flux d’information : l’analyse des variations de flux peut-elle permettre d’identifier une situation atypique, des utilisateurs non programmés, des scénarios d’usage des informations non identifiés ? La sécurité impose une analyse active des événements.

A chaque menace doit correspondre une riposte graduée.  Une politique de sécurité ne peut s’en remettre au hasard en se basant sur la multiplication des barrières, des obstacles pour décourager les adversaires potentiels. La sécurité sera le résultat d’un travail précis sur le contrôle à l’entrée du réseau pour  identifier et autoriser les flux en fonction des politiques mises en place et isoler les différents flux en fonction de leur identification à l’entrée du réseau. Le réseau doit être en mesure de reconnaitre les équipements connectés au réseau  et d’appliquer des règles de contrôle d’accès sur les nombreux  critères  qui auront été définis : utilisateur, contexte, équipements, localisation.

 

Une politique de sécurité ne doit donc pas isoler artificiellement l’entreprise du terreau qui la nourrit : ses collaborateurs, ses clients, ses fournisseurs. En intégrant toutes les parties prenantes, la politique de sécurité n’est plus l’application mécanique de règles générales. Elle doit contribuer, comme l’ensemble du système d’information, à irriguer chaque fonction avec les informations les mieux appropriées et protégées à bon escient. La sécurité n’est donc plus aux frontières de l’entreprise, elle se situe à chaque niveau dans une granulométrie fine et doit s’appuyer sur une intelligence de l’information. C’est un chantier majeur qui doit s’appuyer sur l’analyse des actifs immatériels pour mesurer les risques et mettre en place le « juste nécessaire » de contraintes et donc de coûts.