La voiture autonome face à ses responsabilités

Pour les conducteurs pris dans les embouteillages quotidiens de toutes les villes de la planète, conduire, loin d'être un plaisir, se transforme en corvée fatigante et dangereuse. Le rêve de confier cette charge à un automate se rapproche mais est encore loin de pouvoir se concrétiser facilement.

Le chemin à parcourir est d'abord technique, mais aussi réglementaire. Il est plus encore comportemental car la voiture touche au coeur même de la modernité. La circulation routière de plus d’un milliard de véhicules n’est pas une activité banale. Elle est encadrée par une convention internationale conclue à Vienne le 8 novembre 1968 qui remplace les textes antérieurs de 1926, 1943 et 1949. C’est un document central qui rend la circulation possible sur l’ensemble de la planète avec des règles communes. Son article 8 définit le rôle particulier du conducteur que la technique promet d’éloigner prochainement du volant.

La modification de cette convention sera un chantier est complexe car les recherches sur la voiture autonome mettent en évidence ce qui avait finalement été banalisé par plus d’un siècle d’usage, c’est que la conduite automobile est une activité multitâche exigeante, nécessitant le recours à de multiples mécanismes cérébraux et musculaires, stimulés en temps réel. L’homme, au terme d’un apprentissage initial souvent sommaire, finit par en venir à bout de façon assez performante même si c’est un processus coûteux en vies humaines. Selon l’OMS, c’est en effet plus d’un million de personnes qui meurent en effet chaque année dans un accident automobile sur la planète.

Confier cette mission périlleuse à une machine suppose que l’on soit capable d’obtenir en toutes circonstances, de façon fiable et répétitive, moins coûteuse en temps, en énergie et en erreurs un résultat performant supérieur à celui atteint par l’homme. Et ceci pour un coût acceptable !

Capture d’écran 2018-05-15 à 11.55.19

Au CES de Las Vegas 2018, présentation d'une approche de transformation de l'interface homme/machine par Valeo

La longue marche de la voiture autonome : quelle échéance crédible ?

L’ambition qui n’est pas nouvelle puisque dès 1939 General Motors avait imaginé pour la Foire internationale de New York, « The World of Tomorrow », des autoroutes où circuleraient des voitures dont la vitesse et l’espacement étaient régulés.

Depuis 1980, les expériences, isolées, ont stimulé la recherche et le fameux challenge du DARPA, agence de recherche du Ministère de la Défense des États-Unis, a mis en concurrence plusieurs équipes pour faire circuler, laborieusement, un véhicule autonome entre 2003 et 2007. C’est l’équipe gagnante du défi 2005, issue de Stanford, qui est à l’origine du projet de Google. Cependant, la ruée actuelle vers ce concept est apparue en sortie de la crise de 2009 comme une réponse de l’industrie automobile au besoin ressenti de renouvellement et d’imaginaire, incarné de façon dominante par l’industrie numérique. Quand Google a annoncé en 2010, de façon très prématurée, être capable de produire une voiture autonome, les constructeurs automobiles ont été piqués au vif. Il est paradoxal que, soudain, ceux qui exaltent le plaisir de conduire, qui à lui seul déclencherait le désir d’achat du véhicule, nous promettent d’en être prochainement débarrassé en confiant à une cohorte de robots le soin de s’acquitter de cette tâche.

Mais quelle est la finalité d’une voiture autonome ? Il est clair que le maillon faible de la conduite automobile, c’est l’homme : 90% des accidents automobiles sont dus à des facteurs humains. La motivation est noble : tendre vers le zéro accident et le zéro mort. Plus d’un million de personnes meurent dans un accident de la route sur la planète chaque année. Au CES 2018, les intervenants ne parlaient que des 35000 morts sur les routes américaines pour justifier la voiture autonome.

L’inattention, l’utilisation d’un téléphone ou d’un smartphone au volant, la surestimation de ses capacités poussant à des vitesses excessives, la fatigue, comme la drogue et l’alcool qui dégradent les réflexes sont les multiples causes humaines, souvent additives, à l’origine des accidents. Par ailleurs, les personnes âgées ou handicapées perçoivent leur impossibilité de conduire comme une aggravation de leur isolement. Mais on attend aussi de l’automatisation de la conduite des économies d’énergie, une réduction des embouteillages et un gain de temps considérable. On peut aussi imaginer que la voiture relaie et soulage le conducteur dans des situations fatigantes et sans intérêt, comme la conduite dans un embouteillage, les longs parcours sur route dégagée ou encore les manœuvres urbaines comme le stationnement. A plus long terme, il suffira d’une flotte limitée de voitures sans conducteur, roulant en permanence, pour assurer un service personnalisé à domicile. Les perspectives sont séduisantes et emballent le milieu automobile même si des voix prudentes, comme celle du responsable de la recherche de BMW, expliquent que la technologie est loin d’être en mesure de résoudre sans risque tous les problèmes de la conduite.

Une voiture autonome n’est qu’un robot aveugle et ignorant auquel on chercher à donner une intelligence contextuelle pour sentir, planifier et agir. Il faut donc apprendre à ces robots à prendre des décisions saines dans un contexte varié où les risques potentiels sont très différents. Une autoroute du Nevada n’est pas une petite route enneigée de l’Ardèche ni la place de l’Etoile. Comme il est impossible de modéliser a priori la diversité de situations possibles, on éduque les logiciels en leur faisant absorber le plus grand nombre possible de données et de règles de conduite. Le travail du conducteur est dans les voitures modernes assisté par de multiples copilotes prévenants. Or il faut infuser dans les ordinateurs de bord l’expertise du conducteur. C’est le pari de l’intelligence artificielle qui va permettre aux véhicules d’apprendre la complexité de la conduite par l’expérience. Ceci prendra donc des années et l’apparition de la voiture autonome sera graduelle, limitée à certains sites et cas d’usage.

Dans l’état actuel des connaissances, il n’est pas envisageable d’en imaginer un développement de masse avant au moins une décennie. Mais les véhicules commercialisés dans les prochaines années bénéficieront des retombées de ces recherches, apportant au conducteur une assistance à la conduite de plus en plus riche. Les constructeurs travaillent, pragmatiquement, sur un éventail de solutions qui vont instiller au sein du véhicule un nombre croissant d'outils de conduite assistée qui vont faire évoluer le confort et la sécurité d'utilisation des véhicules par les humains avant d'en confier, dans certains cas, la responsabilité à des outils automatique. On va passer du niveau 3 au niveau 5 par touches successives et la modernisation du parc automobile va permettre cette familiarisation.

Une réglementation complexe à faire évoluer

Mais le problème n’est pas que technique, il touche la responsabilité et donc la réglementation. Un changement majeur dans la réglementation mondiale Il est important de citer quelques extraits du texte de l’article 8 de la convention de Vienne.

1. Tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur.

3. Tout conducteur doit posséder les qualités physiques et psychiques nécessaires et être en état physique et mental de conduire.

4. Tout conducteur de véhicule à moteur doit avoir les connaissances et l'habileté nécessaires à la conduite du véhicule ; cette disposition ne fait pas obstacle, toutefois, à l'apprentissage de la conduite selon la législation nationale.

5.2 Tout conducteur doit constamment avoir le contrôle de son véhicule …/….

5bis. Les systèmes embarqués ayant une incidence sur la conduite du véhicule sont réputés conformes au par. 5 du présent article et au premier paragraphe de l'art. 13 s'ils sont conformes aux prescriptions en matière de construction, de montage et d'utilisation énoncées dans les instruments juridiques internationaux relatifs aux véhicules à roues et aux équipements et pièces susceptibles d'être montés et/ou utilisés sur un véhicule à roues.

6. Les systèmes embarqués ayant une incidence sur la conduite d'un véhicule qui ne sont pas conformes aux prescriptions en matière de construction, de montage et d'utilisation susmentionnées sont réputés conformes .../...pour autant qu'ils puissent être neutralisés ou désactivés par  le conducteur.

7. Le conducteur d'un véhicule doit éviter toute activité autre que la conduite. La législation nationale devrait prescrire des règles sur l'utilisation des téléphones par les conducteurs de véhicules. En tout cas, la législation doit interdire l'utilisation par le conducteur d'un véhicule à moteur ou d'un cyclomoteur d'un téléphone tenu à la main lorsque le véhicule est en mouvement

Cette énumération contraignante éclaire le champ de la rupture qu’implique la mise sur le marché de véhicules autonomes. Il faut en effet détricoter cette réglementation qui supporte des textes d’application partout dans le monde. Le marché de l’automobile étant international, il faut pour vendre ces voitures, qu’elles puissent être utilisées partout. Plus encore, l’annexe 5 de la convention de 1968 définit les prescriptions techniques détaillées auxquelles doivent satisfaire les véhicules pour obtenir leur immatriculation.

C’est aussi un élément majeur de définition de la responsabilité, les autorités devant s’assurer que les règles nouvelles de conformité seront respectées par les constructeurs. C’est pourquoi ne circulent aujourd’hui dans le monde que des véhicules autonomes supervisés par des conducteurs humains, les États ayant délivré des autorisations provisoires de circulation. Il n’y a donc pas de « vraie » voiture autonome sur route ouverte. Toutefois des véhicules autonomes peuvent circuler sur des sites protégés, à petite vitesse, comme la navette Navya sur le site de la Défense ou à Lyon. La législation française -loi Badinter de 1985- prévoit l’indemnisation de la victime d’un accident impliquant un véhicule motorisé par l’assurance de ce véhicule. Mais se pose alors la question de la responsabilité : est-ce une défaillance du véhicule, du propriétaire, de l’occupant ? Or en droit actuel les machines ne peuvent être tenues pour responsables. Ce vide juridique implique de nombreux travaux regroupant juristes, compagnies d’assurance et autorités de réglementation et de certification.

La voiture autonome objet de toutes les attentions

Quelles sont les motivations qui explique cet engouement du gouvernement et de certains politiques et acteurs économiques pour la voiture autonome ? La rationalité de cette démarche n’est pas, a priori, évidente : la technique n’est pas au point, le coût inconnu, la demande ignorée et donc le modèle économique aléatoire. Mais l’automobile est le plus sophistiqué des marchés de masse. C’est une industrie capable de produire cent millions de véhicules par an qui génère un chiffre d’affaires et des dépenses récurrentes considérables. Ignorer que cette industrie puisse connaitre une révolution majeure sans en faire partie serait, pour les constructeurs comme pour les grands pays qui les abritent, suicidaire.

La motivation est bien d’abord d’embarquer dans une aventure humaine qui touche la vie au quotidien et a donc des conséquences environnementales, économiques et sociales considérables. C’est un changement majeur du modèle de mobilité qui ferait clairement de la voiture un composant d’un système collectif de transport. C’est de plus une transformation radicale du modèle d’affaires de l’industrie automobile qui passerait de la possession à l’usage, les voitures autonomes ayant vocation à être partagées car leurs capacités leur permettraient de circuler constamment.

C’est enfin un pari technique qui embarque constructeurs et les équipementiers de l’industrie automobile, mais aussi tous les acteurs de la filière numérique et de la recherche puisque le défi porte plus sur les logiciels que sur la technique automobile. Il est estimé qu’un véhicule autonome exploitera 4000 Gbits de données par jour, entre les caméras, radars, sonars, lidars, GPS dont il sera équipé.

Confier sa vie à des automates et des algorithmes impose le zéro défaut, donc une validation du code informatique et des modèles de décision comme la protection des données personnelles et la robustesse contre les cyberattaques. C’est la condition majeure de l’acceptabilité du véhicule autonome qui est la base de la démarche préconisée par Anne-Marie Idrac et qui implique du temps, de l’expérimentation et un travail coopératif entre tous les acteurs impliqués, dont l’État.


Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau http://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie http://www.iconomie.org


Faire basculer la France dans le XXIe siècle : le numérique

Le G9+, think tank informatique, télécoms et numérique des anciens des grandes écoles, a lancé une démarche de réflexion collective pour 2017 : "100 idées pour une France numérique". Ce texte, sous une forme adaptée,  s’intègre dans cet ensemble de contributions qui sera débattu le 19 novembre.

De multiples rapports ont été consacrés au développement numérique de la France. Un des plus importants est celui publié en 2014 par la commission Lemoine sur « la transformation numérique de l’économie française ». De nombreuses structures, think tanks et organismes professionnels, ont émis des propositions et réunis les acteurs engagés dans la révolution numérique. Ce n’est donc pas l’originalité, ni l’exhaustivité, des mesures qui doit être prise en compte dans le cadre de cette réflexion, mais la recherche d’un effet de masse sur la société. Dans la situation actuelle de la société et de l’économie française, il est indispensable de sortir du champ de l’intention et de l’expérimentation pour franchir un seuil irréversible d’adoption massive.

Bureaucratie-paperasse

Dans ce débat qui  a commencé à la fin des années quatre-vingt dix quand certains ont commencé à prendre conscience que le développement mondial de l'internet et du web était un phénomène d'une ampleur qui promettait d'être exceptionnelle. La France a beaucoup hésité face à ce processus clairement américain dont elle n'avait pas été à l'origine, et qu'elle avait sous-estimée, malgré les courageuses initiatives de Louis Pouzin. Vingt ans plus tard, internet et les services du web ont conquis le monde avec trois milliards d'internautes.

Aussi les ultimes résistances tendent enfin à s’estomper devant la prise de conscience de l’irréversibilité de la transformation en cours partout dans le monde. Plus que la somme des techniques de communication, désormais disponibles à faible coût et sans complexité,  qui permettent d'accéder sans limite à des informations de toutes natures, ce sont les changements culturels et comportementaux qui marquent la vie sociale. Or l’expérience des succès de l’économie du web démontre que c’est la rencontre entre un besoin, souvent latent, et une offre, ergonomique et économique, qui déclenche l’adoption. La créativité des start-upers  est sans frein ce qui conduit les magasins d'applications à proposer des millions d'applications diverses dont certaines ne sont jamais exploitées par ceux qui les ont téléchargées. Cet usage privé, que chacun gère en fonction de ses envies et de ses besoins, est une première étape plaisante et pratique dans la numérisation. Mais il faut aller au-delà pour ancrer le numérique dans les pratiques sociales qui, en France, nécessitent la plupart du temps l'engagement de l'Etat. Car, dès lors qu’il s’agit de rechercher un effet de masse qui dépasse l’adoption privée, poussée par l’innovation, les évolutions du cadre législatif et réglementaire se révèlent nécessaires pour rendre possibles ces transformations.

Au-delà d'un mouvement comme  la French Tech, qui mobilise les talents des entrepreneurs,  et la dynamique des start-ups, relayée par les écosystèmes régionaux, ce sont les pratiques régaliennes qu'il faut revisiter à travers le prisme de la culture numérique. Dématérialisation, réactivité, engagement, décentralisation sont les vecteurs de cette transformation qui doit transformer nos modes de fonctionnement conventionnels pour faire basculer notre culture du papier et de l'autorité vers celle du numérique et de la responsabilité.

1191_696_Capture-d-e-cran-2014-11-12-a-13

Si, en France, les infrastructures sont globalement capacitaires, si l’adhésion spontanée des consommateurs est forte,  Il s’agit maintenant de fournir un cadre de confiance collective envers le numérique qui ne peut être produit sans impulsions législatives et réglementaires. Il faut également améliorer l’offre de services collectifs, sans qu’ils soient nécessairement publics, au-delà des propositions du marché pour produire un effet de transformation collective des comportements.

Les mesures proposées, qui s’inscrivent dans le prolongement de mesures déjà engagées,  ou incluses dans les projets de loi d'Axelle Lemaire et Emmanuel Macron, visent une accélération du développement universel des usages en stimulant la confiance envers les solutions numériques de tous les citoyens et la créativité numérique. Il s’agit de renforcer les motivations des pionniers et développer l’adhésion des milieux encore sceptiques, ou hostiles, en créant les conditions transparentes d’adhésion lucide et responsable à la société numérique du XXIe siècle. Le besoin de sécurité et de confidentialité est un élément structurant de la demande sociale. Faute d’y répondre clairement, la transformation numérique reste partielle et ne livre pas ses promesses économiques et culturelles. Cinq mesures ne suffisent pas. Mais il est important de créer un cadre général sur des sujets pour lesquels le changement de pratiques pourra induire le développement d'une nouvelle culture d’initiatives et de responsabilités dont la France a besoin.

1/ Rendre obligatoire la facturation électronique pour tous les échanges inter-entreprises au 1er janvier 2019

La dématérialisation des commandes et des factures est le seul mécanisme collectif déclencheur d’une transformation numérique des processus. En effet, l’échange de documents informatisés implique la mise en place de processus et d’outils dans toutes les entreprises et organisations, quel que soit leur taille. C’est donc le moyen d’obtenir que se mettent en place des processus numérisés de bout en bout.

2/ Mettre en œuvre un titre universel d’identification numérique individuelle

Contexte :

Le projet d’une carte d’identité numérique est ancien. Il a été  lancé en 2003 et visait  de produire une’identification forte associant un cadre régalien et un cadre commercial.  Ce qui fait l’originalité de ce projet a justement conduit à de multiples tergiversations qui ont finalement différé son adoption qui nécissattn une loi n’a pas trouvé le cadre et les supports requis.

Relancé en 2012 sous l’appelation IDéNum, le projet a été adopté mais de nombreuses dispositions ont été jugées anticonstitutionnelles.

Objectif

Doter chaque personne d’un outil d’identification numérique irréfragable, sécurisé et garanti par l’Etat, permettant à la fois de répondre aux objectifs régaliens et d’assurer dans toutes les transactions, publiques ou commerciales, une preuve d’identité.

3/ Dématérialiser tous les documents concernant la vie professionnelle et la gestion du patrimoine avec l’instauration d’un service de coffre-fort électronique personnel.

Objectif

Eviter l’émission de millions de documents en double (papier et numérique)  notamment la feuille de paye avec stockage électronique à vie,  les actes de gestion individuelle et patrimoniale (contrats, titres de propriété…)

Faciliter la liquidation des droits à pension de retraite et de façon générale simplifier la gestion des actes administratifs personnels

Fournir sous forme numérique tous les éléments validés pour des transactions (achats immobiliers, achats de véhicules…)

Unifier toutes les informations sociales

Garantir  la sécurité juridique des éléments clefs de la vie sociale

Offrir un cadre pérenne, sécurisé, permettant la sécurisation de long terme

 

4/ Déployer le « contrat de coopération » pour fluidifier la circulation des compétences 

Contexte

L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, l’esprit entrepreneurial constituent des propriétés naturellement développées et encouragées par les écosystèmes numériques. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. Les entreprises qui sauront devenir des fédérateurs naturels de talents individuels gagneront la compétition économique. Affranchie des contraintes conventionnelles issues de la fragmentation de la société, la mise en synergie des talents peut trouver des réponses radicalement nouvelles aux problèmes de notre société et combler les lacunes des mécanismes classiques. 

Quand on fait appel au « cerveau-d’œuvre », plus il y a d’acteurs, plus il y a d’idées qui germent et réussissent. Il faut donc abattre toutes les barrières à l’entrée à l’activité en renforçant, avec un code du travail simplifié, l’efficacité des sanctions.

Mesure

Introduire un « contrat de coopération »  à échéance variable, de 2 à 5 ans,  qui n’est pas un contrat de subordination, mais définit contractuellement les droits et obligations des deux parties, et précise la nature de la contribution et les règles d’évaluation. La rémunération reste un salaire, chargé, mais le salarié ne figure pas parmi les effectifs statutaires de l’entreprise et n’entre pas dans le comptage des seuils sociaux.  Il est soumis aux conditions de travail de l’entreprise mais peut également inclure le télétravail.

5/ Développer l’industrie du logiciel éducatif et pédagogique à travers les enseignants et le diffuser à travers l’enseignement

Contexte

Le développement des supports numériques pédagogiques inclus dans les programmes  est très lente alors que l’échec scolaire s’accroît, surtout sur les disciplines fondamentales comme la langue française, les langues étrangères, les mathématiques, l’histoire géographie…

Objectif

L’objectif est d’exploiter l’appétit naturel des jeunes générations pour les outils numériques pour installer le numérique au cœur des processus pédagogiques. Ce mouvement ne peut passer que par les enseignants eux-mêmes et par l’inclusion des outils numériques dans tous les processus d’apprentissage.  Il ne s’agit pas d’ajouter le numérique comme matière d’enseignement ( même si la question est pertinente pour la formation à la programmation) mais d’inclure les outils numériques dans la progression pédagogique et l’évaluation ;

La mesure proposée est donc d’inciter les enseignants à partager leur expérience pédagogique par la création de logiciels professionnels. C’est une action qui permettra l’émergence de start-up francophones produisant des produits totalement insérés dans les processus pédagogiques et dans les programmes.

 

 


Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


Noël 2014, plus numérique que jamais !

Christmas-tree-digital-circuit-21305139

Depuis plusieurs années, les cadeaux numériques sont  sans conteste les préférés des familles au pied du sapin de Noël.  Ce blog en a déjà rendu compte. Ce choix est naturel : c’est tendance, il y en a pour tous les goûts, tous les âges, tous les prix… Les grands firmes du numérique comme les magasins et sites web  spécialisés se préparent à faire une fois encore de la fin de l’année une année record dans leurs ventes, cette période représentant jusqu'à 50% de leur chiffre. 

Mais les choix évoluent au fil des années en fonction du parc installé dans les familles, qui s’alourdit d’année en année, comme de l’innovation qui condamne les produits des années antérieures à l’obsolescence technique. Le panier de Noël change ainsi rapidement de contenu, même s’il y a quelques invariants qui certes se transforment, mais conservent leur fonction première, comme les  appareils photos.

Withings-pulse-app

 

Withings, réussite française 


Si le numérique est ainsi plébiscité, c’est que les produits qui accolent à leur fonctionnalité première le mot « numérique » sont devenus légion. Aucun compartiment de la consommation culturelle, du sport ou du loisir ne peut faire l’impasse sur l’inéluctable processus de numérisation qui concerne toutes nos activités et tous les objets qui y contribuent.

Est désormais numérique tout objet familier qui non seulement fait ce qu’il a toujours fait, mais désormais en rend compte à volonté et à distance, comme par exemple une station météorologique. Apparissent tous les jours  des objets qui remplissent des fonctions nouvelles pour capter chaque instant de notre vie quotidienne et nous apporter une aide  contextuelle à tout moment. Les nouveaux venus de 2014 touchent de nouvelles fonctions, comme les montres numériques, mais les appareils traditionnels sont revisités. Les appareils photos savent maintenant communiquer sans fil avec une fonction Wi-Fi et se localiser grâce à leur puce GPS… Les balances personnelles deviennent des auxiliaires de santé en captant, mémorisant et transmettant toutes leurs informations. Et le vieux téléphone connait avec le développement sans limite visible des fonctionnalités des « téléphones intelligents », véritables couteaux suisses de l’ère numérique, une mutation génétique de telle ampleur que le dernier snobisme est de ressusciter des téléphones vintage qui ne peuvent que… téléphoner.

Pour rendre compte de cette offre pléthorique, à la croissance exponentielle, qui ne concerne plus d’ailleurs que les seuls pays riches puisqu’il va se vendre en 2014 1,2 milliard de téléphones intelligents, il faut classer et hiérarchiser.

Commençons cet inventaire en différenciant les objets fixes et les objets mobiles. Les objets fixes sont de moins en moins nombreux, puisque la miniaturisation rend désormais toute chose mobile. Et parmi les objets mobiles, il faut distinguer ceux que l’on porte, comme le téléphone intelligent ou la tablette, ou ceux qui se portent, comme la montre ou le capteur d’activité. Il faut aussi introduire comme variable de choix le prix. Mais tous ces articles, sauf les derniers produits techniques les plus pointus, font l’objet d’une concurrence acharnée qui se traduit par une baisse constante des prix. Par ailleurs les distributeurs classiques se battent avec les acteurs du web ce qui crée un marché dynamique sur lequel il faut prendre le temps de faire des comparaisons, de lire les tests et les forums. Car aujourd’hui, sur les marchés de biens culturels ou de biens techniques, tous en baisse en valeur depuis plusieurs années, le consommateur est roi !

Parmi les objets fixes, attachés à la maison, il y a les ordinateurs fixes, dont l’attrait est en baisse, et les grands écrans  connectés au web. La révolution des écrans plats qui date de 1997, avec le premier téléviseur Philips de 42 pouces vendu 15000 $, a fait éclore dans les lieux de vie des écrans géants au réalisme de plus en plus saisissant. La haute définition laisse déjà la  place à la ultra haute définition  -UHD 4K-  et l’écran plat, LED et maintenant OLED, qui ne prenait pas de place, se courbe pour renforcer la profondeur de champ. Il n’est pas sûr que cette prouesse technique ait un succès durable. Tous ces écrans sont de fait 3D, mais là encore l’innovation qui devait être fracassante n’a pas véritablement tenu ses promesses, faute de  programmes adaptés et surtout de confort visuel. La tendance à la baisse des prix des téléviseurs, alimentée par la concurrence entre les coréens Samsung et LG, et bientôt par les constructeurs chinois, permet de dénicher de très beaux objets à la pointe de la technique de 2013 à moins de 400 €.

Aux objets classiques, il faut ajouter d’autres objets immobiles et connectés qui ont fait leur apparition, comme les pèse-personnes, les caméras de surveillance, en croissance de 10% par an, les stations météo, les thermostats, les alarmes. Tous connectés en Wi-Fi à la box du fournisseur d’accès internet de la maison, ces objets livrent leurs informations à distance à travers le réseau sur un smartphone, et peuvent être également actionnés à distance. Les français Withings et Netatmo font preuve sur ce marché d‘une forte dynamique créative.

Les objets mobiles représentent une famille en voie d’extension continue. On pense que chacun d’entre nous portera et transportera une dizaine d’objets connectés d’ici 5 ans. La place de choix revient au smartphone. C’est l’objet universel, terminal intelligent, truffé de capteurs qui tend à absorber les fonctionnalités des autres objets. Ainsi de plus en plus de photographies sont faites à partir d’un smartphone, au détriment des petits appareils photos numériques compact, comme les petits films vidéo destinés au web. Mais le marché de la photographie reste un vecteur très dynamique où les offres sont très segmentées et difficiles à trancher. Les compacts deviennent experts et adoptent même les objectifs interchangeables. Hybrides et bridges cherchent à concilier, autour de 500€,  qualité photographique, longues focales et compacité. Les caméras vidéo  souffrent de ces concurrences sauf les modèles destinés au sport, dont GoPro est le leader, qui connaissent grâce à You Tube un très beau succès. Au sommet du monde de l’image trône le reflex, qui sait aujourd’hui très bien faire de la vidéo soignée,  avec son aura de professionnalisme.

Le marché des montres numériques connectées est aussi un marché qui bien que récent est déjà très fertile. Des dizaines de produits s’affrontent certaines étant limité au suivi de l’activité sportive, d’autres modèles visant le haut de gamme et même le luxe pour être le prolongement au poignet des fonctionnalités des smartphones enfouis dans la poche ou le sac. Quelques capteurs sont plus discrets, et se fixent à la ceinture, comme le Pulse de Withings.

Alors, que choisir ?

Il faut d’abord réfléchir à l’usage réel de ces produits qui dans la vie courante peuvent encombrer sans être vraiment pertinent et créer un cortège de contraintes avec leurs piles, leurs alimentations toutes différentes qu’il faut emporter en voyage. Il faut se dire que traiter et classer photographies et vidéos représente un vrai travail que peu font réellement.

Ensuite il faut penser aux risques d’usage abusifs de ces produits, notamment sur les plus jeunes. Il est vraiment déconseillé d’utiliser longtemps des écrans, tablettes ou jeux vidéo, avant l’âge de 4 ans et il est toujours indispensable d’en contrôler l’usage avec discernement.

Enfin il faut se méfier de l’engouement qui laisse vite place à la lassitude et à l’abandon prématuré de produits dont le coût, ramené à l’heure d’usage réel, peut être prohibitif.

La consommation numérique  doit rester une consommation plaisir mais sans négliger la responsabilité éthique, éducative et environnementale.


Ombres sur les télécommunications ?

Le téléphone des années soixante, objet rare et cher, immortalisé par Fernand Raynaud dans son sketch sur le « 22 à Asnières » s’est définitivement estompé dans nos souvenirs. Téléphoner pour se parler n’est plus qu’un cas particulier dans le volume considérable des échanges.  Cette mutation s’est faite rapidement. La diffusion du téléphone fixe a été facilitée par le passage au numérique à partir des années soixante-dix et c’est la large adoption mondiale du standard d’origine européenne de téléphonie cellulaire numérique, GSM, adoptée en 1991, qui a favorisé le déploiement de la téléphonie mobile.

Mais c’est depuis le début des années 2000 que s’est produite une véritable explosion de la diffusion des télécommunications. Avec plus de 6,9 milliards d’abonnements au téléphone mobile recensés par l’Organisation internationale des télécommunications à la fin de 2013, contre 2,2 milliards en 2005, c’est un réseau couvrant la totalité de la planète en moins d’une décennie que l’industrie a réussi à édifier. Plus encore, 2,3 milliards de personnes utilisent déjà un service à haut débit, inexistant en... 2009. Chaque terrien a la possibilité d’exploiter aujourd’hui un téléphone mobile et 3 terriens sur 7 peuvent déjà accéder au web à travers cet outil mobile !

Données télécoms 2013

Simultanément sur la même période, le nombre des abonnements au téléphone fixe a baissé de 1,24 à 1,14 milliard. Cette industrie a généré en 2012  1540 milliards $ de chiffre d’affaire  mondial, dont 66% résultent de l’activité des pays  développés. Le marché des services de télécommunications est le plus important des marchés technologiques, dont il représente 43% du chiffre d’affaires, loin devant le matériel (19%).

Ces chiffres sont sans équivoque : les télécommunications, aujourd’hui mobiles, multimédia et mondiales, représentent un enjeu stratégique et économique considérable.  Après être passée de la voix aux données, du fixe au mobile, l’industrie  des télécommunications va à nouveau  connaître une nouvelle accélération à travers la généralisation de l’accès mobile au web et la connexion des objets aux réseaux internet. Poursuivre et financer l’innovation pour alimenter un monde avide de télécommunications, couche invisible mais vitale des services qui conditionnent désormais la vie quotidienne des milliards d’êtres humains, est le défi de l’industrie en ce début de millénaire.

Volume data

 

Cette révolution sans équivalent dans l’histoire de l’humanité par son amplitude sur une période si courte est d’abord le résultat d’une percée technique continue. Devenu numérique dans les années soixante-dix,  le téléphone a bénéficié des progrès des composants électroniques et des batteries  pour se miniaturiser, devenir mobile et se démocratiser. Naguère dominé par le finlandais Nokia qui avait le premier su exploiter la norme GSM à très grande échelle pour fournir des téléphones fiables et bon marché au monde entier, le marché a connu avec la sortie par Apple de l’iPhone en 2007 une rupture majeure : le « téléphone » ne sert plus qu’occasionnellement à téléphoner, au milieu de dizaines d’usages nouveaux inimaginables à sa sortie. Le « smartphone » s’est imposé en 2014 comme le support universel de la communication mobile et le monde entier s’arrache ces nouveaux terminaux, offrant une gamme très large de produits et de prix. Il devrait se vendre dans le monde 1,2 milliard de smartphones en 2014. L'arrivée massive des frabricants de smartphones chinois, comme Zopo, King Sing, Cubot, Meizu avec des appareils sous Android accessibles largement au-dessous de 100 $ révolutionne le marché mondial et favorise la pénétration d'outils sophistiqués d'accès au web.

ZP990-BLACK

Smartphone chinois  ZopoThree-iphone-sizes-no-glare11
Nouvelle famille iPhone Apple

Toutefois ce succès n’est pas sans créer de nouveaux problèmes. Cette industrie a perdu son rythme de croissance spectaculaire en raison d’une baisse généralisée des prix. Les Etats-Unis et l’Europe connaissent une réduction de leur chiffre d’affaires global alors que la croissance mondiale est encore tirée par les pays émergents mais tend à se tasser. La progression des ventes de smartphones ralentit à 19 % en 2014 contre 39 % en 2013 et les perspectives des prochaines années marquent un tassement en volume comme en prix avec la diffusion de smartphone low cost.  Aussi rapidement qu’il s’est imposé, le smartphone va se banaliser.

 Il faut prendre conscience que la technique qui était le moteur du renouvellement rapide du marché a perdu son caractère déterminant. Le passage du GSM au GPRS puis à la 3G ont marqué un net changement perceptible par les utilisateurs dans la vitesse de transmission et donc le confort d’utilisation. La 4G pourtant prometteuse par ses performances  annoncées n’a pas eu cet effet sur le marché pour inciter les utilisateurs à migrer vers les derniers produits. Seuls 3,7 millions de personnes ont accès à la 4G en France en 2014. Les utilisateurs sont prudents dans leurs choix et cherchent à optimiser l’usage en fonction du coût réel. Conscients de l'augmentation de la part des marchés numériques dans leurs budgets, contraints, les uitlisateurs tendent à mieux maîtriser leurs acahts et leurs consommations. Les opérateurs, obligés d'investir pour enrichir leur offre de service, voient leurs revenus stagner et leur profitabilité décroître.

L’éducation rapide du marché est une caractéristique majeure de l’époque. C’est l’agrément d’usage et l’utilité perçue qui vont déclencher des changements comportementaux, et non pas simplement la promesse technique, phénomène observé dans la plupart des marchés grand public.

Il faut d’ailleurs souligner que la créativité des usages est sans limite. L’Afrique, avec plus de 650 millions de mobiles, est probablement le continent qui a démontré le plus d’inventivité dans l’usage du téléphone mobile. C’est en fait cet outil qui a induit le développement dans de nombreuses zones reculées, offrant à tous la  possibilité de se connecter pour suivre l’évolution de la météo, des cours des produits agricoles ou pour faciliter la surveillance sanitaire et les soins. C’est le téléphone mobile qui a compensé l’inexistence des circuits bancaires comme le démontre le succès du service M-Pesa au Kenya. 17 des 19 millions de Kényans disposent d’un compte dématérialisé qui assurent aujourd’hui 66% des transferts d’argent du pays contre 2% pour les banques. C’est la recharge du téléphone et l’alimentation des antennes qui ont conduit au développement de l’électricité photovoltaïque.  Loin d’être un objet secondaire, le téléphone est ainsi devenu un vecteur de progrès au service de la communauté. La substitution du smartphone au téléphone de base va amplifier ce mouvement pour générer de nouveaux usages.

L’omni connectivité des objets aux réseaux IP va également induire d’importants volumes de trafic concourant à l’alimentation des « données massives » ou Big data. L’Idate estime qu’en 2020 plus de 80 milliards d’objets connectés pourraient être en service sur la planète, mais si cette évaluation est imprécise car d’autres sources tablent sur 9 milliards en 2018, chacun s’entend sur la croissance considérable de ce marché. Les compteurs électriques, les capteurs de confort, les objets relatifs à la santé, les voitures connectées viendront rejoindre PC, tablettes, écrans divers et autres smartphones. Dans la rue, ce seront les infrastructures connectées, les lampadaires, les capteurs de trafic, et même les poubelles qui viendront alimenter le flux des  données publiques.

Mais le grand problème restera pour les opérateurs télécom celui de la monétarisation de ces informations. Beaucoup de modèles d’affaires liés à cette omniconnectivité sont encore inexistants ou bien fragiles. Qui voudra payer in fine ? Panne d’innovation, manque de séduction ? Les promesses lointaines de la 5G, encore plus rapide avec 1 Gbit/s, prévue pour 2020, ne permettent pas de penser que le marché suivra la technique si les usages pratiques ne sont pas identifiés. Plus de vitesse, plus d’applications ne suffisent pas à déclencher de nouvelles intentions d’achat. Car on peut déjà maintenant effectuer beaucoup de tâches avec un smartphone et l’inventivité réside plus dans les applications que dans les objets et les services de télécommunication. Les marchés de la santé, de l’éducation, du transport qui peuvent se développer autour de la mobilité et du haut débit sont certes attractifs en termes de promesses mais butent sur le modèle économique : qui doit payer pour ces nouveaux services ? La connexion de tous les objets de notre environnement familier est aussi un enjeu économique. Il faut inventer des usages pertinents pour que cette omni-connectivité stimule une demande solvable.

L’industrie est donc confrontée à un dilemme sérieux : continuer à innover et à investir pour des revenus commerciaux aléatoires ou exploiter les investissements actuels et renforcer le niveau de service pour retrouver une profitabilité dégradée ? L’innovation bute sur le principe de réalité. Le client a besoin d’absorber l’innovation avant d’être prêt à payer pour de nouveaux services. Il est évident que la loi de Moore déplacera les frontières du possible. Il reste à imaginer des services désirables pour rendre pratiques et concrètes ces promesses.


Qui peut orchestrer la mutation numérique de l'entreprise ?

Le débat, récurrent, sur la nature et le positionnement de la direction des systèmes d’information est, cette fois, en train de changer radicalement. Il est tout à fait normal que la DSI du XXIe siècle ne ressemble pas à celle du XXe siècle. Depuis les années soixante-dix, c’est surtout une direction technique  qui s’est construite pour installer progressivement l’informatisation dans les entreprises. Après une époque pionnière de défrichage technique, elle a été un acteur de l’industrialisation de l’informatique  pour ensuite intégrer l’organisation et créer le système d’information. Si internet n’avait été dans une première étape qu’une évolution technique supplémentaire dans une longue histoire d’innovations techniques de « traitement du signal », le web  s’inscrit dans une autre histoire.  Il est clair que c’est aujourd’hui  une transformation sociétale qui envahit  les entreprises et submerge la direction des systèmes d’information par un flot ininterrompu d’innovations comportementales.

  Digital-orchestra-beethoven-violon-ipad-iphone

Ce n’est pas l’informatique qui s’est transformée, mais le monde qui a changé

Certes ce sont bien les progrès techniques qui nourrissent ces innovations, mais elles ne doivent plus rien à l’informatique interne car elles sont initiées et propagées par les acteurs du marché grand public. Quand il se vend un milliard de smartphones dans le monde,  et que chacun des collaborateurs de l’entreprise détient à titre personnel un de ces ordinateurs  mobile, moderne et surpuissant que l’on appelle smartphone, équipé de dizaines de logiciels attractifs, l’informatique interne n’est plus audible ni dans ses recommandations ni encore moins dans ses interdits.

 Mais cette évolution des comportements ne se limite pas au confort de communication  individuel comme l’ont longtemps cru les DSI. Elle  touche surtout les processus d’affaires. Le web conduit à travailler autrement au sein des directions, intégrer les fournisseurs dans un processus de conception, répondre aux clients, inventer de nouveaux produits, voire même de nouveaux métiers. La DSI ne peut prétendre « diriger » les systèmes d’information qui par nature appartiennent à toutes les composantes de l’entreprise dont le système d’information constitue le système nerveux central. Elle ne peut pas non plus impulser ces transformations organiques de l’entreprise.

C’est pourquoi naissent à côté de la DSI de nouvelles structures pour capter l’énergie du web et construire les fondements de cette nouvelle économie, « l’iconomie »,  que le web soutient et propage dans toutes les entreprises et dans tous les métiers. Ces nouvelles structures, à l’instar des directions e-commerce du début des années 2000, ne s’occupent pas d’infrastructure mais d’usage et de business. Qualifiées « d’ agency », de « lab », de « factory », elles portent des  appellations flatteuses, au goût de marketing anglo-saxon, synonyme de modernité. Leurs moyens ne sont que peu comptés et non intégrés dans les coûts du SI de l’entreprise.

La Direction des systèmes d’information se voit confier de fait  la tâche certes essentielle mais moins en visibilité de faire fonctionner les systèmes classiques de l’entreprise. Elle s’appuie sur les outils historiques de l’informatique, autour des ERP, qui n’ont jamais déchaîné l’enthousiasme des utilisateurs. Elle diffuse certes les outils modernes que sont les smartphones, tablettes et apps, mais plutôt dans une logique de régulation économique et de contrôle de la sécurité, fonctions qui là encore sont guère flatteuses. Plus que jamais, la DSI est victime d’un processus  d’individualisation des gains de la numérisation par les directions métiers et de socialisation des coûts sur le budget système d’information, notamment l’infrastructure. Concentrant le budget, la DSI apparait naturellement comme un centre de coûts dont le seul objectif de la direction générale est d’en obtenir une réduction constante.

Choisir, c’est renoncer : le gambit de l’infrastructure

La DSI est donc aujourd’hui à la croisée des chemins. Structure généraliste mêlant le fonctionnement opérationnel, l’entretien des systèmes et des infrastructures et quelques projets d’envergure aux résultats aléatoires, elle oscille entre indifférence  et critiques sur ses coûts et ses règles normatives d’attribution de matériels et de gestion contraignante de la sécurité. Ce positionnement la condamne à ne jouer qu’un rôle, certes vital, mais subalterne, dont le très faible nombre de DSI parvenant à des postes de direction générale est un indicateur.

Or il est plus que jamais nécessaire d’investir dans les technologies du XXIe siècle pour booster la capacité des entreprises à innover et conquérir une nouvelle rentabilité. Cette recherche de performances nouvelles ne peut que venir que de l’utilisation intensive de toutes les techniques qui  permettent de produire, capter, traiter, traduire, restituer, transformer, stocker l’information. Chaque jour de nouveaux progrès scientifiques sont obtenus grâce à l’exploitation des outils numériques. De nouveaux outils comme le Big Data, c’est-à-dire l’exploitation des données massives, permettent l’essor de disciplines nouvelles ou jusqu’alors confidentielles comme l’intelligence artificielle,   l’analyse des comportements, la modélisation de systèmes complexes. Les capteurs se multiplient ajoutant aux informations de gestion classique de nouveaux champs considérables d’informations opérationnelles. La démocratisation de ces outils permet de les exploiter dans des situations de plus en plus larges, au plus près de la décision, dans chacun des contextes d’action, au niveau le plus approprié. Que ce soit en matière logistique, dans le domaine du transport, de l’énergie, de la santé, pour concevoir de nouveaux produits et services, on exploite le rapprochement de données par des outils logiciels puissants et la diffusion de ces informations à travers les réseaux et les écrans de toutes natures.

 Ce choc numérique ne peut se faire à l’écart des professionnels du traitement de l’information

Qui peut maîtriser cette expansion infinie de la donnée  et des outils ?  Il est évident que l’initiative de chacun risque de conduire à une vaste cacophonie où données, informations et connaissances seraient gérées par impulsions aléatoires. Il faut donc un chef d’orchestre. Ce ne peut être que le dirigeant lui-même. Mais pour exercer cette fonction, il lui faut s’appuyer sur un professionnel des systèmes complexes  qui saura architecturer, structurer et pérenniser  les flux de données qui constituent aujourd’hui l’ADN de l’entreprise. On ne confie pas son ADN à une « fonction support ».  Cette fonction métier d’un nouveau type doit agir comme un pôle de veille et d’impulsions, mais aussi comme un référent des pratiques, des outils et un garant de l’intégrité des données.  Elle gère aussi la dynamique du « temps du web », où les décisions sont prises rapidement, les outils produits et mis en œuvre de façon collaborative en mode agile, les méthodes de déploiement instantanées… Chef d’orchestre, elle garantit la cohérence systémique, veille à une exécution parfaite et à une qualité qu’aucun des instrumentistes ne peut atteindre seul.

Plutôt que de multiplier les initiatives fractionnistes, la création de cette entité nouvelle doit assurer à l’entreprise que toutes les innovations seront exploitées dans les règles de l’art et dans l’intérêt commun de chaque composant de l’entreprise. Il s’agit clairement d’une fonction centrale majeure pour l’avenir qui doit s’affranchir des lourdes opérations ancillaires qui occupent encore largement l’emploi du temps des DSI.

Pour se hisser à ce niveau, il faut que les DSI acceptent de ne plus gérer l’infrastructure et le service au quotidien qui sont aujourd’hui des fonctions industrielles et banalisées qu’il faut confier au marché en les standardisant et mutualisant. Cela s’appelle, notamment,  le cloud computing, qu’il faut mettre en œuvre sans inquiétude en créant les normes d’excellence opérationnelle indispensables et en en pilotant l’exécution. Ce métier relève d’une entité professionnelle très proche de la performance au quotidien.

Deux pistes institutionnelles complètent cette analyse de l’évolution fonctionnelle, et plusieurs scénarios d’évolution pourraient être envisagés en fonction de la nature et de la maturité informatique et numérique de l’entreprise. Si l’ancrage de ces entités n’est pas le sujet majeur, on sait également qu’il revêt en termes d’autorité et de symbolique une importance non négligeable.

 On   peut imaginer que les fonctions de la DSI soient confiées à deux entités clairement distinctes dans une gouvernance unifiée conforme aux principes de COBIT:

-        Une Direction de l’efficacité opérationnelle du système d’information, chargée du pilotage au quotidien à travers des partenariats et donc de la conclusion des contrats d’externalisation et de leur pilotage, rattachée au Chief operation officer de l’entreprise ou au DG

-        Une Direction de la transformation numérique, chargée de l’orchestration de la mutation numérique de l’entreprise et rendant compte au président directeur général

Les CIO actuels sont d’excellents candidats pour les deux postes. Mais ils doivent clairement choisir entre l’optimisation incrémentale du passé ou l’incertaine mais exaltante construction de l’avenir.

 

NB : l'image est tirée de ce document étonnant  http://www.buzzwebzine.fr/digital-orchestra-beethoven-joue-avec-ipads-iphones/


Réhabiliter l'exploitation informatique à l'heure du numérique

L'histoire de l'informatique est celle de la lente dissociation de la machine et des programmes. Au tout début, c'était la machine qui était au centre de toutes les préoccupations, coûteuse, complexe, capricieuse. Puis la domestication de la machine et de son environnement d'exploitation a relégué l'informatique de production dans les couches basses du système d'information.  Devenues depuis les années quatre vingt-dix parent pauvre de la direction des systèmes d'information face aux projets, plus mobilisateurs et plus en vue des directions générales,  les fonctions de construction et le pilotage des infrastructures  reviennent aujourd'hui avec force sous la lumière des projecteurs. Ce n'est d'ailleurs que justice car l'exploitation informatique et le maintien en conditions opérationnelles  des applications ont toujours représenté l'essentiel de la dépense informatique - autour de 80% - . Et l'on sait qu'un système ne vaut que ce vaut le plus faible de ses éléments, ce qui implique de les traiter tous avec la même attention.
 
Or ce sont les domaines techniques qui ont fait  l'objet d'une constante, et discrète, modernisation et d'une industrialisation performante sous la poussée de l'innovation  des constructeurs et opérateurs de télécommunications et de l'augmentation des volumes de données. L'usine informatique, de plus en plus partagée dans un modèle coopératif entre les équipes internes des entreprises et leurs partenaires externes, est sortie du modèle intuitif et heroïque de ses origines. Elle est devenue un ensemble composite de techniques de haut niveau piloté de façon cohérente. Le "sujet infrastructures" est redevenu prioritaire et les directions générales deviennent soucieuses de ne pas voir leur informatique décrocher pour des raisons techniques. L'organisation et la gouvernance des infrastructures revêt désormais un enjeu majeur pour les métiers. 
 
747860331
Un centre d'exploitation informatique des années 80
 
Enn effet, si le paysage informatique n'a cessé d'évoluer  au gré des grands paliers d'évolution technique que l'on pouvait situer tous les dix ans - mainframe, informatique départementale, PC, réseau, stockage - internet a là encore tout bousculé. Le réseau, lui-même longtemps mal aimé de l'exploitation, est au cœur de la performance économique de l'entreprise. Tout est devenu temps réel tant par la poussée  du client qui doit pouvoir accéder aux sites web 24 h sur 24 que pour répondre à l'organisation des entreprises globalisées installées sur plusieurs fuseaux horaires. Arrêter pour maintenance un système ou une base de données est devenu simplement impossible.
 
Mais plus encore ce sont les applications, et donc les usages, qui poussent les infrastructures à progresser sans cesse. L'utilité du stockage sur le cloud a convaincu tous les utilisateurs mobiles et multi-plateformes. Ne plus avoir à réfléchir pour savoir où on a stocké son dernier document est un vrai service. Ne plus devoir de façon fastidieuse mettre à jour son agenda et son carnet d'adresse est un vrai bonheur quand on se souvient , encore, du monde d'avant... Ce ne sont que les éléments visibles d'une profonde révolution qui implique une totale dématérialisation des services applicatifs dans des réseaux distants rendant l'accès à l'information indépendant de l'infrastructure et des plate-formes techniques. 
  Google-server-farm
Ferme de serveurs Google
 
Ainsi la mise à niveau des infrastructures permet de consolider la base applicative et de hisser le niveau de service. Les grands acteurs comme Google, Apple et Microsoft nous ont aussi appris à ne plus se préoccuper vraiment de la mise à jour des applications devenue permanente et fluide. Amazon, fort de son expérience propre, en a fait un métier. Mais le processus d'adaptation des applications dans le portefeuille des entreprises est loin d'être achevé. Beaucoup restent liées à un poste de travail et à son environnement technique. Leur "webification", qui est un préalable à cette fluidité n'est pas achevée, ce qui pousse d'ailleurs nombre de directions métiers vers les acteurs qui ont compris comme Salesforce  la force du modèle de l'informatique en nuage. Elles doivent être agiles, flexibles. Internet est devenu le modèle unificateur du portefeuille applicatif. Pouvoir accéder en tous temps et à partir de sa plateforme du moment à ses informations n'est plus comme par le passé une exigence de dirigeant, mais la réalité quotidienne de tous les collaborateurs même quand ils ne sont pas spécifiquement mobiles. Et il est évident que ce sont les collaborateurs les plus actifs sur le terrain qui doivent disposer des outils les mieux adaptés à l'usage contextuel.
 
L'économie internet va doubler d'ici la fin de la décennie. Les métiers doivent aller plus vite, ne peuvent se contenter de leurs applications régaliennes. Les cycles de développement sont plus courts et l'espérance de vie des applications est aussi beaucoup plus courte. Ceci conduit à structurer un couplage fort et continu entre développement et exploitation
 
 Une organisation de production légère et coopérative 
 
Face aux défis qu'induit cette nouvelle situation, la tentation de dissocier  une informatique structurante de back-office et une informatique légère et réactive de front office répond au souci d'aller vite à l'essentiel pour ne pas décrocher face aux besoins des clients. Nenamoins ce choix tactique ne doit être que provisoire car Il serait dangereux d'opposer une Informatique interne "lente"  et une informatique externe rapide. En effet les deux utilisent les mêmes données, visent les mêmes utilisateurs convertis au web, nécessitent la même rigueur d'exploitation et doivent donner lieu à un pilotage de même niveau d'exigence. Il faut donc s'engager dans une transformation globale du niveau de service informatique qui traite toutes les applications de la même manière, en en profitant pour rationaliser et simplifier le patrimoine applicatif alourdi par des années de projets hétérogènes et souvent inachevés.  Le rôle de l'infrastructure au sens large, du data center au smartphone et aux capteurs, est bien de fédérer les services rendus aux parties prenantes du système d'information, internes et externes.
 
Comme l'entreprise ne peut atteindre avec ses seuls moyens le niveau d'exigence industrielle qui caractérise désormais le standard mondial de service, elle doit rechercher les partenaires  les mieux à même à concrétiser son projet. C'est ainsi qu'il faut imaginer de nouveaux types de contrats d'infogerance plus tactiques, exploitant un multi sourcing sélectif, et véritablement conçus en entreprise étendue et non pas comme un choc frontal arbitré par les avocats.
 
Plusieurs tendances lourdes  émergent des signaux du marché  et obligent à repenser le rôle de la production et de la distribution multi-plateformes :
 
- les applications web nécessitent des méthodes de mise en production lean et agile bien différentes des processus habituels mais tout aussi exigeantes 
 
- les nouvelles "apps" doivent intègrer les contraintes de production et la qualité de service, ce qui implique une industrialisation des tests et validation
 
- le "Bring Your Own Device" est déjà bien ancré dans les pratiques sociales et ne fera que se développer. C'est même "Bring Your Own Application", les travailleurs du savoir, mobiles, en crowdsourcing, utilisant leur propre environnement de travail.
 
- la mutualisation des Infrastructures s'imposera sur le moyen terme car elle offre baisse des coûts et accroissement de la fiabilité 
 
- la sécurité doit être repensée pour ne plus être périmétrique mais contextuelle en protégeant de façon ciblée les actifs les plus essentiels de l'entreprise ( ce qui implique de bien les connaître...)
 
Il est évident qu'une telle transformation ne se fera pas sans talents. Comment attirer les compétences dans ces métiers proches de la technique, aussi bien chez les opérateurs que dans les entreprises uitlisatrices, qui rebutent souvent. S'il n'a jamais été facile pas de recruter des informaticiens et encore moins pour les infrastructures, il faut revaloriser ces fonctions qui ont un rôle critique dans la performance opérationnelle de l'entreprise.
 
Ceci est d'autant plus essentiel qu'il faut contrôler la totalité des applications et des services dans un environnement technique d'exploitation multi-sources, internes et externes. Ces nouvelles exigences exigent une culture nouvelle de l'orchestration, ouverte, documentée, partenariale qui renouvelle le modèle d'une gouvernance figée et souvent limitée à un affrontement inefficace. Il y a là non seulement une source d'emplois hautement qualifiés et motivants, mais aussi la possibilité de développer de nouveaux métiers. L'exploitation informatique ets bien vivante. C'est un métier d'avenir mais qui sera, comme beaucoup d'autres, très mobile.

Le choc numérique

Lancé en mars 2013, notre travaill collectif est entré dans sa phase finale, l'impression. Dans quelques jours, l'ouvrage va être mis en distribution par l'éditeur Nuvis sous forme papier et numérique. Toute l'équipe est heureuse d'avoir mené à bien ce projet collectif qui illustre pleinement notre propos : le numérique met en synergie les compétences et les efforts individuels pour un résultat supérieur à celui atteint par une personne seule. Bien entendu le collectif ne se décrète pas, c'est aussi le résultat d'une volonté et d'un effort particulier de se mettre au service du groupe en acceptant de négocier son point de vue afin de trouver systématiquement un consensus; nous expliquons cela dans le "making off" du livre. Que toute l'équipe enthousiaste des consultants de Sia Partners qui ont participé spontanément à cette aventure soit ici remerciée !

En attendant la parution voici, en avant-première,  la préface de Geoffroy Roux de Bézieux, vice-président délégué du MEDEF en charge, notamment, de l'économie numérique et l'introduction.

Couv choc numerique3

Préface

Jamais l’espèce humaine n’a produit autant de traces de son quotidien, de ses actions, de ses modes de vie et de son intelligence en si peu de temps et à si grande échelle. Jamais elle n’a bâti de réseaux aussi gigantesques et ouverts, qu’elle ne le fait aujourd’hui grâce aux technologies de l’information et de la communication. Jamais elle n’a tiré autant parti de l’intelligence collective pour changer son environnement, son quotidien et pour transformer son futur.

Et pourtant, ce à quoi nous assistons aujourd’hui n’est qu’un commencement ! Nous sommes à l’aube de transformations qu’un seul individu est incapable de conceptualiser mais que chacun d’entre nous est d’ores et déjà en train d’amorcer. La force du numérique est une promesse que nous contribuons tous à construire, à titre individuel mais surtout de façon collective.

L’enjeu maintenant est d’être en capacité de tirer le meilleur de cet écosystème mouvant, itératif, évolutif, en s’en appropriant les règles du jeu, la logique et surtout en en définissant les objectifs. Tout semble désormais possible, le numérique nous affranchit des distances et du temps, il est un levier incontestable d’optimisation des actions et un accélérateur de la prise de décision. Mais il  impose en même temps, une veille, une vigilance et une responsabilisation des acteurs décuplées tant les effets produits sont puissants.

 

Pour l’entreprise, le défi est à la hauteur des promesses portées : promesses de performances, promesses de compétitivité, promesses de créativité et d’innovation renouvelées. Le saut qualitatif est renforcé par des conditions de coûts qui ne constituent plus une barrière à l’entrée. La PME et le grand groupe bénéficient des mêmes accès, des mêmes avantages, pour peu que la transformation des process et des modèles devienne leur priorité. Nous sommes passés dans un univers où les pesanteurs matérielles s’estompent par la montée en puissance de l’immatériel et sa souplesse d’appropriation.

Tout serait alors vraiment idyllique ?

L’avantage comparatif ira désormais au plus souple, au plus adaptable, à celui qui aura su capter les forces de la métamorphose des systèmes. Il ne faudra plus être le plus gros pour durer mais le plus agile, il ne faudra plus être le riche pour se doter des moyens les plus performants mais certainement le mieux informé, le plus initié. Parce que voilà, la clé du succès dans l’appréhension de ce changement majeur de paradigmes, se cache dans ces petits détails : l’information et sa maîtrise !

Ces deux notions sont en effet le corolaire de la performance des outils qui ont contribué à imposer les nouveaux modèles. Celui qui décode, rend intelligible, s’approprie, diffuse ou organise les flux d’informations produits par la « multitude » saura, à n’en pas douter, tirer son épingle du jeu. A l’inverse, ne pas s’en emparer condamne à quitter le jeu.

Aussi, l’entreprise quelle qu’elle soit, n’a plus le choix du numérique ! Elle n’a d’ailleurs même plus le temps de se poser la question. Tôt ou tard, l’ensemble de ses fonctions, son organisation elle-même, son management et les ressources humaines dont elle a besoin seront impactées par ces transformations.

Le défi aujourd’hui pour les entreprises de France est d’opérer au plus vite ce basculement inéluctable.

En tant que vice-Président délégué du MEDEF en charge de l’économie, de la fiscalité, de l’innovation et du numérique, j’aurai donc à cœur d’accompagner les entrepreneurs dans cette mutation des modèles. Parce que le « Choc numérique » fera résonner encore et pour longtemps ses répliques, nous devons tous nous mobiliser pour rendre cette mutation la plus opportune qu’il soit ! Il en va en effet, de l’intérêt de notre économie, de l’emploi et plus largement du rayonnement de la France dans le monde.

 Geoffroy Roux de Bézieux 

 

Introduction

« J’ai fini par comprendre que les grandes révolutions économiques de l’histoire se produisent quand de nouvelles technologies de communication convergent avec de nouveaux systèmes d’énergie »

Jeremy Rifkin, La troisième révolution industrielle

 Ceci est une oeuvre collective. Passionnée. Imparfaite. Nous avons voulu rassembler nos connaissances, nos interrogations, enrichir notre culture naissante de cette ère de l’internet et du web. Tous acteurs d’un cabinet de conseil, engagés auprès de nos clients, nous souhaitons comme eux comprendre cette époque pour les aider à tirer parti des formidables opportunités qu’elle recèle, mais aussi à en déjouer les pièges et les risques. Nous ressentons aussi le devoir comme acteurs sociaux de contribuer à éclairer ce chemin nouveau et bien entendu incertain pour expliquer les faits, poser les problèmes, les expliquer et tenter de contribuer à les résoudre. Avec cette écriture à plusieurs mains, beaucoup de neurones et de travail, de longues discussions et échanges animés, nous avons aussi voulu écrire un ouvrage contemporain. Casser le mode traditionnel avec un livre qui puisse se lire facilement, permettant de rassembler les pièces de ce puzzle parfois complexe que représente l’émergence d’un nouveau cadre socio-technique. Essayer, à chaque instant, de dépasser les modes, dont on mesure la volatilité, comme la pensée toute faite, unique, aux conséquences aussi tranchantes que fragiles. Se poser plus de questions certainement, que les résoudre totalement, car ce monde se créée chaque jour et bien ambitieux celui qui pourra prétendre en dessiner les contours à dix ou vingt ans. C’est un essai. C’est-à-dire une réflexion inachevée, avec  des impasses assumées, qui se poursuivra sous forme d’un site web collaboratif, ouvert aux réflexions de chacun. Nous avons tenté de ne pas refaire ce qui a déjà été fait cent fois en assénant des convictions définitives sur le monde numérique ou en poussant des solutions marchandes du moment. Chaque chapitre éclaire des thématiques indépendantes, des questionnements forts sur le « comment faire ? », étayés par de nombreux exemples. Chaque entrée peut être abordée indépendamment et permet de comprendre le sujet de façon holographique à partir de plusieurs angles.

Nous sommes partis d’un constat simple : beaucoup de gens se posent des questions sans réponse sur cette époque déconcertante. Nous pensons que l’irruption dans nos vies de travailleur, de consommateur, d’épargnant, de citoyen, de parent de cette avalanche de données et d’outils numériques rebat totalement les cartes. En nous adressant aux chefs d’entreprise comme aux décideurs politiques qui sont par leur position actuelle les acteurs majeurs de cette transformation, nous leur disons aussi que leur responsabilité n’est pas seulement économique et politique, mais aussi sociétale. La transformation ne viendra plus seulement comme par le passé des seuls décideurs, mais sera aussi entraînée par de puissants courants décentralisés. Mais il appartient aux responsables politiques de préparer cette société nouvelle en avancant sur deux éléments du socle sociétal : l’éducation et la sécurité.

 Nous disons à tous ceux qui pensent que le développement de nouveaux objets et programmes numériques suffit à transformer le monde que la technologie seule ne fait rien, mais que le changement suppose la révolution des usages, et donc l’adhésion et la compréhension de tous. Un système n’a ni centre ni périphérie. Tout y est important et suppose engagement et conscience.

 Nous vivons une rupture dans l’histoire qui ouvre les portes d’un monde nouveau, attirant et inquiétant à la fois. Mais n’en était-il pas de même lorsque le livre, tous les livres, et surtout ceux qui n’étaient ni attendus ni autorisés, se sont répandus dans l’Europe du XVe siècle ? Aujourd’hui, c’est la planète tout entière qui est entraînée à grande vitesse dans ce monde de l’information et de la connaissance en temps réel. Sans frein, sans chef de projet, sans régulateur...

 

 

 


Le vrai prix de la sécurité informatique

 

Comment sortir d’un débat sans issue source d’irritation pour tous les acteurs

La sécurité informatique est devenue un thème lancinant des colloques, revues,  articles et flux RSS qui traitent de la révolution numérique. Il n’est pas de jour où on ne parle de cyber-attaque, de cybercriminalité, de cyber-guerre, de campagne de phishing,  dont on était récemment victimes de célèbres enseignes de télécommunications et d’énergie, d’attaque contre la e-réputation… Se mélangent ainsi sous cette vaste rubrique « sécurité informatique » une série d’informations touchant des natures de délinquance très différentes, qui vont de la banale escroquerie, classique, à la carte bleue ou aux prestations sociales aux opérations de fraude de haut vol et à la déstabilisation d’Etat. On cherche ainsi à se prémunir contre la curiosité présumée des services de sécurité de pays pourtant amis en cherchant à inventer le « made in France » de la localisation des données dans le monde éthéré du « nuage ». S’il y a beaucoup de paranoïa derrière cet inventaire, c’est que l’on cerne mal les menaces dans le monde de l’immatériel et que l’on a beaucoup de difficultés à concevoir une politique de sécurité dont on puisse prévoir l’efficacité, et donc le rapport coût/valeur.

Cette omniprésence du thème sécuritaire génère un climat d’inquiétude diffuse qui perturbe les directions générales, soucieuses de se prémunir face à ces risques nouveaux et mal compris, comme les pouvoirs publics désireux de juguler cette nouvelle délinquance.

Mais face à cette avalanche de mises en garde dramatiques, l’utilisateur manifeste une souveraine indifférence et se rue sans modération vers les nouveaux outils que sont les smartphones et les tablettes dont l’attractivité balaie toutes les inhibitions. On stocke sur son disque dur d’ordinateur portable des documents « confidentiels », on utilise, comme 47% des collaborateurs des entreprises américaines, son iPhone pour accéder partout à ses courriers électroniques professionnels, on néglige de sauvegarder sur un autre support le précieux résultat de son travail, sans compter les petits post-it jaunes collés sur l’écran qui contiennent en clair ses mots de passe.

Face à cette légèreté des comportements, les DSI tentent avec détermination d’opposer une stratégie de sécurité inflexible. Pour cela ils bannissent le libre usage des smartphones, bloquent les sites web, imposent un mot de passe alphanumérique complexe et changé tous les mois, cryptent les disques durs et accumulent sur les PC officiels les couches de sécurité qui en ralentissent le démarrage. Les utilisateurs trouvent dans ces précautions multiples qui ralentissent le travail et brident la liberté d’utiliser le matériel de leur choix  une raison supplémentaire de blâmer l’informatique. On observe des débats curieux. L’ire des utilisateurs agace les directions qui blâment la DSI. Celle-ci se défend derrière l’exécution des décisions de ces mêmes directions générales, alors même qu’elles ne sont  souvent pas les dernières à utiliser des matériels officiellement non autorisés.

La sécurité informatique est donc bien une pomme de discorde et un facteur de tension au sein des entreprises. Elle est perçue comme le frein ultime et aveugle de l’innovation et de la créativité.

Il est clair que ce débat est aujourd’hui dans l’impasse ce qui impose une remise à plat des analyses et des stratégies.

Prendre la mesure de la fragilité de son capital informationnel

Si la sécurité numérique a pris une telle place dans les préoccupations des entreprises, c’est une preuve par défaut que l’information est perçue désormais comme jouant un rôle déterminant dans le capital des entreprises. Si les mesures de sécurité sont mal comprises et mal acceptées c’est que la maturité des politiques et des outils n’ont pas suivi l’extraordinaire vitesse de déploiement des nouveaux objets numériques. Le libre usage de ces outils informationnels, en toutes situations de la vie personnelle et professionnelle, crée un nouvel état de fait, une revendication irrépressible à laquelle les réponses sécuritaires sont inappropriées, inopérantes et jugées comme vexatoires.

Il faut donc réconcilier deux mouvements majeurs : la place nouvelle de l’immatériel dans la valeur des entreprises et l’impérieuse nécessité de laisser à tous les acteurs la possibilité de créer et d’exploiter cette information.

Ce double défi implique une révision des concepts utilisés depuis le début de l’essor de l’informatique. L’information est un flux liquide qui irrigue tous les temps de la vie et qu’il est vain d’endiguer. L’informatique a été conçue initialement pour gérer des flux  stables et identifiés de données formalisées internes aux entreprises, partagées entre des personnes connues et toutes soumises au même type de contrat de travail, avec ses règles, droits d’usage, mots de passe. Cette situation est en passe de devenir minoritaire.  L’informatique doit aujourd’hui faire face à des flux multiples.  Les principes de sécurité doivent permettre d’accéder aisément à des informations internes non structurées, comme la vidéo, de même qu’à des informations structurées externes, tels les échanges de données entre tous les acteurs de l’entreprise étendue. Mais ce qui a pris un essor considérable depuis quelques années, c’est le volume des informations non structurées externes,  avec le torrent des données issues du web, textes, images fixes ou vidéos.  

La situation est devenue complexe pour les responsables de la DSI. Aussi, la réponse fréquente face à cet afflux de données composites est une réponse malthusienne : on cherche désespérément à  limiter les flux et les volumes pour les contrôler avec deux motifs également incompréhensibles pour les utilisateurs, les coûts et la sécurité.

La consumérisation des technologies de l’information mine en effet ces arguments pour des utilisateurs qui chez eux disposent de moyens en libre accès : des téraoctets de stockage, de la bande passante abondante (presque toujours !) et des opérateurs qui autorisent des stockages individuels et des tailles de pièces jointes presque sans limite. Et quand les documents à échanger sont trop lourds, on utilise les outils comme DropBox sans problème… Tout ceci est aujourd’hui à la portée de chacun tant en coût qu’en facilité d’usage. Alors pourquoi les entreprises semblent en décalage constant avec la réalité perçue par les utilisateurs ?

Pour appréhender sérieusement le dossier de la sécurité, et entrer dans une boucle vertueuse de résolution de problème, il faut reposer clairement des questions fondamentales : que doit-on protéger ? quels sont les risques réels ? où sont les « ennemis » ? quelle est l’efficacité des parades ? quel est leur coût ?

La protection du patrimoine informationnel de l’entreprise est un sujet mal exploré car souvent mal posé. Faute de diagnostic fin on applique sans nuance le principe de précaution : tout doit faire l’objet du même degré de protection. Et pour  y parvenir, on impose une protection périmétrique étanche, partant du principe que les « bad guys » sont nécessairement à l’extérieur et que si on leur impose un mur d’enceinte efficace la vie à l’intérieur sera protégée. Cette vision, acceptable dans un monde figé, n’est plus opératoire dans un monde ouvert où précisément les flux internes et externes sont constamment mélangés. La question pratique qui est posée aux nomades est bien d’accéder aux informations des entreprises où ils opèrent comme à celles de leur propre entreprise à partir de l’extérieur. La mobilité des personnes (employés, sous-traitants, partenaires, clients) entraine la nécessité de maitriser ce qui se connecte sur le réseau de l’entreprise, quelle que soit la méthode d’accès. Accéder au web, partager des ressources collaboratives, utiliser des flux vidéo pose constamment des problèmes pratiques frustrant. Or l’entreprise étendue  impose ce mode de fonctionnement. L’efficacité qui en résulte ne peut être compromise par des mesures de sécurité trop générales et trop contraignantes.

Il faut donc organiser cet accès en gérant la qualité du service fourni comme la maîtrise de la sécurité à chaque étape et pour chaque usage.

La protection des données sensibles suppose une bonne compréhension par tous du caractère réellement sensible des informations manipulées par les entreprises. Ce travail d’identification valide les précautions prises et les renforce. Il permet une sélectivité des mesures et une meilleure acceptation collective. Il permet également de mettre en rapport le risque et le coût de la protection.

La cartographie des applications sensibles est également une base précieuse d’informations pour le pilotage de la gestion informatique. Il ne s’agit plus alors de protéger contre le risque de disparition ou d’exploitation frauduleuse des données mais, simplement, de permettre à l’entreprise d’exploiter sans rupture l’activité qui va générer ses flux économiques. Par exemple on constatera sans grande surprise que les applications prioritaires sont celles qui assurent la facturation et la gestion de trésorerie. Ce qu’il faut protéger dans l’entreprise c’est ce qui menace son activité courante comme son image. Il faut protéger la valeur de l’entreprise, immédiate ou future, et donc bien cerner les flux d’information les plus sensibles pour y appliquer une politique appropriée.

Le poste de travail, porte d’entrée, recouvre des situations multiples

Le poste de travail qui n’était jusqu’alors un seul « objet » banalisé se transforme en « espace de travail personnel» composite. Pour mener à bien ses tâches, l’utilisateur met en jeu plusieurs terminaux différents dont l’usage  soulève des problèmes de sécurité plus complexes.

Plutôt que de répondre à ce nouveau défi par des interdictions qui ont peu de chances d’être suivies d’effet, il faut  analyser la nature des risques et face  à chaque situation  déployer la mesure la mieux appropriée à la fois sur le plan technique et économique, mais aussi en termes d’acceptabilité. Une politique de sécurité passe en effet avant toute autre considération par l’adhésion des utilisateurs qui doivent comprendre les mesures qui leur sont imposées.

Aussi la problématique doit évoluer d’une vision statique de la sécurité à une vision dynamique et contextuelle. Comment protéger les données face à un accès non autorisé ? Comment protéger le service fourni contre les risques d’attaque de déni de service ? Comment faire face à la perte, ou vol, à la destruction d’équipements intégrés dans la chaîne de traitement de l’information ? Comment mesurer la vitesse et l’impact de la propagation d’un défaut, attaque, sinistre, faille de sécurité ? Comment évoluent les flux d’information : l’analyse des variations de flux peut-elle permettre d’identifier une situation atypique, des utilisateurs non programmés, des scénarios d’usage des informations non identifiés ? La sécurité impose une analyse active des événements.

A chaque menace doit correspondre une riposte graduée.  Une politique de sécurité ne peut s’en remettre au hasard en se basant sur la multiplication des barrières, des obstacles pour décourager les adversaires potentiels. La sécurité sera le résultat d’un travail précis sur le contrôle à l’entrée du réseau pour  identifier et autoriser les flux en fonction des politiques mises en place et isoler les différents flux en fonction de leur identification à l’entrée du réseau. Le réseau doit être en mesure de reconnaitre les équipements connectés au réseau  et d’appliquer des règles de contrôle d’accès sur les nombreux  critères  qui auront été définis : utilisateur, contexte, équipements, localisation.

 

Une politique de sécurité ne doit donc pas isoler artificiellement l’entreprise du terreau qui la nourrit : ses collaborateurs, ses clients, ses fournisseurs. En intégrant toutes les parties prenantes, la politique de sécurité n’est plus l’application mécanique de règles générales. Elle doit contribuer, comme l’ensemble du système d’information, à irriguer chaque fonction avec les informations les mieux appropriées et protégées à bon escient. La sécurité n’est donc plus aux frontières de l’entreprise, elle se situe à chaque niveau dans une granulométrie fine et doit s’appuyer sur une intelligence de l’information. C’est un chantier majeur qui doit s’appuyer sur l’analyse des actifs immatériels pour mesurer les risques et mettre en place le « juste nécessaire » de contraintes et donc de coûts.