Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau https://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie https://www.iconomie.org


Vous avez dit "digital" ? Qu'entendez-vous par là ?

Après beaucoup de désintérêt et d’ignorance, le numérique, et surtout sa version hype anglo-saxonne, le « digital », est désormais sur toutes les lèvres. Il faut « en » faire, et vite ! Mais dans cette agitation, beaucoup de gens ont oublié de s’interroger sur la nature et la réalité de cette nouvelle idole. A force de considérer comme acquise une compréhension homogène des concepts, plus personne, par peur de paraitre ringard, ne fait l’effort de définir précisément ce dont on parle. Il en ressort une cacophonie généralisée qui permet de multiplier les procès en sorcellerie de ceux qui osent poser la question simple et sans réponse évidente « de quoi parle-t-on au juste quand on parle de « digital » ?

L’aveu en mai 2016 par Nicolas Sarkozy de son ignorance de ce qu’est « le bon coin », 8e site français quand même fréquenté par plus de 22 millions d’utilisateurs chaque mois, dont 50% à partir de mobiles, illustre la coupure entre la déclamation de principe de la priorité du numérique et sa compréhension réelle par beaucoup de décideurs. Le même, alors candidat, n’hésitait pas en effet à déclarer en 2007 : « Il n’est pas un secteur de notre société qui ne soit pas touché par l’apparition d’internet et les bouleversements qui en résultent. C’est une révolution qui se déroule sous nos yeux, la révolution numérique ». Il est surprenant que Le bon coin ait échappé neuf ans plus tard à cette vigilance tant c’est un site populaire dans la vie des gens qui a effectivement transformé le fonctionnement de l’économie de proximité. De même l’absence d’ordinateur sur le bureau présidentiel de François Hollande a surpris. Jacques Attali avait malicieusement fait observer lors de l’Université numérique du MEDEF en 2015 que s’interroger sur l’usage du numérique en 2015 était surréaliste et ressemblait à un colloque du CNPF de 1950 sur l’utilisation du téléphone par les entreprises.

Faute de connaitre la « vraie » réponse sur la nature de cette révolution numérique, on cherche avant tout les coupables sans comprendre les causes. Sommes-nous « en retard » ? Pourquoi ? Où se situe la France dans sa maturité numérique ? Qui doit conduire la transition numérique en entreprise ? Ce débat alimente désormais avec régularité les colloques et articles sur la transformation numérique. Le DSI sera-t-il ou non supplanté par le CDO, Chief Digital Officer ? Le suspense est total.

Cette dramatisation du débat, transformé en conflit de structure et de personnes, ne sert pas la cause car elle occulte la véritable question : comment (continuer à) transformer l’organisation, comme la société, confrontée à un nouveau paradigme socio-technique que ce terme « numérique » tente de définir ? Comme c’est un sujet complexe, incertain, qui engage toutes les fonctions mais en premier lieu le cercle historique des décideurs, il est indispensable, pour réussir à s’engager résolument dans le chemin de la transformation, de commencer par le débroussailler. Il serait grand temps de s'y mettre sérieusement...

Qu’est ce que le "numérique" ?

Une convergence de définition sur ce point central doit étayer toute démarche. Faute de compréhension, le débat sur la stratégie, et donc sur les personnes et les structures les mieux aptes à la mener, est faussé. Les approches peuvent être multiples, académiques ou empiriques. Depuis plus de vingt ans, les ouvrages sur l’émergence de la société numérique tentent cette approche. Don Tapscott, qui avait déjà prévenu dès 1993 avec "Paradigm Shift",  écrivait en 1996 dans son ouvrage « Digital Economy » : «  The computer is expanding from a tool for information management to a tool for communications… In this digital economy, individuals and entreprises create wealth by applying knowledge, networked humain intelligence and effort to manufacturing , agriculture and services. In the digital frontier of this economy, the players, dynamics, rules , and requirements for survival and success are changing ». Dix ans plus tard, en 2006, Yochai Benkler écrit « The Wealth of Networks ». Le professeur de Yale y développe sa vision : « The removal of the physical contraints on effective information production has made human creativity and the economics of information itself the core structuring facts in the new networkeded information economy ».

Tout est dit. Nous étions prévenus depuis longtemps et, d'ailleurs, nous n'avons pas été inactifs en France. Les structures, comme le Conseil national du numérique, existent. De multiples rapports passionnants ont été écrits. mais cette qualité d'analyse n'a pas nécessairement conduit les entreprises à l'exception de quelques pionniers à se mettre sérieusement en route. Or il est impossible d'ignorer que nous sommes face à un tsunami et il faut se préparer et agir.

Si les nuances existent, le consensus est fort sur ce constat : il ne s’agit pas seulement de technique informatique, mais d’un système global où la technique, les produits, les processus et les compétences sont engagés dans une nouvelle combinaison des facteurs. En ce sens la nature de la révolution numérique ne diffère en rien de celles qui l’ont précédé : l’écriture, l’imprimerie, la vapeur, l’électricité… La numérisation de l’entreprise, comme de la société, est une transformation radicale qui exploite le potentiel de toutes les techniques de traitement de l’information - logiciels, réseaux, interfaces, serveurs - objets pour réinventer le mode de fonctionnement global, tant économique que politique. Mais s’il y a bien une différence à chercher avec les étapes antérieures, c’est la vitesse et l’ampleur de la diffusion des outils qui font, en deux décennies, de la révolution numérique une révolution spécifique. C'est aussi le fait que la révolution industrielle a permis l'humanité de se doter d'un prothèse musculaire, alors que la révolution numérique nous permet de privilégier le cerveau-d'oeuvre à la main-d'oeuvre en nous offrant une prothèse cérébrale efficiente. 

Ces techniques ne sont pas récentes comme on en a l’illusion. Elles ont graduellement été mises au point depuis les années cinquante, internet et le web étant la dernière vague de cette construction. Chaque étape technique - avec un pas de dix ans environ: ordinateurs centraux , puis départementaux, ordinateur individuel, internet, web - a permis d’étendre le spectre des usages et de baisser les coûts de mise en œuvre.

Architecture-ordinateur2architecturedebase-8-638
Les techniques informatiques peuvent être imagées sous la forme d'un cône inversé qui repose sur la base historique que constitue aucun doute le modèle de von Neumann, qui date de 1945. Sur ce modèle, et grâce à la loi de Moore,  la production d'outils informatiques (réseaux, processeurs, programmes)  s’élargit rapidement pour couvrir un  champ de plus en plus vaste Ces outils engendrant eux-mêmes de nouveaux usages, le cône informatique englobe désormais un volume de plus en plus important que l’on nomme par convention « numérique ». Si la construction de la pointe du cône a pris beaucoup de temps, coûté cher et laissé souvent d’amers souvenirs de projets avortés, de performances médiocres, l’accélération technique, et les choix structurants de l’architecture de l’internet, permettent aujourd’hui d’atteindre des performances de fiabilité et de coût qui autorisent une totale démocratisation des usages et de nouvelles ambitions. Le monde des données massives (Big data), l'internet des objets, l'exploitation de l'intelligence artificielle, les robots constituent le nouveau front de cette expansion.

En effet, la combinaison des outils disponibles, désormais abondants, économiques et interopérables, permet de réaliser de nouvelles constructions qui dépassent la capacité des outils antérieurs. Cette extension de la performance intrinsèque coût/valeur permet également d’appliquer ces outils à de nouvelles catégories et, par là, d’étendre le champ de la réflexion et de l’action. Si la population des terriens a maintenant accès, partout, à l’information numérique grâce aux réseaux hertziens et à la fibre optique, c’est grâce à 70 ans de recherches, d’innovations et d’investissements considérables. La démocratisation du « téléphone intelligent », le smartphone, qui n’est plus téléphone que pour 15% de ses usages, mais ordinateur le reste du temps, ouvre à chacun le potentiel d’accès aux ressources du web. La révolution informatique continue sa marche en avant. Elle s’appelle désormais numérique, alliant la complexité technique de ses couches invisibles à la facilité d’usage de ses outils pratiques.

Un monde nouveau émerge

En décloisonnant les disciplines, effaçant les frontières des entreprises, bouleversant les statuts, transformant les rôles la révolution numérique fait émerger progressivement un monde nouveau qui remet en cause les situations et les convictions. Mais la puissance de ce mouvement est telle que la déstructuration du monde ancien se fait très rapidement, sans laisser le temps aux structures antérieures de s’adapter. Cohabitent ainsi deux mondes, l’ancien qui refuse de mourir, le nouveau qui malgré ses percées remarquables peine encore à se généraliser ce qui alourdit les coûts, différant la transformation dans toute son amplitude est donc la récupération effective des bénéfices. Ce déploiement différencié entre les entreprises et les nations conduit à l’émergence d’hyperpuissances numériques, l’Amérique et ses « champions du web », qui raflent la mise de la transformation, laissant aux moins rapides le soin de gérer les externalités négatives. Cette définition démontre d’ailleurs que la numérisation de l’entreprise n’est pas un big bang, mais un processus de transformation permanente qui emprunte au flux d’innovations celles qui sont les plus pertinentes pour atteindre l’objectif générique de compétitivité.

Il n’y a donc pas un modèle unique de transformation numérique -ou digitale- mais une adaptation des processus, des structures et des comportements pour renforcer l’entreprise sur ses marchés, sa profitabilité et ses perspectives. C'est un projet qui dépasse de très loin les seules responsabilités du CIO, mais engage toute l'entreprise, même si obtenir des résultats ne peut être envisagé sans maîtrise de la technique. De nouvelles entreprises qui comprennent mieux que d’autres l’alliage entre la technique et les usages se déploient mondialement avec talent sans s'interroger trop longtemps sur les nuances  d'une stratégie digitale. C'est ce qu'il convient de faire, sans délai : agir, aller de l'avant, projet par projet, usage par usage, faire confiance aux innovateurs, aux jeunes.

D ‘autres souffrent pour s’adapter. Beaucoup n’y parviendront pas. C’est la logique de l’évolution économique qui n’est en rien choquante si les processus d’adaptation des hommes aux nouvelles compétences requises et aux nouveaux comportements se déploient dans la lucidité et l’équité.

C’est bien le (seul ?) sujet de la démocratie aujourd’hui : qui doit payer le coût de l’adaptation ? Qui va en récolter les bénéfices ? Comment assurer une transition douce ? Les questions de l'emploi, des revenus, de sécurité et de respect de la personne doivent être réévaluées dans la perspective de la révolution numérique. La réponse n’est pas dans les idéologies anciennes, ni dans les hommes providentiels, mais dans une réinvention de la prise de décision collective, en entreprise et dans la société.

C’est possible... en exploitant les mêmes outils.

La vision du Chief Digital Evangelist de Salesforce, Vala Afshar, sur les six axes de la transformation numérique 

 https://www.huffingtonpost.com/vala-afshar/6-stages-of-digital-trans_b_9822640.html

Quelques lectures "historiques" pour se rafraichir la mémoire :

"The Digital Economy", Don Tapscott, 1996, McGraw-Hill

"What will be." How the new world of information will change our lives, Michael Dertouzos, 1997, HarperEdge

"The Wealth of networks" How social production transforms markets and freedom, Yochai Benkler, Yale University Press, 2006

Pour les passionnés, "A history of modern computing" de Paul E. Ceruzzi, The MIT Press, 1998, est un régal !

NB : ce blog qui a été lancé en 2005 est en fait une chronique de la révolution numérique qui permet de mesurer l'évolution de la perception


Changement de société, changement de modèle de management

Equipés en outils multiples de traitement de l'information,  habiles dans l'utilisation de ces outils personnels pour trouver instantanément l'information utile ou accéder à la connaissance, séduits par toutes les formes de coopération comme l'atteste le succès brillant des solutions comme Blablacar ou AirB'nb , nos contemporains, jeunes et moins jeunes car cette différence s'estompe, seraient incapables, au travail, d'initiatives et de prise de responsabilité ? C'est pourtant bien ce que dit le contrat de travail qui est un contrat de subordination comme l'explique clairement  l'article de Wikipédia :

Quel que soit le type de contrat de travail, le lien de subordination existe dès qu'une personne, l'employeur, peut exercer son pouvoir de direction sur une autre personne, l'employé. Cette autorité comprend le pouvoir de donner des directives, le pouvoir d'en contrôler l'exécution et le pouvoir d'en sanctionner la mauvaise exécution. Il doit pouvoir s'exercer à tout moment mais pas nécessairement de manière étroite et ininterrompue. Il suffit donc que ce pouvoir de direction ou pouvoir de subordination soit au moins potentiel, l'employeur ayant à tout moment le pouvoir exercé ou non, de donner des ordres et de surveiller leur exécution.

Ainsi le monde serait partagé en deux catégories : les supérieurs et les subordonnés...En France nous avons même différencié le statut des "cadres" et celui des "non-cadres"... Rien n'aurait changé depuis le XIXe siècle quand des millions de paysans illettrés sont entrés dans les mines et les usines pour y travailler avec leurs bras comme ils le faisaient dans les champs. Aujourd'hui dans les entreprises modernes, dont les exploitations agricoles, chacun utilise des processus et des objets techniques pour accomplir des tâches qui nécessitent très peu de force physique mais une capacité d'analyse et de diagnostic, de résolution de problèmes, d'échanges collaboratifs et de collecte d'information...

C'est pourquoi il nous faut réfléchir aux modèles de management adaptés au contexte complexe dans lequel nous opérons, au travail en temps réel, à la coopération intra et inter entreprises...  Le concept de cerveau-d'oeuvre, que j'ai proposé il y a déjà fort longtemps, vise à synthétiser ces transformations et à faire émerger de nouveaux modèles d'organisation du travail et donc de cadre juridique. C'est un travail de longue haleine qui ne peut réussir que s'il y a une coopération multiple entre tous les  praticiens et les experts pour faire bouger les lignes et tenter d'aborder le XXIe siècle avec des outils et des modèles adaptés.

Je dépose donc ces deux documents dans le fonds commun de réflexion :

- https://www.xerfi-precepta-strategiques-tv.com/emission/Jean-Pierre-Corniou-Le-numerique-revolutionne-l-organisation-du-travail-et-le-management_2593.html

- https://prezi.com/w2wlm9vyqxdj/?utm_campaign=share&utm_medium=copy&rc=ex0share

Je vous invite également à dévorer de toute urgence l'essai d'Idriss Aberkane sur l'économie de la connaissance.

https://www.fondapol.org/etude/idriss-j-aberkane-economie-de-la-connaissance/


Le numérique a-t-il un effet déflationniste sur le marché des biens culturels ?

La transformation numérique de l’économie est un phénomène de fond  dont les conséquences sont considérables. Sur le plan macroéconomique on observe un massif déplacement de valeur des producteurs classiques vers les acteurs de l’économie numérique, fournisseurs de contenus, opérateurs de réseaux. Les acteurs de la chaîne numérique – notamment le GAFAL : Google, Apple, Facebook, Amazon et Linkedin - s’imposent comme les nouveaux maîtres de cette économie numérique perçue comme déstabilisatrice. Sur le plan micro-économique, le remplacement d’un produit physique par un service immatériel implique des conséquences multiples sur les chaînes de valeur. 

Le secteur des biens culturels,  terrain historique du développement de la numérisation, offre sur une période de plusieurs années un champ d’analyse économique passionnant car il est très documenté et permet de mesurer l’effet concret du processus de substitution de services immatériels aux biens physiques. Aujourd’hui il est prématuré de conclure par l’analyse de ces marchés sur la  cartographie des gagnants et des perdants en termes de revenus et d’emplois. Le numérique légal n’est encore que très minoritaire, l’impact majeur vient de la baisse de la demande et de la concurrence souterraine du marché illégale de la copie pirate.

La publication par GfK, 4e acteur mondial des études de marchés,  de ses dernières données d’analyse de marché pour l’année 2013 sur les biens culturels apporte  les données nécessaires, corroborées par les données des syndicats professionnels,  pour approfondir cet exercice d’analyse. Il est à noter que GfK a  développé une palette d’outils puissants pour cerner sur internet le comportement du « consommateur roi » à travers les multiples facettes de l’acte d’achat : buzz, sentiments, réputation, mots-clefs, canaux, gestion du temps. Internet, vecteur de la transformation numérique est naturellement le lieu d’observation fine des changements de comportement des consommateurs. A l’intérieur de la consommation culturelle elle-même contrainte par la stagnation du revenu disponible, la diversification de l’offre permet de nouveaux arbitrages entre la consommation physique et la consommation immatérielle. Car in fine c’est le consommateur qui décide en fonction de son intérêt économique et de sa satisfaction.

Une chaîne de production physique complexe

Un produit physique se caractérise par la multiplicité des acteurs et des processus indispensables pour rapprocher le producteur du consommateur final. La diffusion d’un livre papier, par exemple,  implique la mise ne place d’une chaine de production, de logistique et de distribution pour fabriquer,  transporter et stocker le produit physique issu du fichier numérique conçu par l’auteur. Un livre numérique est simplement la diffusion du même fichier numérique sur des réseaux de télécommunication pour être reconstitué chez l’utilisateur final dans sa forme initiale sur un support électronique. Le nombre d’opérations physiques est considérablement limité, de même que l’utilisation de matière (papier, encre, cartonnages, rayonnages…) et de services (transport, stockage, exposition à la vente). Des objets numériques sont indispensables pour retrouver le support initial et donc une part du coût de ces objets généralement polyvalent, sauf les liseuses, devrait être réaffectée au coût d’usage du support numérique. La simplification et la dématérialisation du processus éliminent des tâches intermédiaires qui engagent des ressources physiques  et des emplois. La disparition du réseau Virgin comme les difficultés des librairies Chapitre sont à ce titre des événements majeurs de l’année 2013.

Tentons de distinguer les effets prix et les effets volumes pour mesurer l’impact de cette dématérialisation.

Il faut établir une première constation : le physique et le numérique ne sont pas des univers étanches, ils sont complémentaires. Le budget moyen d’un acheteur de biens culturels dématérialisés est de 1,2 fois celui d’un consommateur de biens physiques. Mais 63% des acheteurs numériques ont aussi acheté un bien culturel physique dans le trimestre. L’offre de contenus s’est considérablement développée depuis la fin des années quatre-vingt-dix. La dématérialisation s’est accompagnée s’une diversification des capacités d’accès aux biens culturels et c’est la révolution de la mobilité, à travers smartphones et tablettes, qui a accéléré cette ouverture des choix.

Néanmoins ce marché, bien que terrain de multiples sollicitations qui s’élevait globalement à 8,8 milliards de chiffre d’affaires en 2004 n’a cessé de se dégrader en une décennie avec une chute prononcée depuis 2009. Ainsi 2013 avec 7,54 milliard de chiffre d’affaires est en baisse de 4% par rapport à une autre année faible, 2012, et 7,84 milliard €.  Notons que le marché des produits culturels est de taille proche de celui de biens physiques électroniques et électroménagers, qui s’est élevé à 8,8 milliards € en 2013. La numérisation des contenus  n’est toutefois qu’un composant ce marché par rapport à une évolution globale de la consommation et des revenus.

  Biens culturels

Source : GfK, février 2014*

Les lecteurs restent attachés au livre papier

Le marché du livre physique et numérique en France représente, en 2013,  356 millions d’unités en volume pour un chiffre d’affaires de 3,9 milliard €. Ces chiffres sont en baisse par rapport à 2012 de 2,8% pour le volume et 2,7% en valeur. Le livre numérique payant s’il affiche une croissance de 125 %… ne représente en volume que 5,17 millions, soit 1,45 % du marché total du livre et seulement 1,1% en valeur. Ces chiffres sont très en deçà du marché américain, ou britannique, où 20% des livres sont vendus au format numérique. De plus la progression estimée par GfK reste très modeste avec un lent passage de 44 millions CA en 2013 à 180 millions en 2017.  L’écart de prix public, les taux de TVA étant désormais alignés, entre un livre numérique est un livre physique est de l’ordre de 30% à 40 % mais le prix de revient du livre numérique est très inférieur. La marge de l’éditeur est donc supérieure pour un risque moindre car il n’y a pas de stocks. Pour l’éditeur, le passage au numérique représente un véritable avantage économique, mais le coupe de son réseau de distribution de grossistes et libraires.

Le marché du livre en France n’est donc que très faiblement impacté par le développement du support numérique et de la lecture sur PC, tablette ou liseuses, alors même que les Français n’ont aucun retard dans l’équipement de ces outils.

Musique et vidéo, une longue descente

Il n’en est pas de même pour la musique et la vidéo.

Le marché de la musique enregistrée est encore dominé par le support physique, CD, DVD ou même vinyle dont le renouveau, certes confidentiel (1,5 % du marché), est dynamique. 83 % du marché légal de la musique se réalise sur un support physique, les téléchargements ne représentant qu’un chiffre d’affaires de 119 millions € sur un marché global de 716 millions €. Mais le drame du marché de la musique enregistrée est son effondrement régulier : -5 % en 2013, -45 % en valeur depuis 2002.

En vidéo, les chiffres sont également très médiocres pour l’industrie qui n’a réalisé en 2013 que 1, 17 milliard de chiffre d’affaires global, physique et numérique, contre 1,44 en 2011, soit une chute de 17 % en valeur et de 19 % en volume,  et 1,36 en 2012. En 2004, la vidéo totalisait 1,958 milliard de ventes. Si la part de la vidéo téléchargée légalement augmente légèrement,  le chiffre d’affaires régresse autour de 250 millions €. L’innovation n’a pas plus dynamisé le marché de la vidéo avec Blu-Ray que du son avec le SACD, qui a sombré. Le marché Blu-Ray a baissé de 9 % en 2013 et ne représente que 20 % du revenu total. Bien évidemment, l’industrie attend beaucoup du nouveau format d’Ultra Haute définition, 4K, après avoir été très déçue de l’accueil médiocre par le consommateur de la 3D. C’est l’offre de films qui tire le marché, car ils représentent 55 % des ventes, mais les séries progressent très rapidement.

Le jeu vidéo très tonique

Le seul marché dynamique est celui du jeu vidéo. Il s’agit réellement d’une transformation des comportements, car le jeu vidéo est devenu un secteur de production à part entière. Avec 2,5 milliards de chiffre d’affaires, en ventes physiques et dématérialisées, ce marché écrase ceux de la musique et de la vidéo et devient le vrai relais de croissance de l’industrie du loisir numérique. Mais c’est aussi un marché où le hardware et les produits physiques dominent largement avec 82 % du chiffre d’affaires. La sortie d’un nouveau titre, comme GTA, est un événement qui génère en 2013 un chiffre d’affaires de 114 millions € pour près de 2 millions d’unités vendues, soir plus que le 1,6 million d’exemplaires d’Asterix chez les Pictes !

Si pour le livre papier, le numérique n’est pas aujourd’hui une menace tangible en France, l’effet déflationniste de la migration du physique vers l’immatériel n’est pas dû au marché légal de la musique et de la vidéo enregistrées mais au piratage. La gratuité obtenue illégalement est effectivement un phénomène massivement destructeur de valeur pour l’industrie, mais perçue par les utilisateurs comme un gain non répréhensible. Les difficultés d’Hadopi illustrent parfaitement ce refus de la sanction. D'après les études d'Hadopi 71% des consommateurs français de musique écoutent de la musique gratuite. Mais 17% des internautes écoutent régulièrement de la musique illégalement.

Le seul moyen de permettre à cette industrie de retrouver une croissance est donc de dynamiser l’offre légale de produits en ligne. Le streaming, par exemple, recueille 1,4 million d’utilisateurs. La France dispose avec Deezer et Qobuz d’acteurs compétents et attractifs. Il faut que les consommateurs en perçoivent l’intérêt à long terme en abandonnant la facilité d’une attitude illégale pour contribuer à la dynamisation d’un marché attractif et compétitif créateur de valeur et stimulant pour la création. 


Politique... l'impuissance démocratique

Dans le contexte de la crise que traversent durablement l’Europe occidentale, les Etats-Unis, le Japon, la classe politique souffre partout d’un discrédit majeur. Les titulaires du pouvoir abordent avec fébrilité toute nouvelle élection tant le risque de désaveu est élevé. Les échecs sont nombreux, violents, humiliants. Les périodes de grâce post-électorales sont fugaces et très rapidement les critiques fusent pour sanctionner sans pitié tout écart, même mineur, à une règle d’excellence que la démocratie semble désormais exiger de ses dirigeants. La confiance, partout, est au plus bas alors même que les circonstances exigeraient de la classe politique qu’elle suscite le désir de rassemblement dans la durée pour résoudre les problèmes complexes de notre époque.

Maléfice

Est-ce que ce jeu de massacre est légitime ? Quelles en sont les causes ?

La crainte légitime que suscite, sur l’emploi et le revenu,  l’atonie de la croissance  est le moteur principal de ce discrédit. L’incertitude envers le futur rejette sur le pouvoir la cause majeure de tous les troubles. De plus, la classe politique semble exonérée de la dureté des temps et capable de s’affranchir, par des moyens suspectés douteux, des temps difficiles que vivent les citoyens. Le débat récurrent sur le cumul des mandats n’est pas une réflexion théorique de droit constitutionnel sur le degré optimal de concentration sur un niveau de responsabilité, mais un problème de gestion du revenu des élus qui n’a rien de choquant en soi. Tout travail mérite salaire… Mais quand la performance du travail est contestée, la rémunération sur fonds publics perd de sa légitimité.

Le web est une des causes de ce « politician bashing », ce lynchage systématique sont les politiciens se plaignent amèrement faisant du web le seul artisan de leur discrédit. Il est clair que la puissance de l’outil limite les zones grises où pendant longtemps les politiciens ont pu tenter de s’échapper pour se soustraire à l’âpreté du jugement de leurs électeurs. Rien n’échappe au regard mondial du web, ni les petites phrases maladroites, ni les photos  compromettantes, ni les agendas cachant de suspectes rencontres. Tout est en direct. Sans filtre et sans pitié.

Mais cette loupe grossissante sur les méthodes et les mœurs de nos élus ne doit pas conduire systématiquement à leur mise en accusation. Pourquoi situeraient-ils au-delà des normes habituelles de comportement de la population alors qu’ils sont choisis en son sein sans filtre spécifique pour la représenter ? Il est ainsi curieux que les hommes politiques les plus appréciés de l’opinion sont ceux qui ont, dans une certaine mesure, échoué. L’échec est-il un brevet de vertu démocratique ? Le sacrifice personnel ne peut-il être que le seul moyen de produire une bonne image en politique ?

La classe politique ne mérite certes ni cet honneur ni cette indignité. Elle n’est là que parce le peuple lui demande d’assurer cette fonction de régulation que le système démocratique confie à l’Etat. Elle ne peut résoudre tous les problèmes de chacun, emploi, revenu, éducation, sécurité…. Ce que Lionel Jospin avait dit, dans un aveu d’impuissance qu’on lui a reproché, « L’Etat ne peut pas tout » est devenu un constat universel dans une économie mondiale ouverte. Barack Obama en fait l’amère expérience même dans un pays où, structurellement, on attend peu de Washington quand on ne dénie pas au pouvoir fédéral tout droit d’ingérence dans la vie des gens.

Un essai récent vient éclairer le débat à la lumière des principes « génétiques » de la démocratie grecque. Dans « Le maléfice de la vie à plusieurs », dont le sous-titre annonce le projet « La politique est-elle vouée à l’échec ? », Etienne Tassin  s’interroge sur cette tragédie que vit la démocratie. Le peuple est par nature divisé. En régime démocratique, la prise du pouvoir de l’un est la défaite de l’autre, et non pas sa destruction comme dans les régimes totalitaires. Le vaincu  voudra échapper à la domination « naturellement » perçue comme injuste de celui qui a gagné et préparer une revanche qui ne peut être qu’une remise en cause de sa légitimité et de ses choix. La division  qui est « le lien de la liberté » limite la capacité d’action du vainqueur.

Aussi Etienne Tassin avance-t-il cette définition de la démocratie : « La démocratie, nom d’un régime où le peuple divisé entend exercer un pouvoir sur lui-même, affronter victorieusement les séditions qu’il produit de lui-même en son sein ».

Tassin met en évidence, comme Merleau-Ponty qu’il cite abondamment, l’impureté de la politique. «  La liberté est toujours compromise, empêchée ou déviée, par les autres, les choses, le monde, les tâches et les hasards. L’acteur politique, celui qui porte cette liberté en acte, ne saurait être jugé que sur ses actes, et non ses intentions. Or les effets desdits actes lui échappent en partie le plus souvent et il doit les assumer quand bien même il ne les défendrait pas. »

Rude mission que la politique vouée à l’échec et à l’impuissance. Car plus large est le spectre de la mission, plus les aléas se multiplient et rendent l’atteinte d’un objectif totalement aléatoire. De plus si cet objectif est atteint qui peut en prétendre être le seul responsable ? Pour fonctionner, la démocratie ne pourrait s’appliquer qu’à des objets précis à l’ampleur limitée. Les votations suisses permettent en cernant précisément le champ technique et géographique  de la décision de construire les conditions d’un succès. Veut-on autoriser  le travail du dimanche, sujet constant en France et jamais tranché ? Il a suffi au peuple de Genève de voter contre pour mettre un terme au débat… à Genève. Est-il pertinent d’avoir le même système à Bale, Zurich ou Zermatt ?

C’est par son désir d’universalité que la république française s’empêtre bien souvent dans des débats inextricablles au niveau où ils sont traités. Dans un système complexe comme notre économie européenne, immergée dans l’économie mondiale, qui peut décider sérieusement sur des sujets aux multiples implications ? Il en ressort de pitoyables déclarations où les hommes politiques impuissants tempêtent, invectivent, blâment, condamnent et promettent, dans un déluge de mots sans conséquences

Ce que Tassin met aussi en évidence est que cette incertitude fatale à la politique s’applique aussi au passé. Il est en effet difficile avec certitude  d’attribuer à un homme, à une équipe gouvernementale le succès d’une politique qui résulte de multiples facteurs exogènes. Certains hommes politiques tirent au fond leur gloire de ne pas avoir eu le temps de faire la preuve durable de leur talent. Le meilleur exemple en est Pierre Mendes-France. Pourquoi a-t-il éclipsé jusqu’au nom même un autre homme politique talentueux de la IVe république, Felix Gaillard ? La fascination pour ceux qui n’ont pu échouer faute d’avoir réussi est infinie.

D’autres ont su exploiter avec intelligence les circonstances pour se les approprier. Ainsi la seconde guerre mondiale a pu faire naître le renouvellement de la classe politique à travers des positions courageuses face à ce qui est devenu a posteriori une exigence claire, le refus de la soumission à l’Allemagne. Mais qui aurait pu imaginer la trajectoire d’un Charles de Gaulle sans ces circonstances. Que serait devenu un Jean Moulin s’il avait survécu ? Les héros sont d’autant plus intègres qu’ils sont morts car on ne raconte que les belles histoires qui arrangent tout le monde comme l’illustre Taleb dans « Le cygne noir ».

Si du fait des interactions entre les hommes libres, qui peuvent décider de ne pas se soumettre à la pensée et à la volonté d’un seul ou d’un groupe, la politique est destinée à échouer en démocratie  ou à ne réussir que par accident, faut-il alors abandonner l’exercice de  la politique au hasard ? C’est ainsi qu’est née l’idée de confier le pouvoir à des citoyens choisis au hasard, ce qu’on fait pour la justice, dans les jurys d’assise dont les conséquences ne sont pas moins graves.

Alors si on ne peut juger une politique et les personnes qui en sont à l’origine ni sur les intentions ni sur les résultats, que reste-t-il pour en démocratie conserver au rituel électoral un intérêt réel ?  Tassin comme Merleau-Ponty proposent de retenir comme critère le résultat de l’action immédiate sur une communauté d’acteurs et sur l’espace d’apparition qu’elle déploie avec elle. Le sens de la politique serait donc le désir d’action, auquel on prête volontiers « les vertus du commencement, de la natalité, de la révélation, de la manifestation ».

Cet essai illustre brillamment l’impuissance de la démocratie. Mais c’est dans la gestion de cette impuissance que se place la grandeur de la démocratie.


Pour une approche pragmatique et audacieuse de la gouvernance des systèmes d'information

Beaucoup de DSI s'interrogent sur les conditions de mise en oeuvre d'une stratégie de gouvernance des systèmes d'information qui permette à la fois de régler de façon transparente les problèmes opérationnels, ce qui est très souvent leur priorité immédiate, mais aussi de créer un courant durable d'intérêt et d'engagement de leur direction générale sur les thématiques systèmes d'information encore souvent perçues comme opaques... La réconciliation de ces objectifs souvent jugés contradictoires est indispensable. La bonne nouvelle est qu'elle est possible.

Ce texte a été publié dans un ouvrage collectif écrit par les enseignants de l'Ecole de Management des Systèmes d'Information de Grenoble "Stratégie et pilotage des systèmes d'information", qui développe une vue complète d'une approche contemporaine des systèmes d'information telle qu'elle est enseignée dans cette structure dynamique.

EMSI

 

Le fonctionnement des grandes structures, entreprises comme organisations publiques a été totalement transformé par les moyens informatiques qui y ont été déployés depuis maintenant quarante ans. Plus récemment les PME et les entreprises individuelles ont également pu exploiter les bénéfices des technologies de l’information, qui se sont démocratisées grâce à la micro-informatique et au web. Mettant en œuvre ces techniques, les entreprises ont pu accélérer leur cycle de développement, croître tout en gagnant en fiabilité, en productivité et en réactivité dans leur gestion courante. Plus encore l’informatique a nourri l’innovation en permettant d’exploiter de nouveaux territoires commerciaux, géographiques, techniques. Sortant de leur isolement par l’échange de données informatisé puis internet, les entreprises se sont constituées  en réseaux « d’entreprise étendue » au sein desquels se nouent des coopérations et partenariats qui dépassent la simple relation client/fournisseur. Puissant moyen de développement des relations entre les acteurs, au sein des entreprises comme entre entreprises, et, ultimement avec le client final l’informatique en réseau constitue le système nerveux de cet ensemble de flux d’informations et de connaissances qui caractérise « la société de l’information ».

Si la production et l’échange de produits et services sont aujourd’hui, dans le monde, totalement soutenus par le déploiement de moyens de traitement de l’information, cette économie nouvelle dépend, pour son développement, de la maîtrise de l’ensemble des composants techniques, organisationnels et comportementaux qui ont permis son essor. L’informatique est progressivement devenue une ressource critique dont la performance dépend de multiples décisions, émanant d’une pluralité d’acteurs, dont la coordination et la pertinence ne peuvent résulter de mécanismes spontanés.

Cette complexité, source de fragilité et de risques, doit être pilotée. Naguère intuitif et pragmatique, ce pilotage doit devenir industriel, prédictif et mesurable. C’est pourquoi les choix des entreprises en matière de technologie de l’information, la maîtrise de leur fiabilité, de leur coût et de leur usage ont rendu nécessaire l’émergence d’une nouvelle discipline, la gouvernance des systèmes d’information. L’observation des règles et pratiques qu’elle propose est une garantie de la pertinence des choix et de l’alignement des ressources informationnelles au regard des attentes des organisations.

 

  1. L’informatique, un perpétuel mouvement

Si les outils informatiques ont permis cette profonde transformation du monde économique, l’industrie informatique elle-même y a également largement contribué par son dynamisme propre. Ce secteur, marqué par la croissance, l’innovation et l’entrepreneuriat, représente un modèle pour les industries traditionnelles et une vitrine de la mise en œuvre de ses propres solutions.  Fédéerant de nombreux acteurs, constructeurs, éditeurs, intégrateurs, sociétés de conseil et de service, a elle-même connu de puissantes vagues de transformations depuis les années soixante. Naguère élitiste, rare et chère, l’industrie informatique, qui se confond aujourd’hui avec celle des télécommunications, est devenue une industrie de masse puissante et globale, s’adressant aussi bien au monde professionnel qu’au monde de  la consommation domestique.

Le déploiement des systèmes d’information en entreprise n’est pas un processus simple par lequel les entreprises exerceraient un choix raisonné entre solutions stables proposées sur étagère par le marché autour de normes qui s’imposeraient à tous. C’est au contraire un mouvement continu d’élaboration itérative de solutions entre les différents acteurs du système, fournisseurs comme clients. La puissance propre de l’industrie des technologies de l’information est un facteur majeur d’influence sur les décideurs. Mais au-delà des limites du « marché professionnel » qui est resté étanche aux influences externes pendant quarante ans, un fait nouveau s’est imposé : l’informatique et les solutions se déploient désormais plus vite hors du périmètre professionnel dans le monde grand public. Cette généralisation du fait numérique remet profondément en cause les méthodes de conception, de production et de distribution des « programmes informatiques », désormais regroupés dans une approche globale de « systèmes d’information ». Naguère technique, l’approche moderne des systèmes d’information accorde une place majeure aux décideurs des métiers comme aux utilisateurs, appelés à intervenir dans la conception des systèmes comme dans l’optimisation de leurs usages.  Elle intègre également l’influence des pratiques et comportements issus du grand public  dans cette vague d’innovation identifiée comme le Web 2.0.

Globale, omniprésente dans la vie des entreprises comme des particuliers, l’informatique tend désormais à se fondre dans un ensemble de services, que certains appellent « le nuage » et qui va progressivement regrouper les composants historiques des systèmes d’information. Cette évolution va bouleverser à nouveau dans les années à venir les concepts d’organisation comme les outils techniques des systèmes d’information, et le partage historique entre l’informatique professionnelle et l’informatique grand public.

Si l’articulation entre les composants systèmes va sans nul doute se transformer une fois encore, il est indispensable de comprendre et maîtriser cette évolution qui ne fait pas disparaître les finalités propres de l’informatique et des systèmes d’information au service de l’entreprise.

La politique des systèmes d’information d’une entreprise doit permettre d’apporter les réponses les mieux adaptées à ses besoins stratégiques et opérationnels, compatibles avec  ses ressources. Elle doit donc être en mesure de répondre aux deux questions fondamentales de la direction générale : dispose-t-on de la meilleure combinatoire de systèmes au regard de notre stratégie ? gère-t-on  avec efficacité et efficience les ressources que l’on consacre à cette mission ?

Si la question de l’alignement des systèmes sur les finalités de l’entreprise se pose depuis les origines du mouvement d’informatisation dans les années soixante-dix, période où les coûts étaient si élevés qu’il fallait opérer des choix drastiques entre les fonctions à « informatiser », l’informatique a longtemps échappé aux logiques de contrôle qui ont été déployées plus précocement dans les autres fonctions. Son caractère novateur, et donc instable, lui a conféré ce privilège temporaire  Ce n’est que depuis dix ans que l’on a pris conscience de l’ampleur des risques pris par une médiocre maîtrise de la fonction informatique et système d’information, ce qui a donné au concept de gouvernance de systèmes d’information une forte visibilité.

En effet, le contrôle de la gouvernance des systèmes d’information prend encore plus de sens quand l’omniprésence des outils informatiques conditionne totalement les performances des entreprises et des personnes.

 

2. L’alignement du système d’information, un exercice indispensable et complexe

L’informatique désormais dégagée de son statut privilégié d’industrie pionnière doit répondre aux mêmes normes de contrôle que les autres vecteurs qui contribuent à la performance des entreprises.  Comme pour toute autre ressource, les finances, la technologie, les compétences, la force commerciale, la seule finalité de l’informatique et des systèmes d’information est de servir la stratégie de l’entreprise et son adaptation permanente au contexte dans lequel elle opère.

Si ce principe est bien clairement posé dans les intentions des commanditaires des systèmes d’information comme dans celles de leurs réalisateurs – architectes, développeurs, exploitants- , la réalité perçue dans les entreprises est très souvent décevante. Cette distorsion entre la vision et la perception tient  à la complexité des systèmes d’information qui résultent de l’addition de couches techniques elles-mêmes instables et d’une organisation et de comportements sociaux et psychologiques qui confèrent aux systèmes d’information leur spécificité socio-technique.

La problématique du contrôle revêt donc depuis quelques années une dimension capitale. Force est de reconnaître qu’elle ne se simplifie pas. On a constaté que la seule innovation technique contenue dans les outils ne permettait plus l’atteinte des résultats exigée par le niveau croissant d’investissements que requièrent les systèmes d’information. Cette exigence appelle donc une nouvelle approche de la politique des systèmes d’information beaucoup plus centrée sur l’atteinte de résultats  probants que sur le déploiement de techniques, plus sur la transformation des usages que sur la gestion des moyens.

 

2.1 Un développement induit par les opportunités techniques

Le prodigieux succès du déploiement de l’informatique dans les entreprises s’est réalisé en plusieurs vagues induites par des innovations techniques. De ce fait, les technologies de l’information se sont progressivement insérées au cœur du fonctionnement des entreprises par poussées successives, sans plan cohérent, au gré des propositions techniques, de la stratégie marketing et des réussites commerciales des éditeurs et constructeurs de matériels. Il s’agissait de faire mieux et plus vite les tâches habituelles du monde de l’entreprise en introduisant à la fois l’esprit de modernité associé aux technologies et la recherche d’efficacité… Ce sont les processus quantitatifs et répétitifs qui ont été les premiers à être informatisés : comptabilité, commandes, facturation, paye. Puis compte tenu de la capacité des outils, d’autres processus au cœur des métiers ont fait progressivement l’objet d’une informatisation : ordonnancement, gestion de production, maintenance, conception.

Les systèmes d’information ont été d’abord développés dans les plus grandes entreprises, dotés de compétences internes et de capacité d’achat de ressources du marché. Chaque entreprise a donc construit son propre parcours en assurant la convergence des besoins exprimés par ses propres utilisateurs et des ressources techniques internes et acquises. Ce modèle fragmenté n’a pas favorisé la standardisation des techniques et des ressources. Les solutions de marché comme les progiciels et les solutions intégrées – ou ERP, enterprise resource planning – ne sont apparues que dans les années quatre-vingt-dix et leur adoption a été accélérée par la perspective du passage à l’an 2000 qui a nécessité la mise à niveau de la plupart des solutions propriétaires. Mais malgré les intentions initiales, le degré de standardisation s’est révélé faible.

Il est compréhensible que dans ce contexte technique et organisationnel, le développement des systèmes d’information n’ait pas été harmonisé, chaque projet se dotant en général de son propre modèle de données, souvent imposé par la technique choisie, et de ses propres règles d’architecture technique et fonctionnelle.

L’usage des systèmes s’est intégré de façon plus ou moins fluide dans le fonctionnement des entreprises, ajoutant au fil du temps de nouveaux outils aux pratiques traditionnelles de management. La planification globale de ces développements, en dépit des tentatives de la structurer au sein de schémas directeurs des systèmes d’information, n’a pas réussi à convaincre en dépit des moyens significatifs accordés par les entreprises à l’élaboration des ces outils. La vitesse de déploiement de ces schémas directeurs s’est révélée insuffisante par rapport aux attentes des organisations. Ainsi, les mouvements se sont réalisés la plupart du temps au détriment de la cohérence, et donc des coûts. Le système d’information s’est donc élaboré par couches et la mise en convergence a posteriori des différentes couches se révèle un exercice délicat et coûteux. Aussi les informaticiens préfèrent obtenir le niveau minima requis d’interopérabilité par des moyens techniques, qui viennent à leur tout alourdir le système global, plutôt que par une refonte globale perçue comme encore plus aléatoire. Ces solutions apparaissent à court terme comme des palliatifs, qui pénalisent les entreprises anciennes par rapport aux nouveaux venus.

Or les entreprises dépendent de plus en plus fortement de l’efficacité de leur système d’information pour atteindre leurs objectifs. Des solutions nouvelles de gouvernance ont émergé et se déploient de façon inégale dans les organisations. Une approche réaliste de la gouvernance s’impose pour faire franchir aux entreprises un palier de performance nouveau en matière de SI.

 

2.2  L’alignement stratégique face à des défis nouveaux

L’alignement stratégique entre les systèmes d’information et les objectifs de l’entreprise est devenu aujourd’hui une préoccupation constante des DSI comme des directions générales. Mais ce thème recouvre aujourd’hui des situations plus larges et plus complexes que lors de la phase initiale de couverture fonctionnelle. La plupart des grands processus transactionnels des entreprises sont désormais supportés par des systèmes d’information qu’il fait maintenir et faire évoluer. Mais au-delà de ce socle, de nombreux besoins apparaissent pour répondre aux sollicitations d’un environnement mouvant. Il y a ainsi consensus pour reconnaître que les  ressources informationnelles et cognitives constituent un moyen majeur de différenciation compétitive dans une économie de l’immatériel. Or leur gestion est moins mature et se révèle plus délicate que les autres ressources de l’entreprise. Si dans les premières décennies du développement de l’informatique il s’agissait surtout de rationaliser des processus conventionnels pour accroître la productivité et la vitesse, les enjeux de l’investissement dans les technologies de l’information, de la communication de la connaissance ont changé de nature. La logique de pilotage de l’informatique doit intégrer cette nouvelle donne sans négliger la gestion sans cesse plus coûteuse des systèmes historiques (ou « legacy systems »).

Construits pour résoudre les problèmes économiques internes, les commandes, la facturation, la paye, la comptabilité, les systèmes d’information ont fondamentalement été conçus dans une logique « centripète » et régalienne pour ramener l’information de la périphérie vers le centre, le siège, et consolider l’image patrimoniale,  juridique et sociale de l’entreprise.

Or pour répondre aux défis des entreprises modernes, les systèmes d’information doivent obéir aujourd’hui à quatre impératifs complémentaires que l’on peut qualifier de « centrifuge » : satisfaire aux besoins de l’entreprise étendue, mettre le consommateur au cœur de l’entreprise, être capable de composer de nouvelles combinatoires de ressources en cas de changement de périmètre et attirer de nouveaux collaborateurs imaginatifs et motivés.

-        La dynamique de l’entreprise étendue

L’économie moderne impose au contraire que l’entreprise soit en permanence accessible de l’extérieur par tous ceux qui contribuent à son fonctionnement. Elle doit devenir ouverte et polycentrique. La satisfaction des contraintes légales et sociales comme des nécessités du pilotage doivent être conçues comme un sous-produit des processus opérationnels, et non plus comme un objectif majeur. Ses systèmes doivent être accessibles à tous les fournisseurs pour leur permettre de connaître, sans intermédiaire ni délai, les prévisions de production, les appels d’offres, les commandes, l’état des règlements… Les portails doivent ainsi devenir plus attractifs, plus simples et efficaces. Convaincre un fournisseur par la réduction des coûts d’intermédiation est aussi un argument de négociation

-        La transformation de la  relation avec le client

Comme le fournisseur, le client revendique le droit à être traité en partenaire. Mais, dans une économie fluide et compétitive, il est encore plus vital pour l’entreprise de le convaincre et de le fidéliser. Pour cela elle doit apprendre à communiquer avec lui dans sa langue mais aussi dans son langage. Le client veut à tout moment tout savoir des produits et services qu’on lui propose, et pas seulement pendant les heures ouvrables. Ainsi un catalogue est le plus souvent vu de l’intérieur de l’entreprise à partir des impératifs internes, ou habitudes, techniques, commerciales, organisationnelles. Le client n’a que faire de ces considérations. Il n’attend qu’une chose, sa satisfaction, et si possible immédiate. D’immenses progrès doivent être accomplis pour rendre l’entreprise, et ses produits, accessible, ouverte, compréhensible. Or l’expérience démontre que le client pressé de la génération internet est toujours mieux informé que le vendeur du réseau classique. Il ne se borne pas à éplucher les notices des producteurs, mais consulte les sites des revues spécialisées et les forums pour recueillir l’avis et les conseils de ses pairs, jugés plus objectifs et mieux informés que le point de vue officiel. Or ces sites ne renvoient jamais à ces sources d’information multiples. La coopération entre le point de vue officiel de l’entreprise – ou des collectivités – et ces réseaux informels d’où émergent une véritable expertise est encore embryonnaire. Les entreprises n’ont pas encore intégré le fait qu’elles ne disposent plus du monopole de l’information et répugnent à orienter vers d’autres points de vue.

-        La flexibilité organisationnelle dans des périmètres en mouvement

La demande de nouveaux systèmes est alimentée par l’évolution constante du contexte de l’entreprise. La concurrence accrue accélérant le cycle de vie des produits, les nouvelles contraintes réglementaires, l’élargissement des territoires, avec leur diversité juridique et fiscale, le degré plus ou moins intime de coopération entre les composants de l’entreprise étendue sont autant de facteurs qui induisent des évolutions de système d’information. L’entreprise doit être en mesure de se recomposer et de se réinventer rapidement. Changer d’organisation, ouvrir de nouveaux territoires, acquérir de nouvelles entités ou se marier avec des concurrents sont des exercices que l’informatique conventionnelle rend lents, compliqués, aléatoires. Or l’informatique héritière  des millions de lignes de code fruits de trente ans d’histoire ne peut constituer un frein aux changements indispensables. Dans le processus de rapprochement entre entités, la vitesse est essentielle ; c’est elle qui permettra de dégager les synergies désirées, de repenser les structures pour leur donner de la visibilité et du sens et engager vis-à-vis des clients comme du personnel une nouvelle dynamique de performance. La perspective d’une accélération de la modification des périmètres des entreprises rend nécessaire un découpage novateur de leurs architectures de systèmes et de leurs infrastructures.

-        La réponse aux attentes de nouvelles générations de salariés

Le changement de comportement des collaborateurs est lié à l’apparition de jeunes générations rompues dès leur jeune âge au maniement d’outils informatiques sophistiqués qu’ils s’étonnent de ne pas avoir exploités en entreprise. Or ces outils sociaux et coopératifs sont fondés sur des logiques d’échanges constants qui ne connaissent pas de barrières spatio-temporelles.

Alors que la mobilisation de « l’intelligence compétitive», ou « business intelligence », au cœur de l’économie de l’immatériel, demeure une pratique floue où se mêlent l’usage de systèmes techniques coûteux et mal exploités, comme les outils de management de la connaissance et d’aide à la décision, et des pratiques de management conventionnelles, l’observation et l’adoption des pratiques issues du web constitue pour les entreprises une opportunité de transformation. La réflexion sur le soutien permanent à la prise de décision et au développement des connaissances  constitue un des thèmes les novateurs de l’alignement.

 

A ces facteurs de mutation interne, se sont récemment ajoutés de nouvelles perspectives techniques qui apportent dans le paysage des systèmes d’information de fortes opportunités de rupture. Le mouvement dialectique entre l’évolution des  besoins de l’entreprise et l’offre du marché continue mais en transcendant le cadre classique du processus expression de besoins/ déploiement de solutions.  Il s’agit des offres classées sous le vocable générique «  software as a service » (SaaS) dont la spécificité est de proposer une solution sur étagère, directement accessible sur internet, et dont la mise en œuvre n’implique ni développement interne, ni capacité de production informatique propre, ni investissement.  Il s’agit de s’abonner à un service, payé à l’acte, dont on exploite le potentiel pour résoudre des problèmes internes. Ces services répondent parfaitement bien aux besoins génériques de l’entreprise, comme la messagerie, voire les outils de productivité individuelle, d’autant plus que l’entreprise n’a pas de base installée.  Leur pénétration est plus complexe dès lors qu’il s’agit de systèmes fonctionnels faisant appel à d’autres données de l’entreprise.

 

La montée en puissance de ce type de solution offre des possibilités très intéressantes dans la capacité des entreprises à exploiter, à la demande, les seuls outils dont elles ont besoin, sans délai ni coût initial. Ces solutions ne dispensent en aucun cas d’une réflexion sur leur adéquation en termes de coût et de valeur aux problématiques de l’entreprise.

 

  1. Pratiques de la gouvernance

 

Si le terme « gouvernance » n’a fait que récemment son apparition dans le vocabulaire des systèmes d’information, la gouvernance, comme « ensemble de règles et de méthodes pour piloter rationnellement le système d’information en adéquation avec les objectifs et aux ressources de l’entreprise », est une pratique ancienne même si elle n’était pas codifiée. Le champ de l’informatique, création intellectuelle permettant à partir de concepts, de principes et de règles de construire des programmes automatiques s’est nourri dès l’origine de réflexions méthodologiques permettant de se structurer de façon cohérente. La gouvernance des systèmes d’information est une discipline qui fédère ces multiples acquis pour permettre aux acteurs de prendre, en toute connaissance de cause, des décisions documentées et pertinentes. Il est désormais indispensable que toutes les entreprises et collectivités publiques en déploient les principes de façon appropriée.

 3.1 Un cadre d’arbitrage incontesté

Des logiques contradictoires s’affrontent dans le processus d’évolution des systèmes d’information. Le besoin en système d’information est en constante mutation. Cette dynamique implique un renouvellement rapide des systèmes pour répondre sans délai aux besoins perçus, alors que les règles de rigueur et de méthode imposent une discipline forte, le respect de rôles, de formes et de délais afin de construire des systèmes robustes et opérables dans le temps.

Le champ de la décision sur les systèmes d’information n’échappe pas  aux contingences internes : priorités non arbitrées, conflits d’influence, contraintes conjoncturelles. La persistance des contraintes techniques pèse sur les choix. Alors que la volonté des métiers est de saisir les opportunités d’innovation technique pour servir de nouveaux processus, les DSI doivent intégrer la gestion du poids des investissements antérieurs : couches historiques de solutions techniques difficiles à maintenir, obsolescence de solutions logicielles, montée de version inéluctable des progiciels.

 

L’inertie des systèmes, le poids du portefeuille applicatif, les réticences des maîtrises d’ouvrage, les risques d’échecs des projets nouveaux  limitent les marges de manœuvre comme la capacité pour investir dans les solutions plus modernes et moins coûteuses. La tentation de greffer, malgré tout, des techniques nouvelles sur des logiques anciennes d’organisation risque de conduire à pérenniser l’organisation ancienne et de renforcer la complexité des systèmes. On a ainsi vu de nombreuses interfaces web totalement déphasées par rapport aux processus qu’elles étaient sensées rajeunir.

 

Les dirigeants d’entreprise ont à la fois conscience de l’importance majeure que l’information peut avoir sur le succès de leur entreprise  et le sentiment que le contrôle leur échappe. Ils contestent le volume des ressources budgétaires allouées à la fonction informatique tout en regrettant de ne pas disposer des outils les plus modernes. La cohabitation de ces attitudes extrêmes créé une frustration au cœur de laquelle se situe les DSI. Si l‘histoire de l’informatique, de ses promesses et de ses échecs a pu justifier  que l’informatique ne soit pas perçue et gérée comme une ressource comme les autres, la poursuite d’un tel traitement est aujourd’hui dangereuse alors qu’il existe maintenant des outils fiables permettant  de comprendre les risques et d’exploiter les bénéfices des technologies de l’information.

 

3.2. Les objectifs de la gouvernance

Doter la fonction informatique et systèmes d’information d’un modèle de gouvernance efficace est une décision d'entreprise que le DSI doit faire émerger et instrumenter. Cette logique est incontournable pour les managers de la DSI, et de façon plus large, pour chaque entreprise ou organisation quelque en soit le métier ou la taille. C’est à la fois une obligation de bonne gestion interne, mais c’est également répondre à une contrainte externe que la loi américaine Sarbanes-Oaxley a établi comme référence dont les régulateurs nationaux s’inspirent sous des formes diverses.

La gouvernance impose une discipline collective fondée sur le partage d’outils d’analyse, de décision et d’action. La gouvernance vise à répondre à une demande de clarification des relations entre acteurs et de transparence des décisions. Ce souci émane bien sûr des directions générales qui souhaitent être rassurées quant à la bonne exploitation des ressources de l’entreprise dans les technologies de l’information, mais aussi des actionnaires qui prennent conscience de la vulnérabilité d'une entreprise dont le système d'information n'est plus compétitif. Les directions utilisatrices et des informaticiens en attendent également les conditions d’un dialogue serein sur l’évaluation des performances et la recherche d’une meilleure efficacité dans l’allocation des ressources. En effet pour les métiers, l’utilisation des systèmes d’information n’est qu’un moyen de parvenir à leurs objectifs en concurrence avec d’autres investissements. Enfin, les régulateurs publics ont compris les enjeux de la transparence des systèmes et ne cessent de hausser leur niveau d’exigence

i.     Les objectifs du cadre de référence

Les fondements d’une politique de gouvernance se situent aux sources des meilleures pratiques managériales. Sans en dresser un tableau idyllique, il faut admettre que l’application de ces règles de base du management à la complexité du système d’information permet de clarifier un débat souvent maintenu confus faute d’un investissement suffisant des acteurs en méthodes et en langage commun. Or ce qui pouvait être difficilement accessible il y a quelques années est aujourd’hui possible grâce aux efforts de mise en forme et de rationalisation mis en œuvre par les différentes entités qui contribuent à l’élaboration d’un corpus de principes et de règles pour les entreprises.

 

Il faut en particulier mettre en valeur le travail réalisé par l’IT Governance Institute qui capitalise l’expérience de centaines d’experts et publie le « cadre de référence CobiT » (« Control Objectives for Information and related Technologies »), dont la version la plus récente est la 4.1. Le COBIT (« Control Objectives for Information and related technology »), dont la première version a été publiée en 1996, constitue la pièce maîtresse du dispositif de gouvernance. La mission du COBIT est de « rechercher, développer, faire connaître et promouvoir un ensemble d’objectifs de contrôle internationaux en technologies de l’information qui soit généralement acceptés, à jour, et fassent autorité pour l’utilisation au jour le jour par les managers et les auditeurs ». Issu du monde de l’audit à des fins de contrôle, COBIT est devenu un outil de référence permettant aux managers de l’informatique de construire une organisation et une politique cohérente par rapport aux finalités de l’entreprise. COBIT ne doit pas inquiéter par son caractère formel et exhaustif car c’est un outil souple et pertinent qu’il faut déployer en fonction de ses moyens propres. Les analyses suivantes utiliseront largement les définitions et références issues de ce corpus exhaustif.

 

Les entreprises performantes ont compris les risques et les bénéfices des technologies de l’information en trouvant les moyens concrets de gérer simultanément une série d’axes critiques :

-        aligner la stratégie systèmes d’information et la stratégie de l’entreprise

-        assurer les actionnaires et les investisseurs que la gestion du risque lié aux technologies de l’information est opérée selon les règles de l’art

-         faire partager à chaque niveau de l’organisation la stratégie et les objectifs en matière de systèmes d’information

-        faire apparaître la valeur créée par les investissements en TIC

-        mettre en place l’organisation et les processus qui permettent de déploiement de la stratégie et l’appropriation des objectifs

-        créer un climat constructif de confiance et des relations partenariales entre les métiers et la DSI, et avec les partenaires extérieurs

-        mesurer les performances des technologies de l’information

-         

Le cadre de référence doit permettre de garantir simultanément :

-        une meilleure évaluation de la performance des SI

-        une gestion des ressources des SI plus efficace

-        une gestion des risques plus pertinente

-        une amélioration de la valeur des services de l'entreprise par le biais de ses SI

-        une meilleure adéquation des SI à la stratégie de l'entreprise

 

ii. Les outils de la gouvernance

 

Prendre des décisions rationnelles dans le champ des systèmes d’information n’implique pas de façon absolue de déployer des référentiels propres aux systèmes d’information.

Les outils classiques de l’entreprise, notamment les modèles utilisés en matière de qualité totale, comme le référentiel EFQM (European Foundation for Quality Management) ou l’application de la norme ISO 9001 sont appropriés. Il est même indispensable pour la fonction SI de s’intégrer dans ces démarches collectives.

 

Néanmoins, l’exploitation des outils propres aux champs qui composent le système d’information représente un intérêt indiscutable.

Les outils se sont multipliés et recouvrent désormais toutes les étapes du système d’information : planification globale et organisation, développement applicatif, exploitation, outsourcing, conduite de projet… Le processus de gouvernance doit constamment veiller à ce que «les méthodes et procédures, disciplinées et pro-actives, sont mises en œuvre pour garantir que les niveaux de service appropriés sont fournis à tous les utilisateurs des technologies de l’information en phase avec les priorités métiers et à un coût acceptable » (Foundations of Service Level Management, CobiT).

La DSI, compte tenu de ses moyens, doit mettre en œuvre les référentiels appropriés aux missions à conduire : ITIL s’impose pour le pilotage de l’exploitation, alors que le modèle de maturité de Carnegie Mellon (CMMI) est approprié à la production et à la maintenance applicative. Le référentil CSMF permet de piloter le srelations contractuelles avec les fournisseurs, partciMais il faut assurer l’articulation des ces outils de façon légère et efficace pour éviter toute dérive bureaucratique.

La logique des « balanced scorecards » introduite au début des années quatre-vingt permet de construire un système global de management. L’application de cette méthode aux outils de la performance informatique apporte des réponses pratiques au défi de la gouvernance informatique. Définir de façon claire et synthétique les liens qui mettent en relation les différents facteurs de performance pour construire un outil de pilotage et dialogue est pour tous les DSI une préoccupation centrale qui conditionne leur efficacité et leur crédibilité. C’est un moyen d’administrer la preuve que leur direction n'est plus seulement un centre de coûts, mais un outil tonique de création de valeur,.

Le CIGREF publie sur son site en accès libre, plusieurs documents issus de cette coopération : " Vers un standard de pilotage des coûts informatiques", le plan de comptes informatiques, le modèle IGSI de benchmarking des coûts informatiques. Ces outils sont précieux et doivent aider les contrôleurs de gestion de l'informatique, qui tendent à devenir de véritables directeurs de la performance économique des systèmes d'information, à remplir non seulement leur mission d'orientation et de contrôle mais aussi de se tranformer en pédagogues de l'économie de l'information.

Le CIGREF milite pour que l’informatique devienne un champ économique maîtrisé où les décisions sont prises avec clairvoyance et sont suivies en toute transparence. Il ne fait aucun doute que cette approche désormais largement instrumentée, et parfaitement insérée dans la logique de la gouvernance et du référentiel COBIT, sera suivie avec grand intérêt par tous les DSI et leurs dirigeants soucieux de faire bénéficier efficacement leurs entreprises de toute la puissance des technologies de l’information

 

La mise en œuvre des bonnes pratiques de gouvernance reste hétérogène et globalement insuffisante selon les études de l’ISACA. Plus de 30% des entreprises interrogées, au plan mondial, avouent ne pas disposer d’un cadre formel de gouvernance. La persistance de cet empirisme ne peut que nuire au bon usage de la ressource informationnelle.

Appliquer à l’informatique dans l’ensemble de ses composantes des règles de bonne gestion et de transparence donne confiance aux acteurs de l’entreprise sur la pertinence des objectifs et sur l’adaptation des moyens engagés à ces objectifs. La gouvernance permet d’apporter une réponse instrumentée sur la stratégie informatique, les investissements, la qualité de service, la gestion des projets, la maîtrise des risques, la qualité de formation et la motivation des personnels, la politique d’achats et la performance des fournisseurs…

 

3.3  L’adaptation stratégique et tactique du système d’information aux objectifs de l’entreprise

 

Mettre en œuvre une démarche globale de gouvernance des systèmes d’information représente encore pour beaucoup de DSI un objectif difficile à atteindre. Les difficultés sont multiples et tiennent à la complexité de la gestion des différents composants techniques et fonctionnels du système d’information au moins autant qu’à l’impréparation et au scepticisme des acteurs.

3.3.1      Conviction, communication

La première étape consiste donc à convaincre la direction générale que l’informatique doit et peut sortir d’une situation floue par l’utilisation des référentiels désormais proposés sur le marché. Elle comprend une indispensable démarche de communication, puis de formation, sur ces outils qui restent encore insuffisamment connus des dirigeants comme des DSI eux-mêmes.

Au-delà cette première étape,  il est indispensable de créer rapidement un climat de confiance entre tous les acteurs :

  • vérifier que les membres de la direction générale et les principaux dirigeants disposent d’une information suffisante sur les risques et les opportunités de création de valeur par les TIC (connaissance des principaux systèmes, de leur contribution aux procès critiques, de leurs coûts réels…)
  • faire en sorte que les sujets IT soient régulièrement abordés lors des réunions de direction générale
  • créer un espace spécifique où les sujets TIC soient abordés entre dirigeants  avec la rigueur et la franchise nécessaires et donnent  lieu à des décisions engageantes
  • dynamiser la gestion de portefeuille applicatif en ne travaillant pas que sur les projets mais aussi sur les systèmes clefs de l’entreprise à partir d’une vision précise de leur « coût total de possession »  et de leur état de santé, notamment par rapport à la concurrence

3.3.2 Documentation et transparence

Parmi tous les leviers de rationalisation de la politique systèmes d’information,  il appartient au DSI en accord avec l’équipe de direction générale d’opérer un choix. Il existe en effet désormais de multiples outils accessibles sur le marché.  Il est essentiel que le système de pilotage soit approprié en volume, coût et fréquence au cadre général de l’entreprise. Le risque est de sur-spécifier le système de gouvernance  de la DSI en accumulant les outils dans un souci d’exhaustivité alors que le but est de se concentrer pour répondre aux problèmes réels ou perçus de la fonction informatique.

 

Dans un contexte économique exigeant, le système d’information doit directement contribuer à la flexibilité de l’entreprise. Les directions générales demandent donc aux DSI un effort particulier d’adaptabilité au contexte économique et organisationnel mouvant. Alors que le poids du passé tend à rendre les modifications complexes et coûteuses, ceci  impose une démarche stricte et rigoureuse de déploiement des meilleures pratiques :

  • Déclinaison d’une vision globale à travers les référentiels d’entreprise et l’urbanisation
  • Choix explicite des niveaux d’intervention des acteurs du marché
  • Pilotage strict des relations contractuelles
  • Maîtrise de la demande de systèmes tant en travaux neufs qu’en maintenance
  • Implication du management opérationnel de l’entreprise dans les décisions de lancement et de déploiement de nouveaux systèmes

 

Il faut garder fermement le cap sur l’objectif de la gouvernance : le cadre général de décision doit permettre d’allouer de façon transparente les dépenses en rendant les mécanismes et facteurs de décision compréhensibles à toutes les parties prenantes. Le DSI doit pouvoir être  jugé à la fois sur le fonctionnement opérationnel de l’entité de service dont il a la responsabilité et sur la contribution mesurée de la performance de systèmes d’information aux résultats de l’entreprise Ces deux niveaux de compréhension de la performance des systèmes ne doivent pas être confondus.

 

Aussi, quatre séries de questions doivent trouver réponse dans les outils proposés par la DSI pour ses besoins propres et pour le positionnement de la fonction au sein de l’entreprise :

-        Indicateurs de qualité de service mesurés du point de vue du contrat de service qui lie la DSI aux directions métiers ; c’est la qualité contractuelle, ou excellence opérationnelle

-        Indicateurs de qualité de service mesurés du point de vue de l’utilisateur final ; c’est la qualité perçue, les utilisateurs mettant désormais en parallèle le niveau de service dont ils disposent à titre personnel et ce que propose l’entreprise

-        Indicateurs de contribution à la performance de l’entreprise permettant de vérifier que l’entreprise exploite tout le potentiel de l’IT ; c’est l’excellence stratégique

-        Indicateurs de préparation des évolutions futures ; c’est la pertinence de la vision, la capacité d’anticipation garantissant à l’entreprise que ses systèmes ne deviendront pas obsolètes. C’est un angle d’analyse insuffisamment traité mais qui revêt un caractère stratégique.

 

Ces indicateurs doivent apporter une visibilité  sur les cinq ressources exploitées par la DSI : données, applications, matériel et installations, technologies, ressources humaines, quel qu’en soit le mode de gestion, interne ou externalisé.

 

Il est évident qu'appliquer à l’informatique dans l’ensemble de ses composantes des règles de bonne gestion et de transparence donne confiance aux acteurs de l’entreprise sur la pertinence des objectifs et sur l’adaptation des moyens engagés à ces objectifs. La gouvernance permet d’apporter une réponse instrumentée sur la stratégie informatique, les investissements, la qualité de service, la gestion des projets, la maîtrise des risques, la qualité de formation et la motivation des personnels, la politique d’achats et la performance des fournisseurs…

Ce n'est pas un luxe, mais une obligation qu'il faut rendre accessible, naturelle et efficace. La gouvernance des systèmes d’information met un terme à une tradition d’opacité de l’informatique et permet d’en faire une ressource connue, maîtrisée et respectée.

Stratégie et pilotage des Systèmes d'information

Collection: Stratégies et ManagementDunod
2009 - 256 pages - 155x240 mm
EAN13 : 9782100532049 - Prix TTC France 29 €

 


Zoom, un livre fort...

Zoom Comment  l’industrie automobile a-t-elle pu sombrer aussi profondément dans le marasme et la médiocrité ? Pourquoi les compagnies pétrolières n’ont-elles pas préparé l’inévitable déclin de la ressource pétrolière ? Comment les politiciens n’ont rien vu venir et se sont accrochés désespérément au maintien du statu quo ? C’est aux Etats-Unis que ces erreurs ont été commises et ce sont les questions auxquelles tentent de répondre Iain Carson et Vijay V. Vaitheeswaran. 

Ce ne sont pas de dangereux provocateurs, mais deux brillants journalistes du très sérieux The Economist qui ont plongé au cœur de l’évolution parallèle des Big Three, General Motors, Ford et Chrysler et de Big Oil, les grandes compagnies américaines. Au-delà de ce bilan sans fard du déclin de l’alliance séculaire entre le pétrole et l’automobile aux Etats-Unis, et des profondes conséquences géo-politiques, ce livre ouvre de nouvelles perspectives pour l’industrie automobile mondiale et la recherche de nouvelles solutions énergétiques.

Leur credo est simple : le problème n’est pas la voiture, mais le pétrole. Et ils cherchent à en effectuer la démonstration la plus rigoureuse. Zoom, dont le sous-titre est « The global race to fuel the car of the future », publié en novembre 2007 sonnait le tocsin avant même que l’industrie automobile américaine, mais plus largement l’industrie automobile mondiale, ait totalement perdu ses repères. Aussi frappée que la banque par la crise, l’industrie automobile fait face à une double remise en cause : effondrement de ses ventes ( -38% en janvier 2009 aux Etats-Unis) ,crise de la demande compte tenu de la désaffection du consommateur américain pour les véhicules lourds et gourmands.

 Leur jugement est sans appel : « Les big Three sont devenues toutes de plus en plus faibles car elles n’ont pas accordé suffisamment d’attention aux nouvelles technologies, au développement de nouveaux véhicules innovants et au niveau de qualité de leurs produits», ce qui pour des industriels constitue une troublante accumulation d’erreurs. En se concentrant sur le seul marché lucratif des SUV (Sport Utility Vehicule), en multipliant de façon illisible pour le consommateur marques, modèles et réseaux, en blâmant la concurrence supposée déloyale de leurs compétiteurs japonais et coréens, les constructeurs américains n’ont pas vu venir la fin de leur monde, celui de l’addiction des américains au pétrole.


Toutefois les auteurs rappellent que les avertissements des crises précédentes n’ont pas été entendus. L’industrie a empoché 1,5 milliard $ de subventions fédérales sous Clinton, en 1993, avec la PNGV ( Parnership for a New Generation of Vehicles) dont sont issus trois concepts car sans lendemain industriel. Ils rappelent aussi que GM a lancé en 1996 un programme expérimental de véhicule électrique, l’EV1, assez concluant, mais qui a rencontré des problèmes de fiabilité avant d’être finalement arrêté. Les auteurs sont aussi sévères avec la politique pétrolière américaine. La seconde guerre mondiale a mis en évidence l’absolue nécessité pour les grands états de maîtriser leur approvisionnement en pétrole. Après cinquante d’exploitation de leurs champs domestiques, les Etats-Unis n’avaient dans les années quarante plus de réserve suffisante, ce qui a conduit leurs gouvernements successifs à sécuriser à tout prix leurs approvisionnements en pétrole du Moyen Orient par un accord de soutien militaire à l’Arabie saoudite, qui contient un quart des réseves mondiale connues, et aux états du Golfe. Cette addiction des Etats-Unis au pétrole, qui consomment 25% de la production mondiale de pétrole et près de 50% de la consommation d’essence, qui n’en payent pas le vrai prix, mais n’ont plus que 3% des réserves, est une constante de « l’Axe du pétrole ». Or cette dépendance géo-politique envers des partenaires fragiles et dont la fiabilité est suspectée est une grande faiblesse des Etats-Unis. 

On n’en mesure d’autant la portée, et la difficulté, des déclarations du président Obama qui veut « guérir l’addiction des américains au pétrole ». Si les Etats-Unis, leurs gouvernements comme leurs entreprises, tant automobiles que pétrolières, ont pu longtemps sous-estimer, voire railler, les menaces environnementales dues au réchauffement de la planète, s’affranchir des contraintes du Protocole de Kyoto et déclarer comme G. Bush que rien jamais ne fera changer le mode de vie américain, le désastre de la Nouvelle-Orléans en 2006 a commencé à faire changer l’opinion. Comme le 11 septembre, l’ouragan Katrina a été un révélateur de l’exposition des Etats-Unis à des menaces nouvelles et totalement ignorées . Seule une toute petite minorité californienne, aisée et adepte de la Prius avait jusqu’alors porté cette prise de conscience. Toutefois, le changement de culture est très lent et difficile. Ecrit en 2007, le livre met en évidence la persistance de compagnies comme ExxonMobil à nier la nécessité de réduire la place du pétrole dans l’économie américaine, son président, jusqu’en 2006, Lee Raymond déclarant que l’investissement dans les énergies renouvelables était« un complet gaspillage d’argent » . 

Toutefois, les auteurs ne se bornent pas à dénoncer le manque de vision des dinosaures de l’industrie pétrolière et automobile américaines, et leur alliance objective avec l’Arabie Saoudite. Ils analysent de façon complète les perspectives concrètes de changement. Leur première conclusion estque la rupture pourra venir d’Asie, les pays asiatiques ne pouvant pour leur développement suivre le même chemin « carboné » que les Etats-Unis. La question centrale est bien la capacité de la Chine, et de l’Inde , de s’affranchir d’un futur pollué et carboné par l’automobile à essence et les centrales électriques au charbon, pour faire le saut vers des technologies efficaces, novatrices et respectueuses des grands équilibres sans priver leurs populations des bénéfices du progrès matériel. L'issue de ce débat n'est pas facile à prévoir tant les contraintes socio-économiques qui pésent sur ces deux pays sont fortes. 
La rupture peut venir des Etats-Unis eux-mêmes, sur le modèle de la Californie qui a adapté des mesures sévères de réduction de la pollution automobile et où le républicain Schwarzenegger, qui n’a rien d’un vert natif, s’est toutefois converti à la logique environnementale par pragmatisme en même temps qu’il fait rouler son Hummer à l’hydrogène. Le front uni des lobbies commence à se lézarder, les menaces de Big Oil et des Big Three ne font plus peur, les activistes de l’environnement trouvent un écho auprès des venture capitalists qui voient dans l’environnement la prochaine vague de prospérité économique et les tycoons de la Silicon valley endossent sans nuance la croisade environnementaliste.

Sans faire de prédiction entre les technologies alternatives, électricité, pile à combustible, hyrogène, éthanol, qui prendront chacune leur part de marché avant que les techniques ne se restabilisent à nouveau dans une vingtaine d’années, et l'hydrogène reste un candidat crédible, les auteurs concluent que la course est cette fois bien engagée, que les solutions vont sortir des laboratoires et que la décennie 2010 sera celle du début de la transformation de l’industrie automobile. Ce livre synthétique et clair qui permet de comprendre que l’alliance historique entre l’automobile et le pétrole, qui non seulement a façonné le paysage américain, mais aussi conditionné la politique internationale pendant près d’un siècle, risque bien, cette fois de prendre fin.

La crise automobile de 2008-2009 et l’élection de Barrack Obama ne font que conforter les thèses des auteurs. La capacité de rebond des Etats-Unis est considérable et il ne serait pas surprenant qu’ils prennent le leadership de la nouvelle économie « verte ». Néanmoins, le fermier de l’Oklhahoma ne sera pas facile à convaincre…Images

Autres lectures sur le même sujet :
 - "L'économie hydrogène",  Jeremy Rifkin, La découverte, 2002
- "The Clean Tech Revolution", Ron Pernick, Collins Business, 2007
- "Hydrogène, l'avenir de la voiture", Pierre Beuzit et Laurent Meillaud, Archipel, 2007


La République de l'internet

Je ne me suis pas éloigné des travaux d'écriture et de communication depuis que j'ai abordé le métier du conseil ! Bien qu'absorbé par ce nouveau métier et mes charges d'enseignement, je prépare activement plusieurs textes pour ce blog, inspirés notamment de l'actualité politique. Mais plus encore je viens de lancer l'écriture d'un ouvrage qui s'appelle -provisoirement- "La république de l'internet" et qui sera publié, si tout va bien, chez Dunod au début de l'année prochaine.

L'idèe, ancienne, de cet ouvrage est venue de l'analyse du traitement par la classe dirigeante en France, mais pas seulement, de l'Internet. La campagne électorale pour les élections présidentielles consacre très peu de temps et de place aux réflexions sociétales sur l’impact de l’internet sur le fonctionnement des institutions, et plus encore, sur l’économie en général. Tout se passe pour les candidats, semble-t-il, comme si le monde n’avait pas vraiment changé et qu'il fallait pour tout remettre en ordre, ajouter une dose supplémentaire de la même potion magique que celle utilisée avec plus ou moins de bonheur depuis des décennies. Ils pensent qu’il suffit de mettre en valeur un site participatif ou d’entretenir un blog pour entrer de plain-pied dans la modernité de la société de l’information. Ces démarches, si elles ne sont pas inutiles, restent instrumentales, elles n’intègrent pas d’analyse sur la transformation de la société, à la fois mondiale et numérique. La compréhension de l’ampleur de cette transformation par les candidats paraît lointaine.

Cette approche superficielle de l’internet est hélas largement répandue dans les cercles de pouvoir en France, faute de pratique personnelle, faute de recul face aux événements du quotidien, faute également d’une pédagogie adaptée de la part des technologues qui laissent penser que l’internet est encore de « l’informatique ». Cette absence de compréhension pourrait continuer à désespérer les militants de l’internet pendant des lustres dans l’indifférence générale s’il n’y avait pas urgence.

« C’est une révolte ? Non, Sire, c’est une révolution ! ». Or la révolution Internet ressemble par maints aspects à ce qui s'est produit au milieu du XVIIIe siècle avec la publication de l'Encyclopédie, ou "dictionnaire raisonné des sciences, des arts et des métiers".

Le siècle des lumières a ouvert la voie à la profonde transformation économique et sociale du XIXe siècle. L’humanité s’est libérée en brisant des tabous ancestraux, en s’ouvrant à sa propre réalité en mettant l’homme au cœur de l’histoire. Les principes fondateurs de la modernité ont été forgé par ces philosophes qui ont fait prendre conscience à l’homme que le progrès était le résultat de l’analyse, de l’expérience et de la science et non plus de forces surnaturelles. La diffusion des connaissances en est le levier vital ! L’encyclopédie était le projet fédérateur qui permettait de formaliser toutes les connaissances acquises dans une seule source. Avec ses dix-sept volumes de texte et onze volumes de planches, 18000 pages de textes, et plus de vingt millions de mots, cette somme unique, à la fois philosophique et technique, a permis d’établir un socle culturel commun pour tous ceux qui voulaient d’affranchir des dogmes et croire à l'idèe de progrés. 25000 exemplaires ont été vendus entre 1751 et 1782, malgré l’interdiction laquelle l’Encyclopédie a été condamnée en 1759. Interactive, méthodique, dynamique, critique l’Encyclopédie ouvrait un nouveau chapitre de la connaissance dont Internet est aujourd’hui l’héritier légitime.

Mais si l’Encyclopédie est en soit un aboutissement remarquable dans le contexte et avec les moyens de l’époque, la voie qu’elle a tracée est encore plus impressionnante. La notion de liberté, la créativité scientifique, la démocratie sociale de marché ont été imaginées, inspirées, alimentées par le mouvement lancé par Diderot et d'Alembert. Certes il n'étaient pas seuls, et rappelons que l'Encyclopédie est un ouvrage collectif, rassemblant plus de 150 auteurs. Il n'étaient pas les premiers, s'inspirant de la Cyclopaedia britannique d'Ephraim Chambers parue en 1728 . Mais Diderot fut sûrement le plus visionnaire et le plus opiniâtre de tous.

On peut dire que si Diderot et les encyclopédistes en ont rêvé, notre époque l’a réalisé !

Internet s’est insinué dans nos vies depuis maintenant plus de dix ans pour toucher dorénavant plus de 1,1 milliard de personnes sur notre planète. L’Asie avec 400 millions d’utilisateurs, l’Europe avec 314 millions ont dépassé les Etats-Unis qui ont inventé Internet. Cette transformation n’est plus liée au développement de la technique : elle touche profondément les usages pour embrasser tous les aspects de la vie sociale et économique. Mais cette capacité collective nouvelle est de nature à répondre aux urgences du temps. Il y a urgence car la complexité systémique des questions que l'humanité doit traiter excède la capacité des individus, aussi "brillants" soient-ils. Or Internet permet précisément de co-construire, de façon massivement parallèle, un savoir efficace, mondial, multi-langues à la hauteur des enjeux.
L'impact de l'internet sur les sciences, les techniques, les pratiques, les politiques induit une transformation profonde des rapports au savoir.
Mais au-delà des cette accumulation de connaissances, Internet permet-il d'enrichir le sens de l'expérience humaine ? 180pxenc_1na5_600px


Promotion !

Looking Back and Going Forward in IT
Jean-Pierre Corniou
ISBN: 1905209584
Publication Date: January 2006 Hardback 200 pp.
35.00 GPB, 55.00 EUR, 58.00 USD


Description
Information technology now possesses an all-pervading influence in society: all areas of the social and corporate worlds use IT. However, despite its integral importance in society today, its development and future is often overlooked. This book places IT in perspective by tracing its development through time, covering its origins in business, the massive expansion of the role of IT at the end of the 20th century, the growth of the internet, and the successes and failures of companies involved in this development.
Despite its ubiquity in the modern world, the author highlights that efficient use of IT by businesses can only be gained by a good understanding of its potentials and pitfalls, highlighting how its informed use in practice is essential for companies to succeed. Finally, questions are raised concerning the future of IT: who will reap the benefits and why? Will IT continue to provide solutions and will it always deliver on its promise? Will it cease to advance and thus cease to be studied or will it continue to develop and thus provide new opportunities and challenges to users?
Contents
1. The First Information Revolution. 2. From Electromechanics to Electronics. 3. The Dawn of the Digital Era. 4. Light and Shade in the Digital World. 5. The Promise and Reality of Technology. 6. IT Policies in Efficient Enterprises. 7. New Instructions for CIOs. 8. New Vision(s)?

NB : Cet ouvrage est la version anglaise de "La société de la connaissance", paru chez Hermès Lavoisier