Previous month:
avril 2009
Next month:
juin 2009

La maîtrise du coût des logiciels, élément de la gouvernance

Sous le microscope de la direction générale, le budget informatique est encore essentiellement un budget de main-d’œuvre. Le coût des ressources internes permanentes et des prestataires externes représente la majorité des dépenses. Baisser les coûts c’est donc avant toute autre chose réduire les effectifs internes et externes. Cette approche est désormais insuffisante.

Le budget informatique se transforme sous la poussée de plusieurs évolutions structurelles. D’une part la contribution des ressources externes tend à ne plus être comptabilisée en équivalent temps plein dès lors que le fournisseur s’engage sur un résultat, forfait ou externalisation, et non plus sur la mise à disposition de moyens. Ces prestations de service font l’objet de contrats mesurés en unités d’œuvre accompagnés d’engagements de services. Toutefois, la régression du modèle bien français de « prestation en régie » est une mutation lente, l’invention de la « régie forfaitée »  traduisant la résistance du modèle.

Le second facteur est le recours désormais massif à des logiciels ou progiciels achetés pour exécuter des fonctions naguère développées  en interne. Cette transformation d’un travail artisanal effectué à l’unité en interne vers une logique industrielle correspond à acheter soit des machines outils pour produire de façon efficace du code, soit des produits finis permettant sans coût de main-d’œuvre additionnel d’exploiter un code  fabriqué  industriellement, et donc mutualisé entre les acheteurs. Dans tous les cas le recours à des logiciels, ou progiciels, doit se traduire par un gain visible en productivité, et donc par une baisse du coût de la main-d’œuvre. La rentabilité de cet investissement doit être directement mesurable.

C’est parce que cette logique industrielle froide est loin d’être celle mise en œuvre dans la majorité des organisations qu’il est essentiel de déployer une politique spécifique de maîtrise des logiciels et progiciels. Il s’agit désormais plus d’économie que de budget, de rationalisation des usages que de technique informatique.

On peut classer les logiciels en trois catégories :

-          les logiciels liés au poste de travail, système d’exploitation et outils bureautiques et collaboratifs

-          les logiciels applicatifs qui permettent d’exécuter une fonction métier, gestion ou production à partir d’un serveur

-          les logiciels techniques qui servent à fabriquer des applications ou exploiter les infrastructures

Le contenu en « main-d’œuvre additionnelle » est un élément clef de la rentabilité de l’utilisation de ces logiciels.  Une solution apparemment attractive peut se révéler coûteuse en support, en coûts de transition et en coûts de possession. Le coût apparent d’une solution ne se limite pas à l’acquisition du produit sur étagère, mais doit intégrer tous les éléments nécessaires à son déploiement au regard de la valeur produite. Ceci se condense en deux équations :

1/ Coût total de la solution = coût d’acquisition initial + coût d’intégration technique + coûts de maintenance  +  coût de support (par année de vie prévisionnelle).

2/ Valeur produite par la solution = gains fonctionnels (mesurés en efficience du processus ou impact métier d’une solution nouvelle) + réduction de coût total de possession + réduction de coût de la fonction - coûts de mise en œuvre fonctionnelle

La cause est à peu près entendue pour les logiciels du poste de travail, qui ne génèrent pas de fabrication de code supplémentaire, mais seulement du service dont il faut mesurer précisément l’impact. On ne voit plus, en principe, de département informatique produire son propre traitement de texte. Les produits sont exploitables dès la sortie de leur boîte après un effort de prise en main et d’appropriation. Néanmoins il faut être vigilant sur les effets d’accompagnement de choix impactant des dizaines de milliers d’utilisateurs sur le coût de la formation et surtout sur les risques de mauvaise utilisation des outils choisis.  En cas de rejet par les utilisateurs, une bonne affaire pour la direction des achats ou l’informatique peut se révéler catastrophique pour l’entreprise.

Les logiciels qui permettent de gérer une fonction métier sont des outils désormais indissociables des processus qu’ils permettent d’exécuter. Dès lors ils se confondent avec la fonction qu’ils servent. Un département d’ingénierie n’est plus concevable sans outil de CAO, un service comptable ne fonctionnera pas sans logiciel comptable ou ERP intégré. La rentabilité du déploiement  de tels outils ne se mesure pas seulement en réduction du coût de main-d’œuvre informatique, qui devient accessoire, mais surtout en productivité de la fonction. La tentation est dès lors pour la DSI de déléguer, ou d’abandonner, la gestion des ces outils aux directions métiers. Dans certains cas celles-ci n’hésitent pas à s’emparer du dossier d’elles mêmes pour prendre contact avec les éditeurs en direct et acheter des solutions sur leurs budgets propres.

Ce n’est certainement pas une bonne solution. Le coût total de possession de ces logiciels métier ne se résume pas en effet à la seule facture de l’éditeur. Il faut quand même rappeler qu’un système d’information d’entreprise est un ensemble dont seule la cohérence garantit l’efficacité et surtout l’efficience. Un logiciel acheté ne peut fonctionner sans une infrastructure d’exploitation, les postes de travail, le réseau de télécommunications, les serveurs et unités de stockage. Le coût d’utilisation de cette infrastructure est souvent plus élevé que les licences. Par ailleurs un logiciel métier s’intègre dans d’autres fonctions. Ces interfaces doivent être prévues et financées. C’est comme une voiture sans route, sans carburant, sans assurance…

Il est clair que la tentation des éditeurs est de mettre en lumière les gains fonctionnels apportés par leur solution sans s’attarder sur l’analyse des impacts collatéraux, ce qui fait des directions fonctionnelles des cibles  plus attentives que les DSI qui naturellement replacent le coût d’acquisition dans une perspective plus large de coût de possession pluriannuel, intégrant l’inévitable et coûteuse maintenance, et les coûts d’intégration, de montée de version et de support.

Enfin les logiciels techniques représentent un ensemble complexe et opaque  dont la maîtrise est délicate. En effet ces coûts s’accumulent dans le temps au gré des décisions techniques et leur durée de vie est liée à celle des  applications ou services pour lesquels ces outils se révèlent initialement associés. Ils ne sont pas toujours indispensables, remplacés au fur et à mesure de l’évolution technique par des solutions intégrées, ou simplement obsolètes.

La complexité du sujet de la maîtrise des  coûts des logiciels rend absolument indispensable  une  ferme maîtrise des décisions. Choisir et exploiter un logiciel implique un processus de décision de même nature pour les projets applicatifs  eux-mêmes d’autant plus qu’il est moins visible et que l’imputabilité  est diffuse. Qui doit prendre la décision de mettre en œuvre un logiciel ? Pour quoi faire ? Puis de l’acquérir en prévoyant un nombre approprié de licences pour en optimiser le coût. Puis de l’intégrer dans le système d’information de façon cohérente ? Quand décide-t-on d’arrêter de payer la maintenance, ou de retirer un logiciel, ou encore de vérifier que tous les droits sont convenablement exploités ?

On comprend aisément que ni la DSI, ni a direction des achats, ni une direction métier ne peuvent rassembler tous les éléments de décision. Sia conseil recommande donc la constitution d’une « filière logicielle » regroupant les parties prenantes et chargée de prendre les décisions et de suivre le cycle de vie des logiciels et progiciels.

Cette entité devient dès lors un axe fort de la politique de gouvernance  de l’entreprise car elle dispose d’une autorité technique et fonctionnelle qui doit s’intégrer dans un système de décision identifié et maîtrisé relevant de la direction générale. Il est évident que cette entité doit piloter également les décisions de recours à des solutions en location, comme les applications en Saas ou de « cloud computing ».

L’informatique d’entreprise a engagé une marche inexorable vers la standardisation et l’industrialisation. Comme dans tout système industriel, les coûts des composants achetés vont croître au détriment des coûts de production interne. Cette transformation ne doit pas être simplement vue comme une mutation banale, mais au contraire gérée comme une transformation substantielle de la fonction de la DSI.


Un nouvelle logique des transports urbains : Autolib'

 

 Plus que jamais, dans cette décennie 2010/2020 qui se profile, énergie et information vont se croiser pour constituer la trame d'un nouvel environnement sociétal. Cette réflexion, qui emprunte son cadre au modèle que constitue internet, fruit de la concentration des puissances et leur usage individuel, notamment  en mode  peer-to-peer, se décline dans les multiples dimensions de la vie économique. L'ère du web sera aussi celle de l'énergie intelligente.

Gérer la circulation automobile  en ville est un des défis les plus complexes que doivent résoudre les élus. Instaurer trop de contraintes soulèvera les réactions de ceux qui ne pensent ne pas pouvoir  se passer d’un véhicule individuel pour de bonnes, ou mauvaises, raisons. Assouplir les contraintes fera tempêter les écologistes. Il est donc  rare de voir se présenter  dans ce domaine un projet à la fois séduisant et consensuel. Ceci semblait être le cas avec le projet parisien AutolIb’ jusqu’à ce que les contraintes du calendrier politique, avec les élections régionales de 2010 et le dossier Grand Paris, soulèvent passions, tensions et incertitudes.

En effet les annonces du président de la République sur le dossier "Grand Paris" ne reprennent pas la dynamique du dossier lancé par la Mairie de Paris mais à vocation régional, Autolib'. Il y a pourtant matière à exploiter les premières réflexions sur la mise ne place d'un système complémentaire de transport public qui pour la prmeière fois intègre l'automobile dans une approche globale qui ne soit pas de concurrence ou d'exclusion face aux transports publics, mais d'intégration. Il semble que tous les acteurs devraient y trouver des motifs sérieux de coopération.

L’auto-partage rassemble en effet toutes les vertus pour générer un consensus : il s’agit de maîtriser la circulation automobile par la mise à disposition de véhicules partagés, en libre accès, moyennant un abonnement et un tarif horaire compétitifs. Autolib’, déclinaison parisienne de ce concept, vise à intégrer le véhicule automobile dans une gamme de moyens de transports publics  afin de réconcilier  les avantages des grands réseaux de train et métro, rigides et adaptés aux flux importants, avec la flexibilité du transport automobile, individuel, permettant  une desserte porte à porte.

Destiné d’abord à ceux qui ne possèdent pas de voiture, situation qui se développe dans les centres urbains et parmi les jeunes, c’est également un moyen d’attirer les habitants de la périphérie vers les hubs des réseaux ferroviaires.  Enfin, c’est un outil de dépannage commode pour ceux qui ont besoin d’un moyen de transport ponctuel et complémentaire en centre ville. Aujourd’hui, ces projets intègrent la  « nouvelle frontière » de l’industrie automobile, le véhicule électrique. Au-delà du service personnalisé offert par Autolib’, l’usage de véhicules électriques a pour vertu de réduire la pollution et les nuisances sonores  tout en facilitant la gestion de ces flottes de véhicules par internet et téléphone mobile.

Parmi les multiples projets des métropoles mondiales, nombreuses à être séduites par ce service, Paris a  engagé la réflexion depuis 2007 et dispose d’un projet avancé. Il s’agit de mettre en circulation 2000 véhicules électriques, répartis sur 700 stations, dont 200 en banlieue. Les pré-études de la mairie de Paris font apparaître 200000 abonnés potentiels.

Il semble que le consensus qui a entouré ce projet depuis son origine se lézarde rapidement. Les informations qui circulent sur Autolib’ font état de difficultés juridiques autant qu’économiques à la veille du lancement de l’appel d’offres, primitivement prévu en juin, chargé de faire émerger des consortiums capables de gérer le futur système. Ces obstacles ne sont  pas surprenants pour un projet d’une telle nature, complexe et en rupture.  Autolib’ ne ressemble en rien à Velib’  pour une raison simple : la voiture est un objet plus grand et complexe à gérer qu’un deux roues non motorisé. Il faut étendre le périmètre du service pour lui donner  une zone de chalandise plus étoffée et renforcer son attractivité. Le choix du véhicule électrique soulève des difficultés techniques compte tenu de l’inexistence d’une offre industrielle robuste, même si  cette échéance se rapproche rapidement.

Au moment où l’industrie automobile a besoin d’un souffle nouveau,  et s’engage dans une remise en cause salutaire, alors que les hypothèses pessimistes sur le réchauffement climatique se confirment, il est indispensable que les alternatives sérieuses soient explorées dans notre pays.

L’économie du développement durable est une chance que nous ne pouvons laisser à nos compétiteurs. Nous avons le privilège de disposer encore d’une industrie et d’opérateurs potentiels puissants pour réaliser dans la région capitale, dont l’attractivité internationale doit être sans cesse réaffirmée, une opération exemplaire d’un savoir-faire encore pionnier. Au-delà des difficultés techniques et économiques, réelles, d’une telle ambition, il serait absurde que des contraintes bureaucratiques et des rivalités  d’un autre âge sur la configuration optimale de l’Ile-de-France  viennent rendre encore plus complexe sa réalisation effective, voire, au pire, conduisent à abandonner à d’autres grandes cités le privilège de cette forme nouvelle de modernité.


Concentration des acteurs de l'informatique...suite !

J’ai déjà ici abordé à plusieurs reprises depuis l’origine de ce blog, en décembre 2005, ainsi que dans mon livre « La société de l’information » l’évolution du positionnement des grandes entreprises qui dominent le monde des technologies de l’information. Il me paraît en effet primordial, comme dans les autres secteurs économiques, d’analyser la stratégie industrielle des acteurs au moins autant que d’étudier leurs produits. C’est une chronique mouvante tant les nouvelles sont abondantes sur ce marché puissant et en constante recomposition.

L’informatique est avant toute autre considération une industrie puissante qui a crée un marché attractif et rémunérateur. Née dès son origine pour  se développer au plan mondial, l’informatique a connu une croissance continue en maîtrisant habilement la demande par un mélange efficace d’innovation, de marketing et de politique commerciale. Elle a  contribué à la globalisation de l’économie et en a été un des principaux bénéficiaires. Les acteurs qui la constituent ont réussi a conserver le contrôle de leurs revenus, alors que ce privilège a volé en éclat depuis longtemps dans la plupart des secteurs industriels. Seule l’émergence du web a commencé, depuis moins de dix ans, à ébranler ce modèle efficace. L’industrie « ancienne » de l’informatique est menacée par les jeunes pousses issues du web qui ont contourné les verrous techniques et culturels de l’informatique professionnelle et du marché d’entreprise à entreprise. Elles s’appuient pour cela  sur le marché grand public, avide de standardisation et d’innovation,  et surtout dégagé des contraintes de l' inertie d'une  base installée.

La question centrale aujourd’hui est de comprendre le jeu stratégique des « majors » de l’informatique, nés avant le web, qui demeurent les principaux interlocuteurs des directions  informatiques et systèmes d’information des entreprises.

Un renforcement vertical

Il est clair aujourd’hui que depuis 2005 les leaders du marché informatique mondial poursuivent sans répit un intense programme d’acquisitions qui renforce leur taille et leur puissance. C’est un processus ancien qui a façonné l’histoire de cette industrie où les leaders captent en les absorbant le talent des innovateurs tout en éliminant ainsi de futurs concurrents potentiels. Mais désormais les leaders ne recherchent plus seulement la taille dans leur métier de base, mais aussi une diversification vers les autres métiers des technologies de l’information en accroissant la taille de leurs prises pour proposer d’emblée au marché une offre intégrée.

Ainsi on tend à sortir du modèle précédent que j’avais qualifié « d’oligopole de couche », caractérisé par l’existence d’un acteur largement dominant par type d'offre horizontale  tout en maintenant un foisonnement de solutions de niches. Ainsi chaque domaine disposait d’un leader  et d’acteurs alternatifs : poste de travail, système d’exploitation, applications bureautique, réseau, middleware, applications généralistes (ERP) ou spécifiques.

Par rapport à cette structuration historique du marché, on observe un changement majeur qui marque une nouvelle étape de la maturation de l’industrie des produits et services informatiques. Le mouvement de concentration, initié autour de 2005, s’accélère depuis 2007. Il tend à verticaliser l’offre, chaque grand acteur cherchant  à disposer des capacités de répondre à l’ensemble de la demande.  Par ce mouvement, ils cherchent évidemment à protéger leurs revenus  en les rendant  récurrents, ce qui constitue la force des éditeurs, mais aussi à se préparer à contrer ou exploiter d’autres modèles, comme le libre et l’informatique distribuée,  la fameuse nouvelle informatique du nuage. Plus que d’une stratégie de concurrence entre majors de l’informatique, on peut penser que ces grandes manœuvres de concentration sont surtout la riposte d’une industrie classique qui voit à terme s’effriter ses ressources et  qui cherche à conjurer cette menace. L’informatique du nuage, évolutive, légère, et souvent gratuite, est le modèle natif du web. Sa séduction est incontestable sur les nouvelles générations qui n’ont connu que ça et peinent à imaginer l’informatique d’avant, fractionnée, propriétaire, lente et coûteuse. Inexorablement, la base historique des « majors » s’effrite et ses supporters disparaissent des cercles de décision. L’industrie classique doit réagir, mais pour protéger son modèle, elle ne peut que chercher à continuer à grossir. Elle en a encore les moyens.

Le mercato de l’informatique mondiale

Depuis le 1er janvier 2007, les leaders ont procédé à une vague spectaculaire d’acquisitions pour des montants considérables. Cette frénésie d’opérations a modifié la physionomie du secteur en réduisant le nombre d’acteurs indépendants sans nécessairement rendre pour le moment l’offre plus lisible.

Oracle a procédé a 25 acquisitions en deux ans dont la plus surprenante est celle opérée en avril 2009 pour 7,4 milliards $, de Sun Microsystems à la fois fabricant de matériel et éditeur d’outils logiciels. Cette oipération couronne une longue série car Oracle a déjà acquis PeopleSoft pour dix milliards de dollars en  2004 , Siebel en 2005 pour 6 milliards $, Hyperion en 2007 pour 3 milliards  et  enfin en 2008 BEA Systems ( 7,8 milliards $). IBM ( 103 milliards $ de chiffre d’affaires) a acheté 20 compagnies, dont cinq dans le service et quinze dans le software, pour 5 milliards $. La plus grosse acquisition est l’éditeur de solutions décisionnelles, Cognos pour 5 milliards $. SAP a acheté Business Objects ( 6,7 milliards $) pour disposer également d’une offre décisionnelle intégrée. Des grands acteurs pionniers des solutions décisionnelles seul SAS a réussi à maintenir son indépendance…

L’évolution d’Hewlett-Packard, qui affiche un chiffre d’affaires de 118 milliards $ est intéressante. Connu pour ses matériels, PC, serveurs et imprimantes, HP a toujours été un acteur du logiciel, notamment la supervision de réseaux. Mais sur la période HP a amorcé une diversification qu’il n’avait pas jusqu’alors réussi en faisant l’acquisition d’EDS, deuxième société mondiale du service, une de ses seize acquisitions dont sept dans le software, quatre dans les services et cinq dans le matériel. Ces acquisitions se sont élevé à 13,9 milliards $. Enfin il faut mentionner Cisco Systems qui réalise un chiffre d’affaires  de 40 milliards $. Cette firme est connue pour la qualité de sa stratégie d’acquisition, qui est le moteur de sa croissance. En deux ans Cisco a procédé à dix-neuf acquisitions pour 3,2 milliards $  essentiellement dans le logiciel. Cisco qui grâce a ses routeurs  a construit le succès d’internet cherche aujourd’hui à développer son empreinte dans les usages, notamment avec WebEx communications, leader des services de téléconférences, et ambitionne de capter une partie du prometteur marché domestique du stockage numérique.

Microsoft a échoué dans sa tentative - à 44 milliards $ ! - de contrer Google en rachetant Yahoo ! pour prendre le leadership sur le marché de la publicité sur internet, qui même frappé par la crise, est prometteur sur le long terme grâce à  la convergence des médias vers internet. Néanmoins Microsoft est également très actif sur le marché des acquisitions; on dénombre une trentaine d’acquisitions peu spectaculaires mais sur des outils spécifiques en 2007-2008. Microsoft a ainsi engagé depuis plusieurs années une véritable transformation en sortant de sa logique mono-produit "OS+ bureautique" pour entrer dans le monde applicatif et les bases de données, mais aussi en venant concurrencer Cisco, par exemple, dans les solutions de communication sur IP comme le webconferencing  et la téléphonie avec son offre intégrée OCS.

Et au-delà ?

Cet activisme d’achats traduit d’une part la bonne santé du secteur, qui pourrait néanmoins être rattrapé par  l’intensité de la crise aux Etats-Unis, et d’autre part une intensification de la  rivalité entre grands tout en asséchant la diversité de l’offre. Chaque acteur sort du secteur où il avait bâti sa notoriété et sa prospérité pour affronter les autres sur leur territoire où ils doivent faire leurs preuves. Larry Ellison a ainsi déclaré qu’avec Sun, Oracle était désormais la seule entreprise capable de concevoir l’intégralité d’un système d’information, de l’application au disque.

Ce mouvement conduit à s’interroger sur les chances des autres acteurs de conserver leur indépendance. EDS, leader indépendant du service, avait ainsi instauré une alliance, assez lâche toutefois,  avec Dell, Sun et EMC notamment pour être en mesure d’offrir à ses clients une solution globale. On comprendra qu’un des premiers objectifs d’HP a été de pousser ses propres matériels chez les clients d’EDS au détriment de ses partenaires antérieurs. Ainsi on peut penser que l’indépendance de Dell pourrait être compromise, à moins qu’à son tour Mickaël Dell n’entreprenne une campagne d’achats dont il pourrait avoir les moyens. Ce mouvement des « vieux acteurs » de l’informatique va-t-il cesser faute de proies accessibles  et de gains prouvés ? On sait que l’achat d’une entreprise  informatique de grande taille est un exercice difficile, qui mobilise des ressources rares notamment l’énergie et l’attention des dirigeants au détriment de leur capacité de réaction. Les logiques techniques d’intégration de logiciel sont aussi complexes et ne génèrent pas les gains attendus  immédiatement. L’addition des portefeuilles client ne se fait pas de façon simplement arithmétique. Les clients peuvent avoir le sentiment de se sentir piégés par la limitation croissante des rares zones de liberté qui leur restent et, faute d’innovation majeure, se replier sur les solutions antérieures éprouvées comme on a pu le constater avec l’échec de Vista en entreprise. Il faut aussi souligner que le coût élevé de gestion interne de ces vastes organisations transnationales et leur nécessaire monolithisme sont la contrepartie de leur gigantisme et ne facilitent ni l’innovation, ni l’adaptation fine aux besoins des clients. Dans l’ombre de ces géants, des acteurs plus agiles peuvent se développer en misant sur la carte de la créativité.

Cette course à la taille séduit plus les CIO américains que leurs homologues européens, plus soucieux d’indépendance et surtout habiles dans leur aptitude à choisir et assembler des solutions « best-of-breed ». Ceci va devenir toutefois  un exercice de plus en plus difficile, faute de disponibilités à terme de compétences internes, mais aussi faute d’une offre indépendante, innovante et séduisante.

L’informatique professionnelle, incontestablement, se fragmente en quatre blocs:

- Les poids lourds historiques sont en train de construire une offre intégrée "clefs en mains" , dont le degré d'intégration verticale applicative est potentiellement le plus poussé chez Oracle mais qui n edispose pas (encore ?) de l'arme du service fort utile à IBM et sûrement demaiin à HP

- Les acteurs plus pointus dans leur offre actuelle comme SAP, Microsoft, Cisco tendent à sortir de leur champ historique pour, peut-être, tenter de rejoindre le premier groupe

- Les éditeurs spécialisés, comme Dassault Systems pour la conception, très liés au métier dominant de l'entreprise , et qui doivent parfaitement se connecter aux systèmes d'information de type régalien

- Les nouveaux venus du web qui ont l’ambition de devenir les fédérateurs du nuage de demain, menés par Google et des nouveaux venus prometteurs, comme salesforce.com,  ou des acteurs nés intégrés comme Amazon et eBay qui mettent leur compétence verticale au service d’entreprises

Pour être complet il faut mentionner les solutions alternatives de l’OpenSource, classement qui n’est pas pur tant on sait qu’IBM est un acteur majeur du libre comme Oracle  pourrait le devenir en maintenant la logique initiée par Sun. Le libre en fait se surimpose à l’image des trois blocs.

Le monde de l’informatique répugne autant aux classifications qu’aux normes. Tout peut encore se produire.  Il y a encore du cash disponible dans ce secteur riche et la créativité en matière d’assemblage stratégique ne se ralentit pas. On peut une fois encore déplorer que l’Europe, absente, divisée, muette, n’ait plus les moyens de jouer une partition autonome dans ce concert de géants, dominé par les Etats-Unis. Mais il paraît évident que la lutte engagée sera d’autant plus violente que le marché des entreprises pourrait se contracter par l’effet durable de la crise.

Les DSI devront piloter de  façon méticuleuse les stratégies de sortie de crise. L’investissement informatique  qui a perdu son caractère intouchable, apparait aux décideurs assez peu efficace contre la crise, sauf comme poste d'économie immédiate ! La tentation est alors de laisser les systèmes fonctionner a minima, sans dépenses entraînant à terme une simplification naturelle du portefeuille applicatif par attrition. L'autre solution, plus ambitieuse, est de déclencher une migration accélérée vers des solutions moins complexes et coûteuses. Mais encore faut-il que les décideurs aient confiance dans la capacité des équipes internes et des fournisseurs à livrer le changement.

La crédibilité de l'informatique peut se jouer maintenant  en déclenchant un plan déconomies effectives permettant de recontruire une capacité d'investissements très sélectifs créant une valeur visible pour toutes les parties prenantes.