Previous month:
décembre 2007
Next month:
février 2008

Former à ou avec l'informatique : comment faire ?

Le rapide développement des technologies de l’information dans le grand public, en quelques années, a changé profondément la nature des relations que les acteurs de l’entreprise entretiennent avec les objets de l’informatique. C'est désormais un fait reconnu : il faut en tirer toutes les conséquences.

L’informatique est aujourd’hui considérée comme un acquis consumériste. Elle fait partie de la vie quotidienne en s’incarnant dans une multitude d’objets désormais familiers, du téléphone portable aux appareils de photos numérique, ordinateurs portables, consoles de jeux, lecteurs MP3, GPS… L’usage massif de l’internet, du chat, du SMS ont totalement démystifiés la complexité de l’accès aux réseaux, désormais complètement intégrés dans la vie sociale.

La plupart des utilisateurs ignorent le mode de fonctionnement technique de ces appareils et outils, dont ils attendent un service, ludique ou professionnel, ergonomique et fiable, et peu couteux. Le mode d'emploi leur suffit.

Les utilisateurs en entreprise n’ont plus comme dans un passé encore récent comme unique expérience de l’usage de l’informatique celle qui correspond à leur exposition à l’usage de l’informatique dans le seul milieu professionnel. Ils en ont une vue multiple, construite à partir d’expériences personnelles, comme celles de leurs enfants qui eux sont des « natifs numériques ». L’influence des apprentissages domestiques sur le mode de construction de l’approche de l’informatique a radicalement changé l’image de l’informatique auprès des utilisateurs. Leur demande est désormais de pouvoir disposer en entreprise d’outils de même nature que ceux qu’ils utilisent couramment dans leur environnement familier : ergonomie, souplesse, liberté, mobilité, continuité de la vie numérique entre le travail, le domicile, les différents lieux de vie.

Dès le plus jeune âge, l’exposition aux objets numériques change la nature de la relation entre l’enfant et l’apprentissage. La facilité qu’ont les enfants à comprendre et utiliser les objets numériques est déconcertante pour les générations antérieures ! Les étudiants qui fréquentent l’université ont depuis l’enfance découvert et utilisé ces techniques de façon naturelle et n’ont pas connu les systèmes et comportements antérieurs de l’ère pré-numérique. Cette « Y generation » est dépourvue de complexes dans l’utilisation de ces outils et a du mal à comprendre que l’on puisse « enseigner » l’informatique. Entrant en entreprise, elle ne comprend pas un mode d’approche institutionnel de l’informatique qui consiste à identifier l’informatique comme un sujet spécifique, confié à une direction dédiée, et gérant de façon conventionnelle, voire malthusienne, l’accès aux outils d’information.

Cette appropriation spontanée, qui développe familiarité et confiance, détourne les jeunes d’une approche académique de l’informatique qui assimile encore trop souvent les systèmes d’information à des objets et méthodes techniques.

Toutefois, contrairement à une image trop répandue, la généralisation de l’usage d’objets informatiques ne conduit pas les jeunes générations à mieux comprendre les systèmes d’information. Au contraire, la familiarité avec l’outil les conduit à se dispenser de l’effort de compréhension et de méthode qui permet de passer d’une approche instrumentale à une vision systémique. La construction théorique de modèles organisationnels exploitant les ressources des systèmes d’information n’est nullement facilitée par la familiarité avec les outils. Elle impose un effort particulier d’abstraction et de synthèse qui doit être engagé progressivement et qui commence dès l'école.

Les relations entre l’informatique et l’école ont fait l’objet dans notre pays de multiples tentatives de rationalisation, tant l’utilisation d’outils - à commencer naguère par la télévision - a pu soulever de controverses entre les tenants d’un enseignement pur sacralisé par la parole du maître et ceux d’un enseignement piloté par l’enseignant mais acceptant d’être « poly-supports ».

Une fois encore le rapport Attali, après beaucoup d’autres, remet l’accent sur le développement de l’apprentissage des TIC à l’école, proposant « notamment » de repenser « l’équipement des écoles du premier degré dans le cadre de plateaux technologiques cohérents et ouverts aux élèves et aux familles. »
Il insiste à nouveau sur la nécessité de « vérifier à l’occasion du passage en 5e que chaque enfant maîtrise l’informatique et Internet, par l’obtention d’un «Brevet informatique et Internet», proche du «Passeport de compétences informatiques européen». Certes ces propositions sont justes et cohérentes, mais hélas n’apportent rien de nouveau dans un paysage français où l’incompréhension de l’informatique par les décideurs ne fait que continuer à confondre l’équipement en machines, certes absolument indispensable, avec le développement des savoir-faire que l’utilisation d’applications informatiques peut renforcer dans les connaissances les plus variées. Bien sûr accéder à l'information sans matériel est un rêve absurde : il faut des machines en nombre suffisant (un ratio d'une machine pour deux élèves, jusqu'au bac, puis une par étudiant ne doit plus du tout être considéré comme utopique), un accès internet dans chaque salle de cours, des vidéo-projecteurs. De plus ces machines doivent être convenablement maintenues...

Mais la vraie transformation est dans les programmes. Pour la très grande majorité des élèves et étudiants, on n'apprend pas l'informatique, on apprend par l'informatique. C’est par l’intégration de l’outil informatique dans les programmes pédagogiques en permanence en classe et pas seulement quelques minutes par semaine que l’on peut faire évoluer les savoirs…. Il faut rappeler que le brevet informatique et internet ( B2i) de niveau 1 à l’école primaire (fin du CM2) et de niveau 2 en collège existe depuis 2000, et que le C2i, pour les étudiants et enseignants date de 2002. Enfin le PCIE, excellent outil qui existe depuis 1996, est boudé avec constance tant par les entreprises françaises que par l’Education nationale. Il a été passé par 30 millions de personnes dans le monde, dont seulement 510000 en France.

Le rapport d'Henri Isaac, maître de conférences à Paris-Dauphine, sur l'université numérique, remis en janvier 2008 à Valérie Pécresse met en évidence, une fois encore de façon claire et pragmatique, les retards des universités françaises par rapport à la compétition internationale, et propose, grâce à une université 100% numérique un nouveau modèle de complémentarité entre l'enseignement présentiel synchrone enrichi par les TICE et l'enseignement à distance asynchrone.

L’objectif de l’enseignement doit intégrer la nouvelle donne en matière de connaissance active des outils informatiques. Pour attirer les étudiants vers les sujets touchant les systèmes d’information, il faut, comme en entreprise, dissocier l’élaboration et le pilotage des choix stratégiques et la compréhension et la maîtrise des outils qui les supportent.

Il faut conduire les étudiants, futurs professionnels généralistes, à comprendre les bases de la gouvernance – en d’autres termes, les techniques de prises de décision - dans tous les métiers qui aujourd’hui exploitent le potentiel des technologies de l’information. C’est un socle fondamental qui traverse toutes les disciplines du management.

En effet, l’utilisation des outils de traitement de l’information et de la connaissance dans l’innovation implique une approche cohérente, volontaire et lucide de la part du management. L’informatique a été utilisée la plupart du temps pour gérer au mieux l’existant, alors qu’elle peut, et doit, être sollicitée pour créer des formes nouvelles, produits, process, compétences, et exploiter de nouveaux territoires. La compréhension de la complexité de l’innovation nécessite une sensibilisation particulière. Les innovations sont le fruit de l’interaction dynamique de trois vecteurs : les hommes qui les imaginent, les conçoivent, les réalisent, les structures qui les financent et les propagent, les utilisateurs qui s’en emparent et se les approprient pour les métaboliser. Elle s’inscrit dans une logique sociétale où s’arbitrent en permanence ce qui est techniquement possible et ce qui est socialement accepté. C’est à travers cette mécanique complexe d’acteurs que, dans le temps et dans l’espace, se joue le sort des innovations technologiques. La production d’innovation vient enrichir le stock de ce qui est utilisable, alors que les logiques économiques, l’acceptabilité sociale et la capacité d’apprentissage font un tri pour choisir ce qui est utilisé, et en définitive c’est l’usage qui finit par consacrer ce qui est vraiment utile.

Cette nouvelle situation conduit nécessairement à changer la nature des acquis attendus au sortir de l’enseignement supérieur autour de trois niveaux :

- les utilisateurs
Ils ont confrontés à des logiques d’usage opérationnel en milieu professionnel des systèmes. Ils doivent en comprendre les fondements, et pas seulement la manipulation*, car la productivité du travail tertiaire dépend aujourd’hui de façon directe de l’aptitude des acteurs à exploiter les outils qui leur sont confiés. Les managers doivent comprendre les logiques d’usage, développer une écoute active des réactions des utilisateurs mais ausis des positions des fournisseurs de solutions, proposer des modifications aux services informatiques, stimuler sans complaisance les initiatives de terrain, traquer la destruction de valeur par un usage inadapté. Un premier niveau d’exigence managérial peut être défini autour de cette action d’exploitation dynamique des systèmes et outils dans une organisation dynamique des compétences et des processus.

Enfin, pour homogénéiser les usages, et différencier l’usage ludique de l’usage professionnel, tous les étudiants devraient passer le PCIE - * Passeport de compétences informatique européen - (http://www.pcie.tm.fr/) qui est à l’informatique ce que le TOEFL est à l’anglais.
Ces compétences devraient être acquisespar chacun en sortie de licence.

- les managers
Ils sont utilisateurs, mais ils ont comme responsabilité propre l’optimisation des investissements et des budgets de fonctionnement de l’entreprise dans les technologies de l’information. Ils doivent bien entendu à ce titre comprendre les métriques de performance ( de type « balanced scorecard ») et être capables d’orienter les investissements de façon dynamique vers la création de valeur ; leur compétence centrale doit inclure cette capacité d’analyse des outils, de leurs contribution visible à la performance économique et au développement des compétences, mais aussi proposer des améliorations systémiques à l’ensemble organisation/processus/systèmes. Ils doivent être rompus aux mécanismes de la gouvernance des systèmes et comprendre les grands référentiels de type CoBit. Ils doivent être capables de veiller à la sécurité d’usage des systèmes, à la protection des droits des personnes et à la sauvegarde de la valeur du capital immatériel.
Ces compétences sont incluses dans les formations métiers au sein de modules spécialisés et obligatoires, quelque soit la discipline principale.

- les experts
Consultants, architectes, directeurs de programme, les experts ont vocation à organiser la fonction informatique et systèmes d’information. Ils en comprennent tous les métiers mais sont des organisateurs et des managers, et non pas des développeurs ni des ingénieurs systèmes. Familiers des outils, méthodes, langages informatiques, ils sont capables de prendre des décisions en environnement complexe et de les faire partager au comité exécutif et au conseil d’administration aussi bien qu’aux direction métiers. Ils peuvent faire des choix de solutions et d’acteurs, construire et piloter des montages technico-commerciaux complexes et piloter la combinatoire des moyens de l’entreprise dans les technologies de l’information. Ils sont ultimement responsables de la politique informatique et systèmes d’information et des grandes décisions en matière de maîtrise et de protection du capital cognitif et informationnel. Ils ont en charge la construction et la maintenance de l’auditabilité de la fonction à travers les outils d’analyse et d’audit.
Ces experts sont formés aux niveaux maîtrise et doctorat.

Un changement d'approche est indispensable pour donner envie aux jeunes générations de considérer les TIC comme un territoire de découverte et non pas comme une nouvelle matière imposée dans des horaires déjà lourds. C'est aussi le moyen d'en faire un sujet de recherche pour dépasser l'usage et comprendre en profondeur les interactions subtiles qu'induit la société numérique dans les savoirs, l'émergence de l'innovation et les changements de comportement. Au delà des rapports, bien faits et concrets, il faut désormais un vrai plan d'action pour porter en France les enseignements au niveau requis par la société numérique.


Rapport Isaac : http://media.education.gouv.fr/file/2008/08/3/universitenumerique_22083.pdf



De l'innovation en informatique

En rangeant mon disque dur, exercice passionnant qui permet d'exhumer quelques vieux textes patinés par le temps, j'ai trouvé cette réflexion qui date du début de 2004 et a été publiée dans la défunte revue "L'informatique professionnelle" . Je ne résiste pas au plaisir de la jeter en pâture au lecteur en ce début d'année pur nous rendre plus lucides sur l'innovation, mais aussi plus exigeants.

"Il y a encore quelques temps, il aurait pu paraître curieux, voire même provocateur, de s’interroger sur les relations entre informatique et innovation tant l’informatique a longtemps été porteuse dans la représentation collective d’une image sans tache de modernité et de progrès. Il y a en effet très peu de secteurs économiques qui peuvent s’enorgueillir de repousser sans cesse depuis si longtemps leurs limites technologiques, à l’image de l’emblématique loi de Moore, et de célébrer avec tant d’éclat leurs performances. Depuis un siècle, et surtout depuis les années cinquante, tout réussit à l’informatique, propulsée par quatre puissantes vagues d’innovation matérielles et logicielles. Dans les années soixante IBM et le BUNCH inventent les ordinateurs centraux, puis au début des années soixante dix DEC lance les ordinateurs départementaux. En quatre vingt apparaît le révolutionnaire micro-ordinateur, vite relié en réseau, puis connecté mondialement grâce au web en 1993. Mais après la frénésie d’investissements justifiés par le passage de l’an 2000 et l’éclatement de la bulle le monde informatique semble patiner. L’informatique serait-elle en panne d’inspiration ? Aurait-elle perdu son aura et sa magie ?

Pour qui sonne(ra) le glas ?

Industrie écologiquement bien pensante, composée de personnel qualifié, à l’image moderniste, l’informatique n’a guère suscité de rejet, tout au plus de l’indifférence. Le marketing et les relations publiques de l’industrie de l’informatique et des télécommunications se sont chargés d’entretenir la flamme et se sont toujours révélés prodigieusement efficaces pour focaliser l’attention sur les nouvelles prouesses de leurs produits. Toutefois, l’industrie informatique traverse une crise de désenchantement qui amène tous les acteurs à s’interroger sur les perspectives réelles de cette industrie. Et tout porte à croire que ce n’est pas une baisse de forme passagère. L’article de Nicolas Carr paru en mai 2003 dans la Harvard Business Review, « IT doesn’t matter », a sonné bruyamment la première charge contre l’informatique toute puissante, ouvrant une brèche dans laquelle se sont engouffrés tous ceux que l’arrogance de l’informatique a pu agacer et qui finalement se sont révélés plus nombreux que prévu ! La question, nouvelle, est désormais posée : l’industrie informatique va-t-elle définitivement se banaliser et rejoindre dans l’anonymat de la routine quotidienne d’autres industries stars qui, en leur temps, ont révolutionné notre appréhension du monde avant de succomber à la fatalité de la courbe en S ? Ou bien va-t-elle continuer son essor vers de nouvelles perspectives de transformation en se réinventant grâce à une nouvelle alchimie composée de rêve, de réussite économique et d’appropriation collective ? Qui pourrait gagner, qui pourrait perdre, parmi les acteurs de l’écosystème informatique : éditeurs, consultants, intégrateurs, fabricants de matériel, sociétés de télécommunications, informaticiens d’entreprise, direction des systèmes d’information d’entreprises ? A quelles évolutions de la localisation des compétences va-t-on assister ?

De l’innovation

L’innovation technologique ne provient pas d’un monde extérieur désincarné en percutant nos sociétés telle une météorite. Les innovations naissent au sein de nos sociétés et sont le fruit de l’interaction dynamique de trois vecteurs : les hommes qui les imaginent, les conçoivent, les réalisent, les structures qui les financent et les propagent, les utilisateurs qui s’en emparent et se les approprient. Elle s’inscrit dans une logique sociétale où s’arbitrent en permanence ce qui est techniquement possible et ce qui est socialement accepté. C’est à travers cette mécanique complexe d’acteurs que, dans le temps et dans l’espace, se joue le sort des innovations technologiques.

La production d’innovation vient enrichir le stock de ce qui est utilisable, alors que les logiques économiques, l’acceptabilité sociale et la capacité d’apprentissage font un tri pour choisir ce qui est utilisé, et en définitive c’est l’usage qui finit par consacrer ce qui est vraiment utile.

Le déplacement des vagues de l’innovation se fait ainsi à partir du cœur de la recherche scientifique, dont les recherches sont transformées par la maîtrise industrielle, vers la périphérie de l’usage. Plus une technologie est adoptée, plus elle se dissout dans la banalisation qui a fait son succès et perd son aura. C’est ce qui se passe avec l’informatique. Le modèle de Von Neuman qui a formalisé la structure de base de l’informatique et permis l’essor de cette industrie n’a pas changé. Mais qui sait qu’une calculette à 2 euros ou un téléphone portable sont des ordinateurs. Même les grands ordinateurs scientifiques ont laissé la place à des fermes de serveurs banalisés. Qui s’en soucie désormais dès lors que la rareté a disparu ? Des produits souvent banals intègrent des technologies sophistiquées, un des meilleurs exemples étant le DVD, réussite de l’intégration de l’optique, de l’électronique et des algorithmes de compression de l’information. Dans cet exemple l‘adoption rapide du service rendu a fait baisser les prix au point où un lecteur DVD est aujourd’hui vendu le prix de deux disques DVD !

Ce qui fait de l’informatique un objet désormais banal est précisément ce qui a fait son succès : accélération de la vitesse, augmentation de la fiabilité, miniaturisation, autonomie en énergie croissante, facilité d’accès grâce à des logiciels de plus en plus simples – le navigateur web est devenu l’outil universel d’accès – mobilité et interopérabilité et surtout baisse des prix. Non seulement les outils sont plus performants, mais l’utilisation de l’informatique se répand dans tous les secteurs de l’activité, des plus classiques comme le commerce de détail aux plus sophistiqués comme la chirurgie ou les bio-technologies. Ce mouvement se poursuivra. Ceci signifie nullement la fin de l’histoire informatique car il se prépare bien sûr dans les laboratoires d’autres innovations qui vont permettre d’élargir l’usage en enrichissant les contenus et rendant encore attractifs les contenants. Mais l’addition de techniques ne suffit plus à alimenter le mythe quand la magie est dissipée.

La banalisation démocratique

Au milieu du XIXéme siècle, l’électricité statique était une attraction de foire. Comme le cinéma. Puis ces prouesses individuelles ont donné naissance à de puissantes industries qui ont mis quelques décennies à trouver leur taille adulte. L’exposition universelle de Paris en 1881 consacrait le statut industriel de l’électricité, mais l’électrification de la France a pris des décennies. Un immeuble sur trois seulement était électrifié à Paris dans les quartiers riches, en 1914, mais seulement un sur vingt dans les quartiers populaires. La photographie a mis des décennies pour sortir du domaine de la découverte et se démocratiser. Il est paradoxal que la numérisation rattrape pour la déstabiliser une firme aussi robuste que Kodak qui avait innové en contribuant à rendre la photographie facile et populaire dès 1900 avec ses célèbres appareils Brownie à 1$.
L’informatique, elle, est née adulte et mondiale, sérieuse et coûteuse. Elle ne s’adressait qu’aux grandes entreprises et aux puissantes organisations publiques. Et même si la mise au point de cette technique s’est révélée complexe et coûteuse, tout allait bien pour la poignée de spécialistes qui en avaient la charge. Au grand dam de ces experts, l’informatique a commencé à quitter le champ des grandes organisations pour percer dans le grand public avec le micro-ordinateur et c’est la généralisation de la micro-informatique propulsée par le Web qui en quelques années lui a donné le statut d’industrie de masse désacralisée. Il y a désormais un milliard de micro-ordinateurs dans le monde. En quatre ans, un tiers des 22 millions d’internautes français se sont connectés au web par des lignes à haut débit ADSL usage qui était absolument inimaginable pour les informaticiens d’entreprise… comme pour les sociétés de télécommunications.

Depuis lors, cette industrie portée à célébrer le culte de la technologie assiste à sa propre banalisation. Qui se soucie désormais de la puissance de son micro-ordinateur ? Le langage codé des systèmes d’exploitation, des gigabytes et des méga-octets ne fait plus recette. De plus cette transformation ne se limite plus au grand public, mais concerne aussi maintenant les infrastructures des grandes entreprises. Il n’est plus nécessaire de posséder avec fierté ses grands ordinateurs, car la banalisation, appelée ici « utility computing », - fiabilisation, puissance et économie d’usage - concerne aussi les composants centraux des systèmes d’information des entreprises. Certes la technicité y demeure forte, le poids de l’héritage applicatif est encore lourd, mais les méthodes et les outils industriels mis au point au cours des dernières années permettent de gérer l’énergie informatique de façon industrielle. Cette révolution s’est faite en quelques années et brutalement l’industrie informatique a accédée à la maturité, c’est à dire à la baisse des prix et donc des profits. Ce qui compte désormais c’est l’usage, pour tous, de la puissance, de la fiabilité, de la bande passante et de l’ergonomie. La discrimination dans les choix se fait désormais plus sur des critères consuméristes que sur les performances techniques intrinsèques.

Les télécommunications en panne ?

L’histoire récente du téléphone préfigure assez largement le sort de l’informatique, au moins dans ses couches d’infrastructure. L’ère du 22 à Asnières est définitivement révolue dans nos pays. Tous les habitants des pays développés utilisent un téléphone même s’il ne faut pas oublier que près de deux habitants de la planète sur trois ne passeront jamais de coup de téléphone de leur vie. Ce qui laisse un bel avenir à l’industrie du mobile qui relègue les vieilles dames du fixe au statut d’icônes préhistoriques, devenues des mamies Bell. Le téléphone vocal a longtemps été une machine magique, un objet de désir. Aujourd’hui ce n’est qu’un objet banal qu’on jette rapidement au gré des modes. La grande force de l’industrie du mobile est de se renouveler par l’usage, certains futiles comme le téléchargement des fonds d’écran ou des sonneries, mais aussi par de vraies trouvailles sociologiques comme le SMS et peut-être l’image. Mais c’est une industrie sous pression des coûts, avec des marges laminées et une concurrence féroce entre les grands anciens comme Motorola ou Nokia et les nouveaux venus agressifs comme Samsung et LG avant que n’entrent en scène à grande échelle les producteurs chinois.

La convergence

Depuis plusieurs années, l’utilisation de composants et de logiciels informatiques dans les appareils électroniques conduisait à prédire la convergence des industries informatiques et des industries électroniques. De fait, la numérisation des informations conduit à ce rapprochement sans toutefois que les deux familles industrielles se confondent, chacune conservant son indépendance. Cette hésitation semble révolue, la convergence gagne du terrain à travers des industries comme celle des écrans plats qui servent aussi bien l’informatique que la télévision, ou la numérisation complète des supports audio et vidéo. Dès lors les fournisseurs informatiques n’ont pas de difficulté à franchir le pas pour investir le domaine des écrans de télévision que les grands fabricants d’ordinateur commencent à attaquer. L’industrie du disque, autant support physique que contenu, vit cette transformation dans la douleur, alors que les acteurs de l’informatique excellent, comme Apple, dans la captation de ce marché de la musique numérique à consommer plutôt qu’à posséder.

Nouveau produit cherche service

Les revues et séminaires informatiques bruissent des innovations qui vont à nouveau faire faire un bond en avant à l’industrie. La question se pose de savoir si ces innovations vont générer de nouveaux usages attractifs, justifiant ces nouveaux investissements, ou simplement entretenir le renouvellement du parc applicatif et des infrastructures. Car pour les utilisateurs professionnels il faut des motifs sérieux pour investir dans des techniques nouvelles plus perturbatrices que génératrices de gains.
Le champ majeur de développement restera la poursuite de la numérisation complète des informations et donc des processus de création, d’industrialisation, de commercialisation et d’échanges entre acteurs économiques. Autour d’Internet, se développeront les échanges entre les acteurs des mêmes écosystèmes pour créer de vastes entreprises étendues, comme se développera entre les personnes d’une même entreprise, d’une même communauté d’intérêt un tissu de relations économiques, culturelle et sociales. Les usages collectifs d’Internet sont encore limités par l’insuffisant équipement des ménages et les difficultés d’apprentissage, obstacle qui se diluera dans les jeunes générations du « chat » et de Kazaa.
La mobilité des personnes et des objets est un vecteur majeur d’innovation annoncée. L’utilisation de la voix sur IP, qui n’en fait qu’un cas particulier de flux de données, à travers un micro-ordinateur connecté en Wi Fi semble ouvrir une ère nouvelle de connectivité, l’extension des capacités du WI-FI vers le WIMAX (802.16) d’une portée de 50 km à 70 M bit/sec et l’UWB(ultra wide band) pour les courtes distances compromettant même les chances, déjà fragiles, de l’UMTS au moins dans les zones denses. Les étiquettes électroniques ( RFID : radio frequency identification) vont permettre de relier les objets, sans contact, aux systèmes d’information de façon plus facile et généralisable que les étiquettes à code à barres, fluidifiant la chaîne d’approvisionnement.
Enfin l’informatique continuera à repousser les limites de la modélisation dans les applications de santé, de bio-technologie, dans le développement industriel, dans la compréhension de la matière et de l’univers.
Ces nouveaux produits enrichiront les services existants dans une société plus avide de connaissance et de rapidité. Elles pourront continuer à laisser au bord de la route tous les exclus de la société numérique, ou, peut-on espérer, contribuer à leur réintégration dans la société tout court.

La course off shore

Si l’innovation dans les couches techniques va graduellement enrichir ce qui est possible, c’est par la capacité de mettre en œuvre ces outils par des logiciels appropriés que les changements se concrétiseront dans les processus métier. Les logiciels représentent donc la voie royale du changement. Il reste que la production de code applicatif demeure une activité consommatrice de ressources pour les éditeurs dont c’est le métier mais aussi pour beaucoup d’entreprises utilisatrices qui doivent gérer la transformation de leur parc applicatif. Le cœur applicatif des grandes entreprises est en effet composé d’applications anciennes mêlées de façon souvent inextricable, sans urbanisme d’ensemble, sans cohérence technique. Ces couches historiques sont coûteuses en entretien technique et en modifications, parfois simplement pour des raisons légales et sans création de valeur. Toute insertion d’innovation perturbe l’équilibre souvent instable des applications antérieures, et coûte cher en création d’interfaces nouvelles..
Pour accomplir les tâches informatiques répétitives de maintenance ou de conversion de codes anciens, les entreprises ont engagé la recherche de solutions plus économiques que l’emploi de techniciens et de cadres de pays développés. Elles se sont orientés en premier lieu vers l’industrialisation et l’automatisation des tâches de réalisation de logiciels. Ces méthodes et outils ont toutefois trouvé leurs limites dans les technologies classiques, mais, de plus, les innovations confortables pour les utilisateurs, comme les interfaces web, se sont révélés contre-productives pour les développeurs. Puis dans une deuxième étape, les « producteurs » de code ont cherché des solutions moins onéreuses en coût de main d’œuvre dans des pays aux salaires plus compétitifs.
Ce mouvement vers l’externalisation off-shore a commencé aux Etats-Unis et en Grande-Bretagne au début des années quatre-vingt dix. L’exploitation des ressources informatiques mondiales trouve son origine dans la même démarche économique que pour les métiers industriels. Elle a été beaucoup plus rapide dans les pays anglo-saxons qu’ailleurs pour des raisons culturelles, linguistiques, légales. Ceci a clairement favorisé l’essor de l’Inde dans ce secteur. Mais le problème n’est pas seulement économique. Les firmes indiennes ont développé une compétence rare dans la gestion des processus, sont devenus champions du niveau 5 du CMMI, et vont sans aucun doute étendre leurs compétences vers la gestion complète de processus. S’il s’agissait de simplement trouver une main d’œuvre meilleure marché, bien que formée, pour « faire du code », l’Inde se verrait elle-même dépassée par des pays plus compétitifs, comme les Philippines. Mais l’Inde est en train de construire une véritable usine informatique puissante qui sert tous les acteurs mondiaux de l’informatique et pose un énorme défi aux Etats-Unis, qui risquent de perdre des centaines de milliers d’emplois en informatique, ce qui devient un problème politique majeur aux USA.

La course off-shore se joue non seulement sur les coûts mais désormais de plus en plus sur l’expertise. C’est un défi considérable pour les pays développés qui se croyaient mieux protégés dans les métiers de la « manipulation de symboles » que dans ceux utilisant la seule main d’œuvre.


Le monde de l’informatique et des informaticiens est instable. Si l’innovation ne gagne pas les couches les plus importantes de la population, dans les entreprises comme dans la société, pour s’intégrer de façon harmonieuse dans les pratiques courantes de la vie, l’informatique n’aura pas remplie sa mission de transformation. Si elle réussit, elle perdra en grande partie son identité. Les informaticiens ont cette redoutable charge de transformer une formidable réussite collective en banalisation de leur métier tout en conservant leur professionnalisme et leur rigueur. "

Un peu moins de quatre années plus tard, le diagnostic n'a pas changé. Nous avons certes de nouveaux outils, plus beaux, plus performants, mais la créativité dans l'usage, surtout professionnel, reste en panne. Le monde du bureau peut sans craindre de pertes de performance continuer à fonctionner avec des outils anciens... Nous attendons vraiment la "killer app", celle qui va donner un vrai coup de vieux à nos applications. Il faut pour cela balayer les inhibitions, exploiter pleinement internet changer le management pour donner aux acteurs de terrain plus de pouvoir, et faire confiance aux outils pour rendre compte intelligemment et automatiquement à notre place... Il faut aussi s'engager dans l'internet des objets pour faire - enfin - toutes les choses inutiles à notre place, trouver et classer les courriels, ou les dépenses, mettre de l'ordre dans le disque dur, créer de l'information contextuelle... Il faut vraiment exploiter puissance et bande passante pour nous aider à mieux vivre notre quotidien pour faire des choses vraiment nouvelles, éducation, santé, économie d'énergie, sécurité, mieux vivre... Cela prend du temps !


Vous avez dit "Saas" ?


Sous ces lettres mystérieuses, qui évoque quelque service secret ou une célèbre station de montagne suisse , se cache un nouvel acronyme dont l’informatique est gourmande : « Software as a Service ». Mais SaaS est plus qu’une nouveauté et pourrait constituer cette « killer app » que l’industrie informatique attend et redoute, en l’occurrence une arme redoutable de destruction massive du tissu informatique traditionnel établi depuis plus de trente ans.

Depuis qu’IBM, à l’aube de l’informaique moderne, a commencé à vendre séparément ses logiciels et ses machines s’est développé un marché très dynamique de la vente de logiciels à partir desquels entreprises et administrations, les plus gros consommateurs d’informatique, ont pu construire leurs propres applications. La construction et la maintenance de ces applications représentent le fondement du marché informatique et de ses emplois. Ces applications, ont pour l’essentiel été construites ex nihilo avec des langages de programmation comme le Cobol, Natural ou Java, puis, très récemment, assemblées à partie de briques de base, par des informaticiens maison, renforcés par des informaticiens sous-traitants, sur la base de cahiers des charges écrits par des utilisateurs internes, eux-mêmes soutenus par des consultants. Cet écosystème a permis aux entreprises de progressivement se constituer un patrimoine applicatif considérable, grâce auquel certes elles gèrent leurs opérations mais au prix d‘une déperdition d’énergie qui devient de plus en difficile à supporter.

Car l’histoire informatique a conduit à développer un nombre élevé d’applications rigides, peu adaptées à un monde changeant et aux logiques d’adaptation constantes des entreprises à leur contexte économique. Par ailleurs ce mécanisme de création de systèmes applicatifs spécifiques est long et coûteux car il ne bénéficient pas des économies d’échelle qui ont marqué le progrès de toute industrie en permettant simultanément d’accroître la qualité et de baisser les coûts. Une grande partie des applications est composée de programmes internes utilitaires, estimés à 70% du coût, qui ne créent pas de valeur métier directe pour l’entreprise. Enfin l’expérience démontre aisément que nombre de programmes restent inutilisés et représentant un surcoût considérable pour les budgets informatiques. Selon le Gartner group, 65% des licences du fameux logiciel de CRM qui a fait la réputation de l’éditeur Siebel n’ont jamais été exploitées.

Déjà, cette florissante industrie de haute couture a été transformée par l’apparition de grands progiciels intégrés qui définissent largement le cadre général dans lequel doivent s’insérer les spécifications de l’entreprise. Toutefois cet effort d’industrialisation des solutions se heurte au fait persistant que peu d’utilisateurs se sentent spontanément enclins à s’intégrer dans un cadre général ce qui entraîne la plupart des entreprise à devoir adapter, coûteusement, les progiciels aux « spécificités « de l’entreprise. Il est généralement admis que ces dépenses d’adaptation peuvent représenter jusqu’à dix fois le coût des licences. qui met en évidence que ce compte vraiment pour l’entreprise ce sont les données, non pas les applications

Le modèle « SaaS » vise à développer une « customisation de masse » qui réponde simultanément aux exigences de coût et de qualité tout en laissant à l’utilisateur la capacité de s’adapter à son propre contexte. C’est une application métier fournie sur internet que l’on ne paye qu’à la consommation.

Ce n’est pas toutefois la première tentative de rationalisation industrielle de l’informatique qui a déjà lancé les concepts de l’informatique « on demand », ou encore le mouvement de rationalisation de la construction d’applications à partir de services «SOA ». Mais il se peut que, cette fois, le monde traditionnel du développement ne résiste pas durablement aux poussées de ce type de standardisation. En effet c’est un modèle qui existe déjà largement grâce au développement d’applications internet natives exploitées à distance. Là où chacun utilise dans sa vie quotidienne des applications essentielles comme le courriel ou les moteurs de recherche sans se soucier le moins du monde du fait que ces mêmes outils soient utilisés par des millions d’utilisateurs de façon identique, on peut imaginer que des applications classiques et peu différenciantes, comme la paye ou la comptabilité, soient désormais livrées sur ce modèle. Le succès de Salesforce.com pour la gestion des relations client démontre que le modèle peut également fonctionner pour des domaines jugés comme critiques par les entreprises.

Bien entendu, le choix de ce type de solutions sera d’autant plus attractif que l’entreprise aura peu de base installée, donc peu de problèmes d’interface avec le système d’information existant. On peut ainsi imaginer que les nouvelles PME, ou encore les filiales de grands groupes s’implantant sur de nouveaux territoires soient directement tentées par ce modèle souple et ne nécessitant ni investissement lourd, ni délai dirimant, ni compétences informatiques internes importantes. Une des questions posées est toutefois la coexistence entre des solutions de type Saas, gérées à distance, et des applications classiques, développées et hébergées localement, et on imagine déjà des plate-formes d’intégration entre ces deux mondes antagonistes, ou encore entre fournisseurs de services complémentaires.

Enfin, comment les acteurs traditionnels de l’informatique vont réagir par rapport à ce modèle ? Deux types de candidats sont bien placés pour être en mesure de l’exploiter : les éditeurs de progiciels, SAP, Oracle, IBM, Microsoft, avec son offre Microsoft Dynamic Live, (mais aussi Google et ebay !) qui vont trouver dans ce système le moyen de développer une base continue de revenus et les grandes sociétés de service qui conjuguent capacité de développement et infrastructures d’exploitation comme IBM ou EDS, qui peuvent mettre en ligne non seulement la solution informatique mais également des processus complets. Saas est aussi un marché où apparaissent de nouveaux acteurs performants et ambitieux comme NETSUITE qui propose un système intégré couvrant tous les besoins d’une entreprise. Il est intéressant de noter qu’un des fondateurs n’est autre que le CEO d’Oracle, Larry Ellison.

Ce modèle bouleverse l’ordonnancement classique des acteurs de l’informatique. Il se heurte aux habitudes, soulève des inquiétudes comme celles de la confidentialité des données ou la continuité de service. Mais à bien y réfléchir, l’industrie informatique en passant de la haute couture au prêt-à-porter ne ferait que suivre le chemin déjà exploré par toutes les grandes industries au grand bénéfice du consommateur final et du développement économique. Il n’y a rien là de troublant ou de choquant, même si cela fait trembler l’écosystème.

Voir également sur le même thème le texte sur "l'informatique du nuage" publié en mars 2009.


Meilleurs voeux...

Céder au rituel du début de la nouvelle année impose de se plier, de bonne ou mauvaise grâce, à une série d’exercices imposés. Deux de ces figures sont incontournables : émettre des « vœux » et effectuer un bilan. On dispose par convention de l’intégralité des trente jours du mois de janvier pour se libérer de cette tâche, et dès le 1er février on peut pleinement et sans remord se consacrer aux activités normales… Que ceux que les voeux de nouvel an agacent méditent cette analyse du député de la Convention, La Bletterie, pourfendeur de voeux, et qui fut à l'origine de l'abolition de cette ancienne coutume en décembre 1791 ( elle n efut rétablie qu'en 1797) : "Tout le monde sait que le Jour de l'An est un jour de fausses démonstrations, de frivoles cliquetis de joues, de fatigantes et avilissantes courbettes... "

Comme dans tout processus de communication, il faut décomposer le système pour bien en comprendre les mécanismes. On sait depuis une trentaine d’années que la communication est un exercice rigoureux qui met en jeu un émetteur, un récepteur, un message, un support , un feed-back et un référentiel commun.

Dans l’exercice des vœux chacun de nous est émetteur et récepteur… tout est une question de vitesse. L’émetteur dispose d’un petit privilège puisqu’il crée insidieusement par son empressement l’obligation , au moins morale, au récepteur de lui « retourner » ses vœux en le remerciant chaleureusement. Qui émet des vœux ? Ne parlons pas des vœux statutaires de tous ces gens qui s’intéressent soudain à vous avec empressement : du président de la République à votre boucher de quartier, en passant par les pompiers, le facteur, EDF…Les vœux sont un excellent moyen de rappeler votre existence à beaucoup de gens. Des amis perdus de vue, des clients qui ont du passer à la concurrence tant leur silence est abyssal, des collègues de travail un peu éloignés…la carte de vœux est ainsi l’homologue hivernal de la carte postale.

Le support a beaucoup évolué. La traditionnelle « carte de vœux » se classe dans un registre qui affiche d’emblée la personnalité de l’émetteur. La carte sera, selon les années et les choix de la direction de la communication quand il s’agit d’une entreprise, esthétisante, promotionnelle, humoristique ou caritative. Désormais, la carte de vœux se fait électronique, exercice sophistiqué, à base de conception graphique évoluée, ou simple courriel austère. L’intérêt mais la faiblesse de l’exercice réside dans les listes de diffusion… On peut se faire facilement piéger en envoyant tous azimuts le même message aseptisé qui perd ainsi de sa portée. Le vœu efficace se doit d’être ciblé. Les vœux oraux sont un moyen simple et économique d’accomplir l’exercice. Ainsi avec tous ceux que vous croisez dans l’ascenseur ou à la cafétéria, c’est une excellente entrée en matière pour redémarrer l’année dans la convivialité spontanée. SMS et téléphone sont plutôt réservés au la nuit de Saint-Sylvestre et au cercle des intimes.

Le texte est un exercice de style pour lequel la relecture de Georges Perec est un exercice salutaire. Il s’agit de formuler le message le mieux ciblé, le plus original, le plus personnalisé pour attirer l’attention de son interlocuteur. Concevoir un message de vœux à la fois original, sincère et sobre est un exercice difficile. Il ne faut pas mettre dans l’embarras le destinataire du message par trop de sophistication, facilement perçue comme de l’arrogance. En période de vœux, on ne peut que projeter une image idyllique du futur et il est bien dommage que la grammaire française n’ait pas retenu de ses origines grecques le très utile mode optatif… Mais il s’agit bien de promettre à son interlocuteur une année faste, surtout quand il est client. Bien sûr il serait inconvenant de prédire une année dure à ses fournisseurs dans l’espoir de faire baisser leurs prix. Non 2008 ne sera pas une année calamiteuse parce que quelques financiers fous ont oublié les règles élémentaires de prudence pour lesquels ils sont payés par leurs clients pour octroyer des montagnes de crédit pas cher à des emprunteurs insolvables pour acheter des biens invendables… Donc on peut espérer que la somme mondiale des vœux crée une antidote suffisamment puissante aux prédictions catastrophistes de la presse et des experts.
Il y a aussi une gradation des vœux : il y a la personne que l’on cherche à toucher par un mot amical, le contact que l'on cherche à renouer, l'ami lointain perdu de vue, mais aussi l'exercice convenu et rituel abattu à la chaîne, enveloppes pré-étiquetées par une assistante prévenante.
Il reste en matière de vœux le gri-gri absolu : la santé.. C’est le sujet qu’il ne faut pas oublier, surtout dans cette année propre où on interdit de fumer dans les bars restaurants.

L’exercice du bilan est certes limité à une catégorie de personnes « responsables »… En général, on ne fait pas un bilan personnel de l’année précédente, de ses embêtements professionnels, de ses ennuis de santé, de l’été pourri, des rituelles grèves d’automne, des frasques de son aîné…Le bilan est un exercice pour gens sérieux., dirigeants politiques, leaders d’entreprise, « Nous nous étions fixés des objectifs ambitieux, et en dépit de la dureté de la concurrence internationale, de la baisse vertigineuse du dollar, de la hausse des prix de l’énergie, nous ne les avons presque atteints. J'en suis fier et je vous en remercie». Le bilan est, par construction, aussi globalement positif que l’avenir peut être radieux. Il y a même existé des régimes politiques qui se sont intégralement construits sur cette rassurante dualité. Les organes de presse aiment bien également dresser le bilan des autres dans des rétrospectives qui constituent un des « marronniers » de cette profession.

Sincèrement – mais qui pourrait encore me croire ? - , je vous souhaite une excellente année numérique : des investissements judicieux, des clients heureux, un personnel motivé… Pour cela, il faudra encore une fois se remettre en cause, faire bouger les certitudes, travailler en quelque sorte...

Mais je dois conclure cette rubrique pour courir « faire » mes cartes de vœux…