De l'informatique au numérique, du XXe au XXIe siècle

 

Le monde des technologies de l’information est en train de vivre une révolution qui est tout sauf tranquille. Depuis des années, les techniques issues du web, historiquement reléguées à la sphère privée, grignotent le monde de l’informatique d’entreprise. Pour certains il faut s’en inquiéter, pour d’autres s’en réjouir, internet et le web sont en passe de devenir le moteur central du système d’information de l’entreprise. La "consumérisation de l'IT" est un processus de déstructuration /reconstruction d'une puissance considérable comme toutes les grandes transformations techniques de l'histoire.  Mais, cette fois, elle concerne instantanément tous les habitants de la planète. Cette accélération dans le temps et dans l'espace alimente une vague de transformations sans précédent.

Dans quelques années, toutes les applications, tous les services, tous les accès pourront emprunter les techniques et les modèles d’affaire inventés par le web. Dès lors l’informatique ne sera plus un élément d’infrastructure, piloté par les coûts, mais sera devenue l’essence même de l’entreprise, se confondant avec ses processus, nourrissant par un flux constant d’informations complexes tous les rouages de l’organisation. Le phénomène d'ancilarisation de l'informatique, traitée sans ménagement comme un pur centre de coûts taillable et corvéable à merci laisse exangues les budgets informatiques, mais ouvre largement le champ de l'innovation aux métiers. Car pour beaucoup de dirigeants, l'innovation, ce n'est pas de l'informatique et il est légitime de laisser s'ouvrir des centres de compétences "digitaux" en dehors de la DSI. Les métiers ont besoin de cette capacité de créativité que donne l'usage pertinent des techniques de traitement de l'information. Si la DSI, contrainte, ne peut leur donner cet oxygène, ils vont le rechercher par leurs moyens propres à travers leurs budgets de marketing, de communication, d'investissement...Cet éclatement, subi plutôt que conscient, met à mal la cohérence du système d'information et fractionne les données qui sont le capital central de l'entreprise.

Il est encore possible de réconcilier les deux dimensions dans une vision unifiée, tonique et cohérente, des actifs numériques de l'entreprise démarche novatrice qui sera la signature des entreprises du XXIe siècle.

Il s’agit là d’une autre aventure qui dépasse le champ de la technique et impose un changement radical dans l’attitude des dirigeants. Ils ont pu pendant des décennies déléguer la construction et le pilotage de  la « mécanisation » des processus manuels historiques des entreprises, couches d’activités régaliennes, logiques transactionnelles  que les ERP ont réussi à traiter efficacement  non sans douleur initiale. La révolution informatique est ponctuée depuis cinquante ans  de grandes phases de rupture où se mêlent innovation réelle et souvent emphase marketing. Mais le PC, les ERP, les logiciels de CAO ont changé de nature  le traitement de l’information. Ces révolutions passées n’ont pas toutefois changé la nature de l’entreprise. Elles n’ont pas altéré le fonctionnement historique en silos et en pyramides, ni la segmentation des compétences.

Cette fois, ce sont les dirigeants et les métiers qui sont en première ligne. Les directions du marketing ont été les premières à en mesurer la portée. Connaitre et comprendre intimement le client est devenu le ressort vital de la compétitivité. Les entreprises nées dans le monde du web pour faire de l’e-commerce pratiquent à merveille la symbiose entre leur modèle marketing et les techniques du web. Les webanalytics sont le symbole de cette cohérence intime. L’information, minute après minute, est l’actif majeur de l’entreprise qui pilote son chiffre d’affaires comme en régate.

Jamais l’humanité n’aura produit, échangé, stocké autant d’informations. Le MIT estime qu’en une année nous produisons cent fois toute l’information produite depuis l’origine de l’humanité et ce chiffre croît de façon exponentielle. Ces informations sont la matière première de la décision dans tous les domaines de l’activité, que ce soit pour le consommateur final devenu son propre expert et s’appuyant sur l’avis de ses pairs, ou pour le fournisseur en entreprise étendue, partenaire en co-design de la conception et de la vente de produits complexes dont la totalité de la gestation est désormais numérique.

Ce monde que l’on commence à caractériser par l’appelation Big data a généré ses nouveaux outils : appareils mobiles surpuissants, réseaux à haut débit ultra-performants, cloud computing. Un iPad est aujourd’hui aussi puissant que la machine de calcul mythique des années 85, le Cray. L’informatique du nuage est un ensemble  de solutions qui associe la fourniture d’un programme applicatif et sa mise à disposition à travers internet. Il suffit à l’entreprise d’y intégrer ses propres données – organisation, produits, clients, fournisseurs – pour que l’application soit mise à la disposition de tous ceux qui en ont besoin et constamment adaptée, et ce sans investissement en capital ni délai.

Poussées par la consumérisation massive de l’informatique, ces solutions sont éprouvées par des centaines de millions d’utilisateurs quotidiens et font preuve dans les usages les plus courants, comme la messagerie, d’une fiabilité sans défaut  majeur.

L’informatique d’entreprise s’est construite en additionnant des couches de complexité, liées aux choix d’organisation et aux évolutions techniques, qui en font souvent un écheveau coûteux à entretenir, impliquant des compétences multiples. La révolution numérique apporte une décomplexification majeure du traitement de l’information mais remet les données au cœur de la compétition économique. Or la maîtrise des données n’a pas fait l’objet des soins nécessaires. Beaucoup d’incohérences subsistent, compensées à grand frais par des usines informatiques.

Aujourd’hui le marché ne propose pas encore de solution globale. Il y a des réponses partielles intéressantes et éprouvées, comme la messagerie, les outils collaboratifs, voire certains champs applicatifs comme le CRM. Mais sur le plan fonctionnel beaucoup de problèmes internes restent actuellement et transitoirement sans réponse du marché. 

 Il sera nécessaire encore longtemps d’assembler les solutions issues du nuage et les systèmes existants pour reconstituer le système d’information unifié, assurer la cohérence des données internes et celles traitées à l’extérieur en toute sécurité. Il faut également garantir la sécurité des données et leur rapatriement en cas de défaillance du fournisseur ou de réversibilité du contrat. Le nuage n’est pas non plus un ensemble homogène. Face à un marché naissant, il faut être en mesure d’exercer des choix documentés et de les  contrôler. C’est un exercice méticuleux qui implique de nombreuses compétences internes.

Mais rien ne pourra ralentir la transformation en cours. Elle est radicale. Elle va alimenter une nouvelle ère de performances économiques basée sur le rapprochement fertile d’informations naguère isolées et ignorées. Non seulement les hommes échangeront les informations pertinentes pour prendre, à chaque instant, des décisions informées, et en rendre compte, mais ils le feront en compagnie de machines elles-mêmes connectées en réseau, l’internet des objets. La mise à disposition d’informations contextuelles à chaque niveau de l’organisation, comme de la société, percute le modèle classique, déjà ébréché, de la descente d’informations filtrées. Chacun a pris l’habitude d’accéder à toutes les informations dans sa vie quotidienne et attend de l’entreprise de lui fournir tous les moyens de travailler efficacement sans délai inutile.

Expertisesystemssm  Business_rules_example

Exemple d'architecture intégrant des capteurs au système d'information de l'entreprise

Source : http://rfid.net/



Aussi, la révolution de l’information ne peut plus être poussée par la seule technique. Elle rend indispensable l’implication personnelle des dirigeants pour en prendre le leadership. Il ne s’agit plus de choisir entre un Blackberry ou un iPhone, mais entre un modèle dépassé d’organisation et de gestion, et des modèles novateurs riches en promesses.

C’est l’affaire des seuls leaders.

 


La technologie broie ses leaders... Blackberry en péril

28/11/2011 | Stephane Dubreuil et Jean-Pierre Corniou | Mobilité | Lu 1254 fois | 2 commentaires

Blackberry en péril, ou la fin d’une star...

Le monde des technologies de l’information est un monde cruel. Plus exactement, il subit les mêmes affres que le monde des affaires en général mais à un rythme effréné. Les succès y sont plus rapides, mais plus fragiles que dans les autres secteurs.

Les exemples abondent. Après les difficultés de Motorola et Nokia, la dernière tragédie en date pourrait être la disparition de RIM, la firme canadienne créatrice du Blackberry.  Après s’être hissé au 4e niveau mondial de la téléphonie mobile au premier trimestre 2010, RIM est en effet entré dans une spirale, souvent mortifère, de pertes de part de marché, d’effondrement des marges, de réduction d’emploi, d’hésitations techniques, avec le choix d’un nouveau système d’exploitation, QNX, d’échecs commerciaux avec sa tablette PlayBook qui n’a pas convaincu le marché, et enfin de pannes de réseau à répétition… La conséquence est la chute du titre passé en quelques mois de 70$ à 20$. Pourquoi cette descente aux enfers et jusqu’où ? Est-on en train de voir se répéter la triste aventure de Palm ?

Avec le lancement en 2001 de son produit phare, le Blackberry avec téléphone cellulaire, la firme de Waterloo, Research in Motion, fondée en 1984, sortait de l’anonymat. Société technologique elle avait trouvé le moyen de porter le modèle du pager très prisé en Amérique du Nord  dans le monde de la téléphonie mobile professionnelle. En  permettant de recevoir en continu leurs courriers électroniques, de façon fiable et sécurisée grâce à un protocole et un réseau propriétaires, elle offrait aux cadres dirigeants un outil unique leur permettant, pour la première fois, d’accéder de façon efficace à l’ère de l’information en mobilité. Le succès fut immédiat dans les comités exécutifs du monde entier et le Blackberry devint rapidement le symbole de l’efficacité managériale. Son impact fut tel sur l’organisation du travail qu’il fut rapidement la bête noire des syndicats allant jusqu’à réclamer des primes aux utilisateurs pour travail dominical et nocturne dans certains pays.

Néanmoins, ce succès ne tenait qu’à une fonctionnalité majeure certes parfaitement maîtrisée- le courrier électronique sécurisé facile à recevoir et à émettre grâce à un clavier commode- . L’apparition de l’iPhone d’Apple en 2007 allait brutalement changer la donne pour RIM car l’iPhone apportait de nombreuses fonctionnalités grâce à une nouvelle interface tactile, à la multiplicité des applications disponibles, un large écran et surtout un accès facile et lisible à l’univers du web. Le développement d’Android, grâce à Samsung et HTC étend encore la palette de choix. Le Blackberry n’est plus intouchable, il se banalise, devient même un téléphone pour adolescents au gré des diversifications… La magie est rompue.

En cette fin 2011, RIM est passé de 19 % du marché des smartphones à 12%. Plus grave, on estime que la moitié des utilisateurs de Blackberry sont prêts à changer pour un iPhone. Le monde professionnel pré-carré de RIM à l’origine, est en train d’être attaqué de toute part. Pis, l’émergence prochaine d’Appstore à destination des entreprises permettant de manière simple de faire des applications verticales pour les salariés pourrait sonner le glas d’une star mondiale qui n’a pas vu venir la « consummérisation »  des produits Entreprise.

Aujourd’hui, RIM est en panne d’inspiration. Son équation gagnante – le courrier électronique – ne convainc plus assez pour faire oublier les faiblesses des autres performances. Le clavier n’est plus un argument majeur de vente car la logique tactile s’est finalement imposée par sa simplicité (et son prix de revient !), en dehors de quelques irréductibles. RIM qui avait révolutionné le monde de l’Entreprise n’a pas anticipé les mutations de son marché. Ainsi, elle ne n’anticipera pas le passage d’une logique hardware au software avec l’émergence des Appstore, véritables boutiques de contenu, devenues le nerf de la guerre dans le mobile avec sa horde de développeurs et son écosystème de partage des revenus. Il faut donc faire sa place dans une offre pléthorique après avoir été leader. Cette position est inconfortable et généralement sans grand espoir.

Vendre ? Mais à qui ? L’opération Microsoft/Nokia à grand risque n’a pas encore convaincu. Le rachat de Palm par HP est un naufrage, HP ayant abandonné webOS sans même combattre. Le rachat de Motorola par Google pose de nombreuses questions. On voit mal quel acteur pourrait racheter aujourd’hui RIM : un opérateur, qui serait vite sanctionné par ses autres fournisseurs, un acteur chinois, la Chine cherchant plutôt à imposer ses propres standards ?

Cette aventure, qui n’est certes pas finie, démontre à quel point la concurrence mondiale sur le marché gigantesque de la téléphonie et du haut débit mobile laisse peu de place à la dilution et au relâchement. Les nouveaux leaders du mobile maitrisent, tous sans exception, le triptyque : Terminal, Système, Applications ce qui explique les derniers rapprochements entre géants de l’industrie. La promesse de valeur de Blackberry s’est terriblement appauvrie en quelques années en maitrisant mal le tactile, avec un OS dépassé et une nouvelle version retardée depuis de nombreux mois et un Appstore faible face à la concurrence. La belle s’est endormie…

Blackberry est à la croisée des chemins et le sursaut doit être rapide face à la déferlante d’Apple, Google et consorts pour maintenir son leadership. Plusieurs pistes s’ouvrent à elle pour sortir de cette spirale infernale : investir dans l’innovation et reprendre la main, se recentrer sur le monde l’Entreprise et abandonner une coûteuse diversification dans le grand public, développer un écosystème d’applications dédiées aux entreprises et aux salariés avec des partenaires verticaux (de type SAP, Oracle, IBM,…), faire une alliance avec un partenaire de poids dans le monde…

Toutes les options sont ouvertes mais RIM n’est pas dans les meilleures dispositions pour négocier et ne peut se fourvoyer à nouveau au risque que la présentation des résultats du 15 décembre aux actionnaires ne se transforme en un plan d’urgence et ne se réitère à nouveau le syndrome Palm.

Pour information complémentaire, article publié le 2 décembre par L'informaticien

RIM dans la tourmente passe une provision de 485 millions de dollars

par Charlie Braume, le 02 décembre 2011 16:20

Le constructeur canadien des BlackBerry et Playbook a du mal à se remettre de la panne d'octobre et de la mévente de sa tablette PlayBook.

RIM dans la tourmente. On était déjà un peu au courant après la panne réseau géante du début octobre. Les difficultés techniques se traduisent maintenant par un avertissement sur les résultats financiers du 3ème trimestre.

Chiffre d'affaires comme bénéfices qui devraient être annoncés officiellement le 15 décembre seront inférieurs aux niveaux attendus. Le CA n'atteindra pas la fourchette des 5,3 à 5,6 milliards de dollars prévus initialement. Outre la panne réseau et les largesses que RIM avait dû consentir à ses clients en leur offrant des applications gratuites, le contructeur canadien doit faire face à la mévente de sa tablette Playbook (seulement 700000 ventes d'avril à octobre, environ 300000 sur le seul 3ème trimestre) et croule sous les stocks, ce qui l'oblige à d'importantes promotions et à provisionner une énorme charge de dépréciation (485 millions de dollars US).

RIM "dédié" au PlayBook

Mais RIM garde espoir et se recentre sur les tablettes, l'OS qui équipe le Playbook étant la base de son nouveau système BBX (lire à ce sujet l'article dans L'Informaticien n°97). « Research in Motion est dédié au PlayBook et croit que le marché des tablettes en est encore à ses début, déclare Mike Lazaridis. Malgré un bon nombre de facteurs qui ont mené à la révision à la baisse de la valeur des stocks au troisième trimestre, nous croyons que le PlayBook est une tablette attrayante pour les consommateurs qui a aussi des attraits de sécurité et de gestion pour les entreprises.»

Le quatrième trimestre devrait également être inférieur aux attentes en chiffre d'affaires comme en rentabilité. 


Penser les technologies de l'information en 2050, pari impossible ?

Ce document est une réflexion préparatoire à l'émission de Daniel Fiévet sur France Inter le samedi 20 août 2011, http://www.franceinter.fr/emission-on-verra-ca-demain, "Internet, toujours plus connectés ?"

Le lien avec la rediffusion de l'émission : http://www.franceinter.fr/reecouter-diffusions/601

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix.  Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions.

Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes.  Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Ce que nous connaissons aujourd'hui a très peu de chances de subsister à cet horizon...

Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même si l’électricité a aussi joué un rôle fédérateur pluridisciplinaire- n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines.

Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre à leur tour.

Echapper à la malédiction méthodologique de la prédiction

La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses !  Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles »  ne peut aisément s’arracher aux contraintes de la vie immédiate.

Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

-       l’avenir  est domaine de liberté

-       l’avenir est domaine de pouvoir

-       l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire.

Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

-       la puissance des processeurs

-       la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés

-       la simplification et la diversification de l’interface homme/machine

-       la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations concommitantes de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel  et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons grâce à internet et au web. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders technologiques du XXe siècle qui a su capter l'essence de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

-       l’accélération exponentielle des capacités des outils actuels

-       des ruptures technologiques majeures  

-       des ruptures sociales autour de l’acceptabilité des technologies

 

  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004,  grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins  de consommation d’énergie -  que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme.

Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore.

Cette certitude  est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines.

Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière.

Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6)  qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans al décennie 2010 sans problème… Au delà on imagine déjà de

Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

2. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns  représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un.

L’objectif est de tirer partie de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils.

Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ».  Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

3. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique ? Les questions classiques d'éthique pernent unt toute autre dimension car "l'homme connectable" est véritablement une possibilité scientifique proche.

Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe.

La perspective ouverte par Ray Kurzweil de ce moment, imaginaire, où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde.  Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Pour Kurzweil, qui est un scientifique sérieux, cette évolution est inéluctable et... positive !

Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique.

La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée.  Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.  La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance.

Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux.

De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il n'est pas sûr que de ce chaos naîtra une gouvernance mondiale crédible...

Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique  que technologique est arrivé à bout de souffle.  Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. 

La promesse technologique s’inscrit dans ce contexte turbulent.  Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles.  Demain, comme hier, la technique n’est que secondaire.

 

Eléments de référence

Kurzweil, Ray, The Age of Spiritual Machines,  Penguin Books,2000

Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables

http://www.media.mit.edu/

http://techresearch.intel.com/

 


La DSI est-elle soluble dans le nuage ?

Cet article, fruit d'une initiative conjointe des trois derniers présidents du CIGREF, a été publié dans  01 Informatique Business et Technologies N°2091 du 1er juillet 2011

La tentation de construire un système d’information à partir de briques achetées dans le commerce  par les directions métiers n’est pas nouvelle. C’est  la promesse classique des éditeurs promoteurs d’une informatique « prête à l’emploi ». Pour servir leur stratégie et soutenir leurs processus opérationnels, les entreprises grâce à leur DSI, ont toujours cherché les solutions économiques et rapides en s’assurant, au-delà de la technique du moment,  que le système d’information de l’entreprise conserve son unicité et sa cohérence. La promesse de valeur de l’informatique du nuage, ou « cloud computing » doit donc être analysée avec méthode et lucidité.

La révolution informatique est ponctuée de ces grandes phases de rupture où se mêlent innovation réelle et emphase marketing. Certaines sont sans lendemain. D’autres, comme le PC, les ERP,  internet ont changé de nature  le traitement de l’information. Mais à chaque étape l’informatique s’est enrichie de solutions nouvelles impliquant des compétences qui se sont substituées aux modèles antérieurs, permettant à la communauté informatique de se renouveler en s’adaptant en permanence aux changements techniques.

L’informatique du nuage est un ensemble  de solutions qui associe la fourniture d’un programme applicatif et sa mise à disposition à travers internet. Il suffit à l’entreprise d’y intégrer ses propres données – organisation, produits, clients, fournisseurs – pour que l’application soit mise à la disposition de tous ceux qui en ont besoin et constamment adaptée.

On y retrouve les mêmes éléments que ceux souvent promis par l’industrie du logiciel et des services : haute disponibilité, fiabilité, mutualisation, sécurité, coûts adaptés à l’usage réel de la solution, temps de déploiement minimaux. Poussées par la consumérisation massive de l’informatique, ces solutions sont éprouvées par des centaines de millions d’utilisateurs quotidiens et font preuve dans les usages les plus courants, comme la messagerie, d’une fiabilité sans défaut  majeur. Balayer d’un revers de la main les arguments en faveur du développement d’une nouvelle informatique en nuage serait donc inutile et suspect de corporatisme.

Là où la communauté informatique peut s’émouvoir, c’est que l’informatique en nuage dispense l’entreprise d’installations informatiques propres puisqu’il « suffit » de se connecter à internet à travers n’importe quelle plateforme, PC, smartphone, tablette, quelque soit le système d’exploitation employé. Les traitements et la sauvegarde des données sont faits à distance par le fournisseur de service dans ses fermes de serveur. Ceci diminue la complexité des projets, puisque les phases de conception et de réalisation sont limitées au choix d’une solution pré-définie. Cela dispense également l’entreprise de s’équiper en infrastructure de production et de stockage. On gagne en temps et en coûts d’infrastructures et de services ce qu’on perd totalement en souplesse.

Or l’informatique d’entreprise s’est construite en additionnant des couches de complexité, liées aux choix d’organisation et aux évolutions techniques, qui en font souvent un écheveau coûteux à entretenir, impliquant des compétences multiples. Si les conditions de mise en œuvre de cette nouvelle informatique sont simples, elles impliquent néanmoins un important travail de transformation de l’informatique des entreprises, donc des investissements aussi bien dans les métiers que dans l’informatique. En effet les contraintes du nuage sont souvent très éloignées des conditions d’exploitation habituelle de l’informatique d’entreprise :

-       toute application doit être accessible à partir d’un navigateur

-       l’accès au réseau internet public à partir de tout point de l’entreprise doit être performant, permanent, sécurisé

-       toute application peut être opérée à partir de tout support : PC, tablette, smartphone, téléviseur

-       les applications sont standard et mutualisées et ne permettent pas une adaptation fine aux besoins

Les systèmes d’information se sont construits en quarante ans avec un patchwork de solutions qui en  font un ensemble certes ordonné et réellement approprié aux besoins mais complexe. Remplacer cet édifice par un autre patchwork de solutions trouvées sur internet ne réglerait pas le problème de la simplification et de la cohérence du SI.

Aujourd’hui le marché ne propose pas de solution globale. Il y a des réponses partielles intéressantes et éprouvées, comme la messagerie, les outils collaboratifs, voire certains champs applicatifs comme le CRM. Mais sur le plan fonctionnel beaucoup de problèmes internes restent sans réponse du marché.  Certains domaines comme le transactionnel lourd ou la conception assistée par ordinateur (CAO)  ne sont pas appropriés en raison de flux massifs de données qu’ils impliquent. Il est nécessaire d’assembler les solutions issues du nuage et les systèmes existants pour reconstituer le système d’information unifié, assurer la cohérence des données internes et celles traitées à l’extérieur en toute sécurité. Il faut également garantir la sécurité des données et leur rapatriement en cas de défaillance du fournisseur ou de réversibilité du contrat. Le nuage n’est pas non plus un ensemble homogène. Les solutions et les fournisseurs ne se valent pas tous et il faut être en mesure d’exercer des choix documentés et de les  contrôler. C’est un exercice méticuleux qui implique de nombreuses compétences internes.

Les DSI ne sont en rien hostiles au nuage qui dans certains domaines répond parfaitement à leurs besoins. Déchargés de tâches d’exécution, ils peuvent ainsi mieux se consacrer aux applications à plus forte valeur ajoutée métier comme  au développement de l’innovation dans les domaines qui n’ont été encore que faiblement explorés. Il est évident que l’internet des objets, la numérisation de l’ensemble des produits et services tout au long de leur vie, la généralisation de l’entreprise numérique entre fournisseurs et clients constituent des défis nouveaux pour  la DSI qui doit en devenir  à la fois orchestrateur et inspirateur. Le monde des technologies de l’information exigera encore le déploiement de talents internes, ouverts et adaptables, capables de tirer le meilleur parti des propositions du marché et de développer ainsi les vrais vecteurs de différenciation et de compétitivité. Les femmes et les hommes de l’informatique d’entreprise, comme des SSII, devront, une fois encore, se renouveler et acquérir des compétences nouvelles.

Le nuage ne doit pas être une solution en quête de problème. Ce n’est, aujourd’hui comme hier, qu’un outil avec ses promesses et ses limites, qui doit être progressivement intégré dans le portefeuille des entreprises pour ce qu’il sait bien faire avec pragmatisme et discernement. C’est également pour les entreprises individuelles, les TPE et certaines PME et ETI un ensemble de solutions efficaces qui leur permet de rapidement de bénéficier d’outils innovants, flexibles et peu coûteux. Symbole de la numérisation de notre société, l’informatique en nuage est donc sans conteste un composant majeur des systèmes d’information des entreprises et des collectivités.

La communauté des TIC a su relever par le passé le défi de la technicité et la maîtrise des coûts et de la qualité. L’informatique en nuage n’est qu’une opportunité de  plus. Non, la DSI n’est pas soluble dans le nuage. Elle seule peut offrir la garantie de son exploitation professionnelle et pertinente.

Jean-Pierre Corniou, ancien président du CIGREF (2000-2006)

Didier Lambert, ancien président du CIGREF (2006-2008)

Bruno Ménard, actuel président du CIGREF 

 


La transformation numérique au service de la croissance

Jean-Pierre-Corniou-150x230
Fondapol, fondation pour l'innovation politique dirigée par Dominique Reynié, vient de publier une étude sur "La transformation numérique au service de la croissance" dont j'ai assuré la rédaction. Le document intégral de 45 pages est accessible en ligne sur le site de Fondapol;

http://www.fondapol.org/debats/colloque-small-2-0-is-beautiful-comment-internet-peut-doper-la-croissance/

Vous trouverez dans ce document le développement de thèmes familiers aux lecteurs de ce site. Un travail particulier est consacré au rôle de l'Etat, démuni devant l'ampleur des bouleversements technologiques qui vont beaucoup plus vite que la loi et les pratiques politiques. Le traitement de la protection des doits d'auteur est un exemple du débordement du droit par la technique, et de l'absence de solution simple et efficace pour rémunérer les créateurs. Le rôle du web et des réseaux sociaux dans les révolutions arabes, leur irruption dans les codes comportementaux de la démocratie démontrent que les pratiques sociales bousculent la vie publique de façon puissante et inattendue.

Loin de se réduire à un ensemble de technologies, Internet est un facteur d’importantes transformations dans les relations sociales et produit une véritable rupture dans le monde économique.

Si plusieurs rapports ont montré que les TIC et Internet jouent un rôle fondamental pour la  croissance, l’enjeu de la transformation interne des entreprises reste en suspens. Les clients communiquent de plus en plus souvent en réseau. Les frontières de l’entreprise sont devenues poreuses. La structure traditionnelle des organisations, très hiérarchisées, s’avère peu adaptée à l’ère de l’interactivité. Des transformations dans les process doivent donc être privilégiées pour augmenter la productivité, l’intelligence collective et le travail collaboratif.

Comment dès lors concilier ouverture et sécurité ? Afin d’optimiser les coûts, comment reconfigurer l’entreprise pour dynamiser ses forces ? En France, quels sont les principaux freins au développement des entreprises par le numérique ? L’entreprise, qui le plus souvent privilégie le secret, la compétition interne et le contrôle, avec un risque de perte de compétitivité, peut-elle se transformer afin de consolider sa croissance ?

Une web-conférence le 23 juin à 9h30 permettra d'approfondir ces questions. France Info consacrera quelques minutes à ce document et à cette conférence.

 


De l'influence du web sur l'intelligence collective...

Nous sommes vraiment face à un (nouveau) paradoxe français.

La compétition économique mondiale est entrée avec le web, depuis quelques années dans une phase nouvelle.  Il y a un consensus international pour constater que ce ne sont plus les seuls facteurs matériels qui vont permettre aux entreprises et aux nations de se différencier, mais leur capacité à gérer les données et  l’information pour les transformer en connaissances. L’agrégation continue, créative et impertinente, de ces composants permet  de construire un flux permanent d’intelligence compétitive qui constitue désormais le vecteur majeur de la performance.

Dans un pays qui dispose encore d'un système de formation compétitif, en tout cas pour une minorité influente, qui se flatte de posséder les plus grandes et plus enviées institutions culturelles, et dont le riche passé est une mine inépuisable de ressources, on devrait se réjouir de voir se développer sur notre planète un outil qui permet de rebattre les cartes de la concurrence internationale en donnant aux idèes une place marquante. Ne fanfaronnait-on pas il y a peu en affirmant  que "nous n'avons pas de pétrole mais nous avons des idèes" ? Il est temps de le démontrer.

Or tous les jours on nous explique par les voix les mieux informées, et les plus péremptoires, que le web, décidemment, ce n'est pas une bonne solution. La charge est fréquente et lourde et les exemples abondent: "on" dilue la vraie compétence dans un déluge d'informations non vérifiées, "on" surveille de trop près la vie de nos dirigeants, à l'affût de la moindre de leurs bourdes... et "on" incite les élèves à copier sur Wikipédia sans réfléchir. Le web est "la" cause, non le support... Le web serait donc un endroit mal famé  dont il faut vraiment se méfier.

D'après Dominique Reynié  (FONDAPOL), "On utilise le net comme un outil nouveau pour faire la même chose qu’hier. La manière de faire de la politique n’a pas changé : on diffuse des idées, on mobilise, on chatouille l’adversaire… C’est dommage : cela vient de la culture centraliste française. On se méfie d’internet et on estime qu’il y a quelque chose de presque aristocratique dans l’exercice du pouvoir. C’est un obstacle. "  Pour le NewYork Times qui a consacré un article  à la sensibilité des hommes politiques français à la culture internet,  « Peut-être plus que tout autre chose, souligne le quotidien américain, Internet est devenu une source exaspérante d’embarras pour la classe dirigeante du pays ».

 Cette attitude de certaines acteurs influents de  la vie politique face à au web ne doit pas gommer la prise de conscience souvent ancienne par beaucoup d'élus du rôle majeur du web dans le développement de la démocratie. Certains membres du gouvernement ont été précurseurs dans l'usage du blog (Alain Juppé) ou de Twitter (Nathalie Kosciusko-Morizet). Toutefois, c'est un parfum de dénigrement qui domine et apparaît clairement comme un obstacle à la réjuvénation de la vie politique. C'est un frein dangereux à la propagation auprès des plus jeunes citoyens des pratiques plus audacieuses d'une démocratie ouverte et détendue. La rupture générationnelle, qui tend à s'estomper au sein des familles, ne devrait pas se développer au sein de la société démocratique.

Hélas, et c'est tout aussi préoccupant, cette attitude est très fréquente également dans le monde de l'entreprise. Beaucoup de dirigeants craignent l'exposition au web, pour eux-mêmes, d'abord, mais également pour leur entreprise, privilégiant l'aspect défensif de la "sécurité", thème surexploité pour justifier une très grande inertie des stratégies numériques, à l'aspect offensif de la conquête économique par tous les outils et pratiques de la websphère. 

Une étude américaine * (Ellon University / Pew research) fait le point, début 2011, sur le futur de l'internet. Cette recherche nous incite à analyser le web de façon beaucoup moins superficielle et anecdotique que ces jugements superficiels. Il s'agit bien d'un monde nouveau qui émerge à travers la globalisation numérique. Les résultats sont explicites : internet contribue pour 81% des experts et 76% des personnes  interrogés à enrichir l'intelligence humaine. On comprend mieux, on lit et on écrit de manière nouvelle avec une nouvelle vélocité et capacité d'appréhension. Et, ajoute l'étude, nous en avons besoin car les problèmes qui se posent à la planète ne peuvent plus être résolus par des méthodes anciennes, notamment le système hiérachique, qui ont fait la preuve de leur impuissance. Le web permet à chacun d'entre nous d'exercer des choix de plus en plus larges et par là renforce la qualité de nos décisions. Internet incite à prendre plus d'avis, plus de distance par rapport à la décision et à enrichir le processus de décision.

Pour 81% des experts interrogés (et 80% du panel) le rythme des innovations à venir d'ici 2020 va continuer à être soutenu; les innovations sont non prévisibles, insoupconnables et vont continuer à modifier le paysage de la production et de la consommation.

Car le web est une machine puissante qui ne se limite pas à porter instantanément toutes les informations à la connaissance des deux miliards d'internautes. C'est un outil qui  bouleverse les processus de travail dans toutes les disciplines. Car la capture de données, la recherche d’informations et l’élaboration de connaissances ne constituent pas un exercice simple. D’après le MIT, nous avons construit pour la simple année 2010 cent fois le volume d’informations créées depuis l’origine de la civilisation ! Et nous savons que nous ne sommes qu’au début d’une aventure humaine exceptionnelle où la mise en connexion par le web de milliards d’êtres humains constitue une expérience cognitive sans aucun équivalent dans notre histoire. Nous sommes sortis d’une vision linéaire, prédictive du progrès de connaissances pour entrer dans un modèle à la fois systémique et exponentiel, où chaque discipline se nourrit et alimente les progrès des autres disciplines. De cette croissance sans limite  vont émerger des produits et services aujourd’hui simplement inimaginables. Il faut donc être préparé à accueillir et exploiter ces innovations, notamment par un management qui privilégie la souplesse, le leadership et l'ouverture.

C'est là où se joue vraiment l'avenir des entreprises : concevoir et mettre sur le marché des produits innovants, attractifs, en ligne avec les besoins des clients  est la  seule finalité des entreprises. Ceci ne peut plus se faire avec les outils anciens, comme avec le courriel qui a pourtant permis rapidement de décloisonner les entreprises. Il est indispensable de mettre en oeuvre des  moyens nouveaux et efficaces de rapprochement des informations structurées issues du système d'information interne et des informations non structurées internes comme externes. Concevoir un nouveau produit ou service,  c'est exploiter efficacement  le stock d'informations et de connaissances, souvent dormant, partagé entre les partenaires de l'entreprise étendue. Il s’agit non seulement de gérer des données structurées, mais surtout non structurées, dont des images 3D. Veille technologique, analyses concurrentielles, suivi en temps réel du cycle de vie des produits, analyses fines de la réaction des clients sont les nouveaux outils de la performance.

Ceci implique une nouvelle culture managériale comme la mise en place de nouveaux outils efficaces. Ce qui naguère fut un exercice souvent négligé, la gestion et l’archivage des données numériques devient désormais un outil incontournable d'efficacité dans tous les métiers et la préoccupation première des DSI. Dans un marché prolifique et volatile, qui va évoluer très rapidement compte tenu des enjeux majeurs de l’économie de la connaissance,  détecter les produits, comme les tendances, et construire des éléments de structuration de l’offre interne de gestion de la connaissance devient une responsabilité majeure des entreprises, et, en leur sein, des directeurs des systèmes d'information. Cette réflexion est indispensable à la construction d’une stratégie dynamique de conception d’une nouvelle génération de systèmes d’information orientés non plus vers la gestion transactionnelle, mais vers la performance cognitive au cœur de l’intelligence économique.

 

 

-http://www.elon.edu/e-web/predictions/about.xhtml

-* http://www.elon.edu/e-web/predictions/expertsurveys/2010survey/default.xhtml :

Etude Elon UNiversity / PewResearchCenter "The future of internet IV" 

 

 

 


La fin du modèle unique de "Personal Computer"

Avec la brillante consécration des tablettes, dont plus de quatre-vingt modèles étaient présentés au Consumer Electronic  Show de Las Vegas, du 6 au 9 janvier 2011, le cauchemar des DSI confronté à la multiplication des plate-formes d’accès à l’information ne fait que s’amplifier. Naguère – et comme disait John Chambers, président de Cisco lors d’une table ronde du CES, « dans notre métier, deux ans c’est déjà de l’histoire » - le paysage était simple. Le choix des utilisateurs se limitait entre un PC fixe et un PC portable, et il fallait déjà effectuer des arbitrages parfois douloureux.

Les téléphones intelligents qui ont fait leur apparition avec le Blackberry ont déjà crée une brèche dans les politiques de standardisation des parcs  de PC et de téléphones des entreprises. Comme le Blackberry est entré dans l’entreprise par le haut, le comité de direction, le DSI a eu quelque peine à en proscrire, puis à en cantonner l’usage à une population privilégiée. L’émergence de l’iPhone en 2007 a accéléré le phénomène en ouvrant un nouveau front dans la guerre PC/Mac, celui de l’affrontement Blackberry/iPhone, en général  arbitré par l’acceptation de la coexistence des deux plate-formes aux mérites similaires.

Mais au-delà des flottes officielles de ces machines, dont il est difficile de cantonner l’usage à une population bien ciblée, les DSI ont dû se résoudre à accepter les pénétrations sauvages initiées par les utilisateurs se dotant eux-mêmes de ces objets, désormais abordables, et désireux de les connecter aux systèmes internes de l’entreprise. Puis, pour corser la difficulté,  est apparu Google et son ambitieux système Android poussé par plusieurs acteurs innovants comme Samsung et HTC, sans négliger la contre-offensive de Microsoft avec Windows Mobile 6.5.

L’apparition de la tablette d’Apple, en mai 2010, seulement, a de nouveau bousculé les lignes à peine stabilisées des responsables de parc informatique. Cette fois ce sont les directions métier qui ont rapidement compris l’intérêt de ces machines dans de nombreux usages  et l’ont rapidement imposé. Le nombre de tablettes offertes sur le marché va se multiplier, avec des sous-segments dans cette offre qui couvre déjà une large gamme de taille, de système d’exploitation (RIM vient d’y entrer avec sa Playbook) et donc d’usages.

Cette rapide transformation du paysage conduit aujourd’hui, à leur corps défendant, les DSI à devoir sinon intégrer, tout au moins prendre sérieusement en considération la coexistence de trois plate-formes distinctes, l’ordinateur personnel, le téléphone intelligent et la tablette, chacune pouvant fonctionner avec plusieurs systèmes d’exploitation, Windows, MacOS ou iOS, RIM, Android 3.0… Face à l’inventivité des industriels et aux désirs des utilisateurs, le rêve de la normalisation des systèmes d’exploitation et des matériels s’éloigne définitivement.

CES2011_TV Yahoo

D’autant plus que vient s’inviter à ce modèle une quatrième couche, le « grand écran » haute définition, naguère appelé téléviseur, dont l’usage en entreprise est appelé à se développer  à la fois pour projeter devant des auditoires élargis les informations et présentations, mais aussi pour servir de support à la visio-conférence de plus en plus exigeante en qualité d’image et de son, ou encore de point de contact client pour l’e-commerce et la publicité personnalisée. Le CES 2011 a consacré l’avènement de la télévision connectée à internet dont les usages sont multiples dans les salons domestiques comme en entreprise et qui va s’imposer comme solution de continuité entre le monde des « vieux médias » et celui du web.

Trois nouveaux écrans viennent donc, en quelques trimestres, s’imposer dans le paysage professionnel. Tous permettent de produire et d’échanger des données, du son et des contenus multimédia. Tous sont connectés au réseau internet. Face à cette offre, le traditionnel PC, lourd et pataud, perd de son attractivité dans tous les usages de consultation et d’échanges. Il demeure encore incontournable pour des tâches de saisies lourdes ou de calcul complexe, lui-même ayant remplacé les stations dédiées au calcul ou à la CAO. Mais l’émergence des « apps », la puissance de l’informatique en nuage vont rapidement donner aux autres plate-formes des caractéristiques similaires à celles du PC.

Le DSI doit donc repenser la stratégie de « poste de travail » pour raisonner sous un triple éclairage : taille et portabilité de l’écran, nature de l’interface homme/machine (clavier, écran tactile…), fonction. La politique du poste de travail doit devenir ouverte, flexible et très appropriée aux usages des différentes communautés. Elle doit non plus intégrer par défaut la mobilité mais servir avec conviction une politique de mobiquité des compétences et des acteurs.

Bien naturellement se posent les problèmes classiques qui freinent la pénétration en entreprise des innovations issues du grand public : la sécurité et le coût. Là aussi, la solution n’est certainement pas l’interdiction peu réaliste mais la pédagogie, l’incitation à la maîtrise des coûts, qui peuvent être partagés entre le salarié et l’entreprise et la recherche systématique et partagée de l’efficacité opérationnelle. Des salariés participant à la dynamique de l’aventure numérique seront reconnaissants à leur employeur, plus motivés et certainement enclins à moins mesurer leur amplitude de travail.

C’est d’ailleurs pourquoi de nombreuses entreprises se sont récemment engagées dans une politique totalement en rupture par rapport aux visions antérieures. Plutôt que de mettre en place un catalogue toujours dépassé par l’innovation, elles proposent le BYOD. Comprenez « Bring Your Own Device », apportez l’outil de votre choix. Après tout personne naguère ne nous a imposé de choisir entre Waterman et Parker ! Pour promouvoir cette continuité numérique qui est de toute évidence la nouvelle manière de travailler de la génération Y, et maintenant Z, de grandes entreprises donnent le choix à leurs salariés d’apporter au travail leur propre machine. Il ne s’agit pas de PME aventuristes, mais de firmes établies comme Kraft Foods avec 97000 salariés ou Procter&Gamble. De façon plus limitée, Cisco offre à ses salariés le choix entre PC et Mac. Ceci implique de fournir une infrastructure de réseau robuste, de gérer la sécurité de façon dynamique en responsabilisant les acteurs, car c’est plus une affaire de management que de technique, et de trouver une base économique équitable.

Pour démentir Alan Carr, il faut ouvrir l’entreprise au monde foisonnant de la technologie. L’ère des mainframes est définitivement achevée, inventons les stratégies qui permettront à tous les collaborateurs d’être moteurs de cette nouvelle ère, celle de la connaissance numérique.

Article également publié sur 01 Business


Vivre avec son blog

Rencontré lors de la remise du prix du DSI de l’année, le 14 décembre, mon ami Louis Naugès, qui jette sur le monde des technologies de l’information un regard aussi passionné que féroce, me faisait gentiment remarquer que mon blog ne bougeait pas assez vite, en soulignant qu’un blog lent était un blog mort ! Cette apostrophe m’a fait réagir, et j’ai esquissé ma défense en mettant en avant le manque de temps, le conflit entre priorités, justifiés par ma récente prise de fonction dans un nouveau métier et un nouvel environnement de travail. Bref, beaucoup d’arguments justes, certainement, mais qui sur le fond ne démentaient pas la pertinence de sa remarque.

Après cet échange, piqué au vif, j’ai cherché à rassembler mes idées sur le blog après un peu plus d’une année de pratique de cet exercice. Il est vrai que je ne suis pas tendre non plus envers ceux qui prétextent du manque de temps pour expliquer leurs relations douloureuses avec l’apprentissage et l’utilisation des technologies de l’information. Il paraît tellement évident que nous sommes tous conduits à utiliser de façon permanente ces outils que la technologie nous a fabriqués. Ceux qui restent l’écart de cet irrésistible mouvement paraissent d’obstinés conservateurs, hors du temps, condamnés à rester en marge de la société moderne comme ceux qui n’ont jamais réussi à obtenir leur permis de conduire.

Quand nous voyons les jeunes adultes et encore plus les adolescents jongler entre le chat, Skype, l’iPod, leur téléphone portable , surfer sur internet pour faire du copier/coller dans leur traitement de texte ( Open Office plutôt que Word, trop daté et trop monopolistique), tout en téléchargeant le dernier James Bond en DivX, on est fasciné par leur aptitude à jongler avec ces outils. Cependant on reste dubitatif sur leur capacité à faire un tri un peu organisé entre tous ces media et tous ces messages, et ce doute fugace nous donne un coup de vieux, nous qui avons été en tête de tous les combats pour le numérique !

Rappelons que notre monde est désormais classé en trois tribus, les « analogistes » décidemment irréductibles et qui en sont restés sans aucun doute au transistor et à la première chaîne en 819 lignes, « les immigrants numériques » qui sont les nombreuses générations née avant 1990 ( il fallait au moins avoir cinq ans pour entrer nativement dans l’internet), mais qui ont fait l’effort de comprendre la souris, les menus déroulants et la magie du numérique, et enfin les seigneurs de demain, ces mutants inquiétants que sont les « numériques natifs » qui ne peuvent communiquer à deux mètres sans s’envoyer un SMS pour se demander « t ou » avant de se ruer sur le premier micro ouvert pour chater.

Alors, ne pas mettre à jour mon blog à chaque nouvelle impulsion de l’actualité me conduirait à quitter le statut précaire d’immigrant numérique pour rejoindre en fait une nouvelle sous-couche, les « innovateurs numériques prématurément lassés », les INPL, presque taxé de néo- analogiste !

Je reprends mes classiques en rappelant que communiquer est un verbe transitif. On communique quelque chose à quelqu’un ! Un blog, comme un site web, mais en plus facile, est un moyen pour communiquer à un interlocuteur un message, qui peut-être informatif, pratique, culturel, affectif, académique, ou simplement exhibitionniste. Il faut avoir envie de faire partager à ces anonymes qui vous épient sans l’obscurité du web un message qui vous paraît important car il peut les intéresser, les aider à comprendre, leur donner une information utile. C’est un moyen d’influencer l’opinion du petit cercle de vos lecteurs, accessible facilement et de façon peu coûteuse, en cassant ainsi le monopole de ces grands supports d’influence que sont la télévision, la presse écrite et la radio. Autour de vos convictions, vous pouvez séduire, rassembler, et faire naître un courant d’intérêt, un dialogue qui rebondit et permet d’affiner la pensée, d’échanger et de créer un peu plus de sens. Cela peut être aussi tout simplement une moderne bouteille à la mer, moyen sans danger de partager ses sentiments et ses passions de façon d’autant plus impudique que les blogs anonymes permettent de nouer des relations entre anonymes. Ces assidus du blog sont nombreux puisque selon des sources diverses, et contradictoires, il y aurait en France entre 3 et 5 millions de blogueurs, un tiers des blogueurs européens.

Dans tous les cas, quelque soit la motivation initiale, un blog est un travail, il représente un effort d’écriture, de collecte d’informations, de mise en forme rapidement chronophage. Entretenir un blog même si le contenu peut paraître futile est un exercice régulier de concentration et d’écriture qui d’une manière ou d’une autre expose et rend responsable. Quand on cherche à faire un exercice rigoureux sur des sujets de fond, engageant dans le temps – la mémoire du blog est terrible ! – on est obligé de mettre beaucoup de soin dans la cohérence de la pensée et la qualité des informations.

Pour moi, le blog, c’est à la fois un article, un livre, une dissertation, une conversation. Aussi la vitalité d’un blog ne s’exprime pas seulement par le flux de nouveauté, mais également par la robustesse et la pérennité de son propos. Il ne s’agit pas de réagir à l’événement comme le font les agences relayées par les multiples support de presse. Il faut laisser justement le champ de l’instant à la presse. Le blog peut s’autoriser une prise de distance par rapport à l’événement, et donc avancer plus lentement pour faire émerger des réflexions plus matures.

L’immense mérite de cette technique par rapport à celles qui l’ont précédé – notamment la correspondance littéraire destinée à être publiée – est la rapidité et le champ potentiellement infini de diffusion au sein du milliard d’internautes. Mais le support ne doit pas céder le pas au contenu au risque de lasser et de générer ses propres toxines. Ce qui est superbe, au fond, c’est que chacun peut faire comme il le souhaite. Et cette nouvelle liberté est le principal cadeau que nous fait la technologie !


Objectif

C'est une forme de paresse qui m'a poussé à me jetter à l'eau pour me lancer dans l'aventure du blog... J'ai la chance de pouvoir échanger avec beaucoup de gens, mes collaborateurs, mes amis, mes collégues DSI sur l'évolution de notre société poussée par la formidable puissance de transformation des technologies de l'information.
Passionné à titre personnel par l'ampleur de ces moyens, utilisateur avide de nouveautés, j'avais depuis des années le projet de faire un site web pour prolonger ces échanges et donner plus de robustesse aux arguments évoqués en partageant les sources et en amplifiant la réflexion. Mais un site web est chronophage, exigeant car je voulais faire "bien", et comme souvent cette exigence d'excellence a réduit mes timides efforts à néant.
C'est pourquoi le blog, pré-formaté, proche de la logique du texte linéaire, m'est apparu comme le bon outil... L'expérience déterminera si la simplicité de la technologie est suffisante dans la continuité pour entretenir ce cadre et lui garder suffisamment de séduction et d'intérêt.