Previous month:
juillet 2011
Next month:
septembre 2011

United Airlines équipe ses pilotes de 11 000 iPads

United Holdings, qui regroupe les compagnies United Airlines et Continental, a décidé d’équiper tous les pilotes d’iPads. Les tablettes d’Apple remplaceront les informations remises jusqu’ici sous forme papier aux pilotes. Une première dans l’industrie aéronautique qui montre que les tablettes devraient trouver de très nombreuses applications en entreprise. La distribution des iPads a commencé au début du mois d’août et devrait être finalisée à la fin de l’année. « L’utilisation des iPads en remplacement de documents papier permettront aux pilotes d’avoir les informations en temps réel et en permanence à jour », considère Fred Abbott, Senior Vice President d’United. Les iPads sont équipés du logiciel Mobile FliteDeck développé par l’éditeur Jeppesen, première application interactive, orientée données. Chaque iPad, dont le poids est d’environ 600 grammes, remplacera environ 16 kilos de papier correspondant aux manuels, aux plans de vol, guides de référence, aux informations météo… Le sac d’un pilote qui comporte l’ensemble de ses informations représente environ 12 000 feuilles de papier. Selon United, la mise en place des iPads permettra d’économiser 16 million de feuilles de papier soit l’équivalent de près de 2000 arbres ainsi que 1,3 million de litres de kérosène par an. L’iPad apporte d’autres améliorations, en particulier en permettant à chaque pilote d’accéder rapidement à l’information dont il a besoin sans avoir à feuilleter d’épais documents.

En quelques mois, la tablette s'est imposée dans le monde professionnel. Les raisons de cet engouement sont évidentes : légèreté, convivialité, instantanéité, partage, ergonomie...L'effondrement des ventes du PC s'explique également par l'absence d'évolution de cette technologie trentenaire qui a fait son temps comme vecteur exclusif d'accès à l'information. Nous entrons dans l'ère des "quatre écrans" où l'information circulera dans le nuage et sera accessible en tous points avec l'outil le mieux adapté, au choix de l'utilisateur, seul juge de la pertinence de l'outil à mettre en oeuvre en fonction du contexte. C'est bien entendu à la DSI d'orchestrer cette transformation.


Un été meurtrier

Il y a de nombreuses années, en 1973, Brigitte Fontaine et Areski avaient enregistré une bien curieuse chanson*. Pris au piège dans un immeuble en flammes après une explosion de gaz, un couple commentait son inéluctable et prochaine disparition dans  la destruction de l’immeuble. Trame dramatique traitée sur un ton distant et neutre où l’homme distille savamment à sa compagne d’infortune une explication scientifique sur les phénomènes physiques qui accompagnent l’augmentation de température et l’émission de gaz toxiques et vont conduire à leur mort. Le refrain rappelle que tout ceci est « normal ». Je me suis toujours interrogé sur le sens de cette chanson franchement noire. Mais j’y pense chaque fois que l’opinion, la presse, les responsables politiques ou chefs d’entreprise s’étonnent du tour dramatique de la situation socio-économique ou politique alors que la plupart des crises dont l’homme est à l’origine sont toujours prédictibles. C’est peut-être là le sens profond de cette petite musique acide…

A la fin de cet été, on peut reprendre en chœur le thème de cette chanson. Tout ce que nous voyons est « normal » et le  bateau coule normalement.

Second flash… On démonte Paris Plage, ses stands de jeux, ses parasols, ses 8000 tonnes de sable. Paris Plage est le symbole parfait de la futilité d’une époque qui glorifie l’éphémère pour ne pas s’attaquer au fond... Evidemment, l’idée est séduisante. Qui peut s’opposer à ce que les parisiens privés de vacances puissent trouver un cadre agréable au pied de leur immeuble ? Mais comment imaginer que ce décor de carton pâte fasse illusion ? Paris est une des capitales européennes qui comporte le moins d’espaces verts insérés dans le tissu urbain. Il y a eu beaucoup de progrès  avec Bercy et le parc André Citroën, les aménagements de parcs à Belleville, le parc de la Cité des Sciences, le parc des Batignolles.  C’est clairement dans cette direction de long terme qu’il faut trouver une solution durable. Rendre la ville agréable est un projet d’une toute autre ampleur que de créer une prothèse éphémère.

Notre époque se vit tellement moderne quand elle feint en permanence de s’étonner que les catastrophes soigneusement dissimulées, sous-estimées, finissent par se concrétiser.  « Et sans doute notre temps préfère l’image à la chose, la copie à l’original, la représentation à la réalité, l’apparence à l’être... » écrivait Feuerbach en 1841. Il n’y a rien de plus insupportable que de glorifier avec ravissement la force du mouvement des « indignés », et de le récupérer, quand tout a été construit pour fabriquer une société cyniquement inégalitaire.

Couche  par couche, les systèmes de responsabilisation individuelle et collective qui avaient été construits depuis 1945  ont été dissous dans le bain acide  du court-termisme, dans l’adoration des fausses idoles que peuvent exhiber tous les secteurs, que ce soit la finance, la musique, la littérature, le football ou la politique, dans la négation de la durée et de l’effort.  La navrante pipolisation a mis en scène une infime couche de la société pour propager un modèle de luxe et d’insouciance où le travail et l’effort sont soigneusement gommés. Le « vu à la télé » sert à vie de CV pour de parfaits inconnus sans consistance.

En oubliant qu’une société est un équilibre entre composés instables, qui se façonne, se burine au fil du temps à coups d’ajustements  plus ou moins brusques mais acceptés au nom du bien commun, on a accepté une lente désagrégation morale qui aboutit très précisément par créer ce qui était prévisible et déjà observé par le passé, un système sans référence, sans cadre, sans frein. Et dans cette négation du réel s’infiltrent tous les comportements les plus navrants de la société, le cynisme des puissants étant l’argument ultime de la déviance des faibles, et inversement.

Il est bien normal que les tensions dans la répartition des revenus lorsqu’elles atteignent des niveaux jugés insupportables  - passer d’un écart de un à 25 entre les plus bas salaires et celui du PDG dans les années quatre-vingt dix à un à 500 par exemple – fabriquent de la démotivation et du ressentiment. Il est bien normal que les excès du jeu spéculatif - dont les subprimes ou le système Madoff ont fait éclater les limites de l’indécence pour industrialiser à l’échelle mondiale un médiocre et banal  mécanisme d’escroquerie artisanale - n’incite pas les épargnants à confier à des institutions leur économies alors qu’ils ont parfaitement compris que les savantes martingales inventées  par des brillants scientifiques ont pour objectif de faire gagner le système à tous les coups en supprimant le risque pour les gros joueurs, mais pas pour les petits épargnants. Alors que les agences de notation dénoncent l’incurie des Etats surendettés, c’est encore vers les dettes souveraines que se tournent les investisseurs plus que sur les actions des entreprises innovantes… La mauvaise monnaie chasse la bonne.

Il est bien normal que le manque de confiance envers les nouvelles générations et qui se traduit partout par une augmentation de l’inactivité des jeunes et la persistance de statuts précaires conduise soit au décrochage soit à la révolte.

Ce système, privé de garde-fous, s’emballe dans une logique dévorante d’individualisation des profits et de socialisation des risques pour les uns, de découragement ou de colère pour les autres. Ce sauve-qui-peut généralisé s’applique aux individus, peu enclins à rendre des comptes, aux entreprises, aux collectivités et in fine aux Etats eux-mêmes. Dans ce jeu de massacre, qui croire, à qui faire confiance pour tenter de reprendre le contrôle d’une machine qui a échappé au contrôle de ceux mêmes qui avaient tout fait pour la manipuler ?

Ce fiel qui fabrique de la colère et de l’indignation, détruit la confiance base de l’économie, fait vaciller tous les principes éprouvés de systèmes sociaux équilibrés, est bien peu favorable à la reconstruction d’un système économique et social européen dynamique et mobilisateur.

Or  au fond de cette évolution résident quelques principes sains que l’on avait voulu  mettre en exergue, notamment en réaction contre l’inefficacité  de l’économie administrée des pays communistes. Ce qu’on a appelé « économie sociale de marché », objet, naguère, d’un large consensus dans les pays occidentaux, "était" composé d’un ensemble de principes constituant un système d’équilibre dynamique. Or les dérives ont remis en cause ce socle de principes et de valeurs.

Quand :

-on croit à l’économie de marché, comme régulateur efficace des décisions individuelles grâce à un système de prix le plus juste possible,

-on est convaincu que le marché seul ne suffit pas mais doit être accompagné d’un robuste système de règles, de jalons et de sanctions,

-on croit  à l’existence d’une relation proportionnelle  entre l’effort et la rémunération de cet effort,

-on pense que le travail et la compétence sont les moteurs naturels d’une émulation saine,

-on considère que la concurrence est le meilleur moyen de stimuler la créativité et l’innovation, mais que les rentes et les monopoles dégradent l’efficacité collective et éloignent du bien commun,

on a bien  peu de chances d’être aujourd’hui écouté et crédible…

Or à la place de ce système, que trouve-t-on ? Un libéralisme échevelé qui surpaye les footballeurs et met globalement le système de football en faillite ? Qui sur-rémunère les  traders au détriment de toute efficacité collective ? Qui accepte de rembourser des médicaments inefficaces au mépris de l’équilibre du système public de financement des soins ? Or aujourd’hui aux Etats-Unis, à l’instar des communistes de la belle époque, les libertariens professent que si le libéralisme est en échec, c’est qu’il n’est pas allé assez loin, et qu’il faut donc pousser encore plus loin la destruction de tous les systèmes régulateurs qui portent de près ou loin la marque de l’Etat, donc du collectivisme. Quand on se souvient que le slogan d’Enron était « Integrity and excellence », avant de plonger dans un trou de 50 milliards de dollars qui paraît presque anodin aujourd’hui, on mesure le caractère mystificateur de cette croisade purificatrice par les forces du marché.

Tout ceci est normal… Mais il faut vite sortit de cette normalité désespérante pour changer de cadre pour reconstruire un modèle désirable et mobilisateur. Les voies sont multiples.

 

*http://www.bide-et-musique.com/song/1892.html

 


Penser les technologies de l'information en 2050, pari impossible ?

Ce document est une réflexion préparatoire à l'émission de Daniel Fiévet sur France Inter le samedi 20 août 2011, http://www.franceinter.fr/emission-on-verra-ca-demain, "Internet, toujours plus connectés ?"

Le lien avec la rediffusion de l'émission : http://www.franceinter.fr/reecouter-diffusions/601

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix.  Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions.

Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes.  Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Ce que nous connaissons aujourd'hui a très peu de chances de subsister à cet horizon...

Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même si l’électricité a aussi joué un rôle fédérateur pluridisciplinaire- n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines.

Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre à leur tour.

Echapper à la malédiction méthodologique de la prédiction

La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses !  Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles »  ne peut aisément s’arracher aux contraintes de la vie immédiate.

Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

-       l’avenir  est domaine de liberté

-       l’avenir est domaine de pouvoir

-       l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire.

Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

-       la puissance des processeurs

-       la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés

-       la simplification et la diversification de l’interface homme/machine

-       la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations concommitantes de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel  et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons grâce à internet et au web. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders technologiques du XXe siècle qui a su capter l'essence de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

-       l’accélération exponentielle des capacités des outils actuels

-       des ruptures technologiques majeures  

-       des ruptures sociales autour de l’acceptabilité des technologies

 

  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004,  grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins  de consommation d’énergie -  que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme.

Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore.

Cette certitude  est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines.

Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière.

Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6)  qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans al décennie 2010 sans problème… Au delà on imagine déjà de

Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

2. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns  représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un.

L’objectif est de tirer partie de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils.

Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ».  Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

3. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique ? Les questions classiques d'éthique pernent unt toute autre dimension car "l'homme connectable" est véritablement une possibilité scientifique proche.

Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe.

La perspective ouverte par Ray Kurzweil de ce moment, imaginaire, où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde.  Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Pour Kurzweil, qui est un scientifique sérieux, cette évolution est inéluctable et... positive !

Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique.

La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée.  Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.  La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance.

Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux.

De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il n'est pas sûr que de ce chaos naîtra une gouvernance mondiale crédible...

Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique  que technologique est arrivé à bout de souffle.  Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. 

La promesse technologique s’inscrit dans ce contexte turbulent.  Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles.  Demain, comme hier, la technique n’est que secondaire.

 

Eléments de référence

Kurzweil, Ray, The Age of Spiritual Machines,  Penguin Books,2000

Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables

http://www.media.mit.edu/

http://techresearch.intel.com/

 


La DSI est-elle soluble dans le nuage ?

Cet article, fruit d'une initiative conjointe des trois derniers présidents du CIGREF, a été publié dans  01 Informatique Business et Technologies N°2091 du 1er juillet 2011

La tentation de construire un système d’information à partir de briques achetées dans le commerce  par les directions métiers n’est pas nouvelle. C’est  la promesse classique des éditeurs promoteurs d’une informatique « prête à l’emploi ». Pour servir leur stratégie et soutenir leurs processus opérationnels, les entreprises grâce à leur DSI, ont toujours cherché les solutions économiques et rapides en s’assurant, au-delà de la technique du moment,  que le système d’information de l’entreprise conserve son unicité et sa cohérence. La promesse de valeur de l’informatique du nuage, ou « cloud computing » doit donc être analysée avec méthode et lucidité.

La révolution informatique est ponctuée de ces grandes phases de rupture où se mêlent innovation réelle et emphase marketing. Certaines sont sans lendemain. D’autres, comme le PC, les ERP,  internet ont changé de nature  le traitement de l’information. Mais à chaque étape l’informatique s’est enrichie de solutions nouvelles impliquant des compétences qui se sont substituées aux modèles antérieurs, permettant à la communauté informatique de se renouveler en s’adaptant en permanence aux changements techniques.

L’informatique du nuage est un ensemble  de solutions qui associe la fourniture d’un programme applicatif et sa mise à disposition à travers internet. Il suffit à l’entreprise d’y intégrer ses propres données – organisation, produits, clients, fournisseurs – pour que l’application soit mise à la disposition de tous ceux qui en ont besoin et constamment adaptée.

On y retrouve les mêmes éléments que ceux souvent promis par l’industrie du logiciel et des services : haute disponibilité, fiabilité, mutualisation, sécurité, coûts adaptés à l’usage réel de la solution, temps de déploiement minimaux. Poussées par la consumérisation massive de l’informatique, ces solutions sont éprouvées par des centaines de millions d’utilisateurs quotidiens et font preuve dans les usages les plus courants, comme la messagerie, d’une fiabilité sans défaut  majeur. Balayer d’un revers de la main les arguments en faveur du développement d’une nouvelle informatique en nuage serait donc inutile et suspect de corporatisme.

Là où la communauté informatique peut s’émouvoir, c’est que l’informatique en nuage dispense l’entreprise d’installations informatiques propres puisqu’il « suffit » de se connecter à internet à travers n’importe quelle plateforme, PC, smartphone, tablette, quelque soit le système d’exploitation employé. Les traitements et la sauvegarde des données sont faits à distance par le fournisseur de service dans ses fermes de serveur. Ceci diminue la complexité des projets, puisque les phases de conception et de réalisation sont limitées au choix d’une solution pré-définie. Cela dispense également l’entreprise de s’équiper en infrastructure de production et de stockage. On gagne en temps et en coûts d’infrastructures et de services ce qu’on perd totalement en souplesse.

Or l’informatique d’entreprise s’est construite en additionnant des couches de complexité, liées aux choix d’organisation et aux évolutions techniques, qui en font souvent un écheveau coûteux à entretenir, impliquant des compétences multiples. Si les conditions de mise en œuvre de cette nouvelle informatique sont simples, elles impliquent néanmoins un important travail de transformation de l’informatique des entreprises, donc des investissements aussi bien dans les métiers que dans l’informatique. En effet les contraintes du nuage sont souvent très éloignées des conditions d’exploitation habituelle de l’informatique d’entreprise :

-       toute application doit être accessible à partir d’un navigateur

-       l’accès au réseau internet public à partir de tout point de l’entreprise doit être performant, permanent, sécurisé

-       toute application peut être opérée à partir de tout support : PC, tablette, smartphone, téléviseur

-       les applications sont standard et mutualisées et ne permettent pas une adaptation fine aux besoins

Les systèmes d’information se sont construits en quarante ans avec un patchwork de solutions qui en  font un ensemble certes ordonné et réellement approprié aux besoins mais complexe. Remplacer cet édifice par un autre patchwork de solutions trouvées sur internet ne réglerait pas le problème de la simplification et de la cohérence du SI.

Aujourd’hui le marché ne propose pas de solution globale. Il y a des réponses partielles intéressantes et éprouvées, comme la messagerie, les outils collaboratifs, voire certains champs applicatifs comme le CRM. Mais sur le plan fonctionnel beaucoup de problèmes internes restent sans réponse du marché.  Certains domaines comme le transactionnel lourd ou la conception assistée par ordinateur (CAO)  ne sont pas appropriés en raison de flux massifs de données qu’ils impliquent. Il est nécessaire d’assembler les solutions issues du nuage et les systèmes existants pour reconstituer le système d’information unifié, assurer la cohérence des données internes et celles traitées à l’extérieur en toute sécurité. Il faut également garantir la sécurité des données et leur rapatriement en cas de défaillance du fournisseur ou de réversibilité du contrat. Le nuage n’est pas non plus un ensemble homogène. Les solutions et les fournisseurs ne se valent pas tous et il faut être en mesure d’exercer des choix documentés et de les  contrôler. C’est un exercice méticuleux qui implique de nombreuses compétences internes.

Les DSI ne sont en rien hostiles au nuage qui dans certains domaines répond parfaitement à leurs besoins. Déchargés de tâches d’exécution, ils peuvent ainsi mieux se consacrer aux applications à plus forte valeur ajoutée métier comme  au développement de l’innovation dans les domaines qui n’ont été encore que faiblement explorés. Il est évident que l’internet des objets, la numérisation de l’ensemble des produits et services tout au long de leur vie, la généralisation de l’entreprise numérique entre fournisseurs et clients constituent des défis nouveaux pour  la DSI qui doit en devenir  à la fois orchestrateur et inspirateur. Le monde des technologies de l’information exigera encore le déploiement de talents internes, ouverts et adaptables, capables de tirer le meilleur parti des propositions du marché et de développer ainsi les vrais vecteurs de différenciation et de compétitivité. Les femmes et les hommes de l’informatique d’entreprise, comme des SSII, devront, une fois encore, se renouveler et acquérir des compétences nouvelles.

Le nuage ne doit pas être une solution en quête de problème. Ce n’est, aujourd’hui comme hier, qu’un outil avec ses promesses et ses limites, qui doit être progressivement intégré dans le portefeuille des entreprises pour ce qu’il sait bien faire avec pragmatisme et discernement. C’est également pour les entreprises individuelles, les TPE et certaines PME et ETI un ensemble de solutions efficaces qui leur permet de rapidement de bénéficier d’outils innovants, flexibles et peu coûteux. Symbole de la numérisation de notre société, l’informatique en nuage est donc sans conteste un composant majeur des systèmes d’information des entreprises et des collectivités.

La communauté des TIC a su relever par le passé le défi de la technicité et la maîtrise des coûts et de la qualité. L’informatique en nuage n’est qu’une opportunité de  plus. Non, la DSI n’est pas soluble dans le nuage. Elle seule peut offrir la garantie de son exploitation professionnelle et pertinente.

Jean-Pierre Corniou, ancien président du CIGREF (2000-2006)

Didier Lambert, ancien président du CIGREF (2006-2008)

Bruno Ménard, actuel président du CIGREF