La tectonique des plaques informatiques
07 juin 2018
L’informatique est en grande mutation, nous dit-on chaque jour. Nous sommes entrés dans le monde digital. Certes, si l’on mesure la puissance des objets que nous avons dans notre poche, la rupture avec le passé proche est radicale. Mais qui n’a pas été étonné de la persistance d’applications anciennes supportant des processus qui paraissent aujourd’hui archaïques. La liste est longue : demander une copie « originale » d’un document, écrire à la main « lu et approuvé », exiger, alors qu’on s’est entendu par courriel, un « courrier » de confirmation, attendre derrière un guichet pour reprendre des informations déjà partagées par le web… Qui n’a pas entendu une personne courroucée derrière son bureau pester contre la lenteur de son ordinateur et s’en prendre à un maléfique « réseau » ? Autant de petites choses du quotidien qui trahissent la rémanence de fonctionnements anciens, vestiges tenaces du monde ancien du papier, d’inadéquations persistantes entre le monde léger et instantané du « zéro délai, zéro défaut », que nous exigeons, et la réalité glaiseuse de la routine.
Une des causes de ces agacements réside dans la vétusté des systèmes informatiques, et donc des processus qu’ils supportent, face au sentiment de facilité, de légèreté et d’ergonomie qu’apportent les solutions issues du web.
Essayons de comprendre cette coexistence entre des applications modernes hautement pratiques et fonctionnelles et l’informatique des processus qui renvoie parfois à Courteline et incarne la bureaucratie.
En géologie, la dérive des continents , découverte par Alfred Wegener au début du XXe siècle, théorie démontrée et renforcée dans les années soixante par la compréhension de la tectonique des plaques, permet d’expliquer comment se forment les chaînes de montagne, les fosses océaniques et les éruptions volcaniques. Dans ce modèle, les douze plaques qui constituent la croute terrestre, ou lithosphère, glissent les unes sur les autres mues par la chaleur du centre de la terre. Les plus denses s’enfoncent sous les plus légères, c’est le phénomène de subduction. Si chaque plaque conserve sa morphologie, ce sont dans les zones de contact que les chocs se produisent. Ce processus est générateur de nombreux phénomènes violents, explosions volcaniques, tremblements de terre… Des roches anciennes disparaissent, de nouvelles structures se développent. C’est un processus très lent, mais cette fabrication du nouveau engendre des réactions de l’ordre ancien qui résiste, puis finit par céder.
L’informatique est ainsi. C’est une plaque historique qui s’est formée à la fin du XIXe siècle et a poussé au cours du XXe siècle. On lui doit de multiples innovations qui ont été totalement métabolisées par le corps social, après avoir été violemment rejetées. L’informatisation des processus a permis de construire des systèmes efficients dont les exemples les plus anciens et les plus accomplis sont la circulation aérienne ou la banque de détail qui ont permis à ces industries de connaître une expansion remarquable. L’informatisation des entreprises s’est développée tout au long de la seconde partie du XXe siècle, en couvrant de processus automatisés la plupart des fonctions, par cercles concentriques du noyau comptable vers les fonctions de production, logistique, conception, design. Mais ces processus automatisés préexistaient à l’informatique, ils étaient mesurables et prédictibles, et compris par les professionnels qui en avaient la charge.
Le système informatique qui s’est construit grâce à une ingénierie méthodique et rigoureuse - gestion de projet, cycle en V - est désormais bousculé par une plaque émergente, le monde de l’internet et du web, qui embarque avec elle des innovations radicales comme l’informatique mobile, le monde de la donnée, l’exploitation des outils de l’intelligence artificielle par l’usage de nouveaux algorithmes, la connexion des objets…
En s’éloignant constamment des contraintes physiques de la machine, l’informatique s’est centrée sur la performance fonctionnelle à travers les progrès de l’architecture et du développement. Simultanément, les progrès opérés sur les processeurs, les réseaux et les mémoires étendent constamment l’horizon de la programmation. Ce rapport dialectique entre le processeur et le code transforme structurellement le champ de l’informatisation qui, naguère concentrée sur les processus stables et les données structurées, embrasse désormais tout type d’information, structurée ou non structurée, sur tout support, fixe ou mobile, textuel ou graphique.
Toutefois, si la plaque de l’informatique structurée s’enfonce graduellement, elle ne disparait pas pour autant ! Ce qu’on appelle « numérique » ou « digital », et qui s’incarne dans la pluralité des applications, ou « apps », accessibles à partir de l’ordinateur mobile que les Québécois appellent « téléphone intelligent » et les Français « smartphone », s’appuie sur une ingénierie informatique de haut niveau qui est le résultat de décennies de recherche et développement et d’industrialisation. Car la mutation du vocabulaire qui a consisté à oublier l’informatique pour ne retenir que le mot digital, n’est qu’un leurre.
Source : INSU CNRS
Ces deux plaques informatiques sont composées des mêmes matériaux : des données, des algorithmes, des machines, avec leurs langages de programmation, et des interfaces. Reprenons la tentative de définition que donne Gérard Berry[1]pour solder ce débat parasite sur le vocabulaire.
- Le mot « informatique » désignera spécifiquement la science et la technique du traitement de l’information, et, par extension, l’industrie directement dédiée à ces sujets.
- L’adjectif « numérique » peut être accolé à toute activité fondée sur la numérisation et le traitement de l’information : photographie numérique, son numérique, édition numérique, sciences numériques, art numérique, etc.
L’informatique est le moteur du traitement des informations numérisées. Toute réflexion sur le monde numérique inclut donc une réflexion sur les outils informatiques indispensables au traitement des données numérisées. Le schisme informatique/numérique étant dépassé, il reste à comprendre ce qui a vraiment changé dans ce nouveau monde numérisé.
La plaque « numérique » est différente par ses apports plus qu’elle ne l’est par sa nature. La généralisation de la numérisation de l’information – transformée en données binaires – permet une extension infinie des usages. La plaque « numérique » est donc avant tout marquée par la totale démocratisation du traitement numérique de l’information qui, avant 1995, était l’apanage des grandes organisations, entreprises et états. Aujourd’hui, chacun peut s’essayer à comprendre la programmation, sans pour autant devenir programmeur, avec des outils et des tutoriaux largement disponibles, mais surtout exploiter les millions d’applications quasi-gratuites accessibles dans les magasins d’application. Le numérique, c’est avant tout un champ immense ouvert à la créativité, à l’imagination et à l’échange. Chacun peut s’autoproduire dans la création musicale, vidéo ou littéraire, sans frein, sans délai. On peut puiser de partout dans l’immense réservoir de savoir qu’est le web et son vaisseau amiral, Wikipédia. Cette profonde transformation de l’accès aux ressources de connaissance, de production et de diffusion est la marque de notre époque. Elle porte de formidables transformations culturelles et sociologiques, en effaçant la barrière tenace entre la caste auto-proclamée des sachants et le monde oublié des ignorants. Elle force chacun à hisser son niveau d’exigence dans l’accès à la connaissance et ne permet plus de trouver des prétextes à l’ignorance. Certes, on peut brocarder les excès, les dérives, les tentations de détournement fabriqués par les trolls de toutes obédiences. Là où la liberté jaillit, le totalitarisme menace et ce n’est pas nouveau. Mais l’élan vital est plus fort que les scories. L’éducation ne peut ignorer aujourd’hui que le décryptage de l’information est un des outils les plus précieux de l’accès à la connaissance. L’éducation au discernement passe par la compréhension maîtrisée de moteurs de recherche... et le décryptage des onglets des articles de Wikipédia. La démocratie ne se fabrique plus seulement dans les préaux d’école et dans les urnes, mais aussi sur les réseaux sociaux qui doivent acclimater l’éthique indispensable.
Mais l’informatique du XXIe siècle continue à s’appuyer pour atteindre ses performances sur une ingénierie de haut niveau. Le numérique n’est ni facile, ni gratuit, ni instantané. Pour être fiable, sûre, et livrer en temps réel toutes ses promesses, l’informatique du XXIe siècle est exigeante et rigoureuse. Elle couvre un champ immense d’activités humaines et doit donc atteindre à chaque instant l’excellence. Or l’informatique est une œuvre humaine, donc faillible. La fiabilité est le résultat d’un processus continu de gestion proactive de la qualité qui implique de la compétence, de la rigueur à chaque étape : spécification, design, architecture, conception, programmation, exploitation, surveillance. Cette maîtrise va devenir un des éléments centraux de la performance des systèmes complexes. Elle implique de travailler en profondeur sur la dimension humaine de l’informatique et englobe une vision systémique de la compétence informatique : des formations appropriées, dès le plus jeune âge, des carrières attractives, une reconnaissance collective pour les professionnels de l’informatique et, aussi, une vraie compréhension des coûts. Il est en effet futile de considérer que l’informatique est encore un centre de coût. C’est un ensemble de disciplines qui doivent être traitées avec compétence et respect par les dirigeants des organisations, ses projets et son mode de fonctionnement justifiant une authentique éducation pour permettre une prise de décision informée.
On ne peut que conseiller la lecture de cet ouvrage fondamental à la compréhension de l’usine informatique du XXI siècle « Accelerate »[2]dont la conclusion est claire et fait de l’informatique un des cadres organisationnels les plus cruciaux pour le bon fonctionnement de notre société. “In all of our research, one thing has proved consistently true: since nearly every company relies on software, delivery performance is critical to any organization doing business today. And software delivery performance is affected by many factors, including leadership, tools, automation, and a culture of continuous learning and improvement.”
[1]Berry, Gérard. L' Hyperpuissance de l'informatique: Algorithmes, données, machines, réseaux (OJ.SCIENCES) Odile Jacob, 2017
[2]Nicole Forsgren, Jez Humble, Gene Kim, Accelerate: The Science of Lean Software and DevOps: Building and Scaling High Performing Technology Organizations. IT Revolution Press,2018.
Commentaires