Paradoxes II : travailler plus pour gagner plus, ou moins, ou...

Pourquoi travailler plus ? Pourquoi travailler moins ? L’économie est une science bizarre. On se bat comme des chiffonniers pour savoir où  en Allemagne ou en France on travaille le plus. Pour conclure que ce sont les grecs qui travaillent le plus en Europe, ce qui ne les sauve pas pour autant…Ce sont des questions de base qui animent régulièrement le débat public, surtout en période électorale où il faut porter des coups à l’adversaire, et non pas comprendre. De fait, en 2007, dernière année avant la crise, selon l’INSEE la durée moyenne de travail annuelle des salariés - 1730 h pour les hommes, 1600 h pour les femmes - dépassait largement la durée légale de 1607 h. Les chiffres de 2011 sont différents, crise aidant.

Le travail est un phénomène complexe. Chaque situation individuelle se dilue dans une vision catégorielle . Il y a tant de situations tout au long  de la vie. Etudiants prolongés, salariés et non salariés, travailleurs au forfait, comme les cadres et la maîtrise, qui dépassent largement les 35 h sans incitation financière spécifique, travailleurs à temps plein ou à temps partiel, par choix, ou contraint, chômeur actif ou résigné, retraité précoce, tardif, inactif ou hyperactif. C’est une question de statut professionnel -un travailleur indépendant n’aura pas le même profil de vie qu’un fonctionnaire -, de choix de vie et de sur-détermination sociale.

La pensée caricaturale conduit à stigmatiser ceux qui ne travaillent pas… Or depuis le début du XXe siècle, la durée moyenne, toutes catégories confondues, du travail effectif est passée de 200000 heures à 67000 heures. Nous vivons désormais grâce à l’allongement de la vie, et à l’amélioration de l’efficacité productive, deux vies complètes, une vie de travailleur et une vie de rentier. Comme on a gagné plusieurs centaines de milliers d’heures de vie en un siècle pour vivre 700000 heures, le travail ne représente plus que 12% de notre existence, contre 40% à la fin du XIXe siècle, mais nous passons 15% de notre vie devant un téléviseur et 30% à dormir*… Par rapport à nos grands-parents, nous sommes tous de grands fainéants, et en plus nous nous plaignons.  Bien sûr les moyennes ne sont que des outils bien sommaires pour rendre compte de la réalité, de notre réalité individuelle qui seule compte. Mais quelle réalité ? Est-ce qu’un footballeur qui ne travaille que quelques heures par semaine sur l’année, ou un pilote d’Airbus A380, ou un président de la République, à la tâche 7 jours sur 7, doivent être jugés  sur la durée de leur travail apparent ? La leçon quotidienne sur les jugements péremptoires que nous portons sur le travail… des autres incite à beaucoup de prudence et de modestie.

Le constat incontestable est que nous vivons beaucoup plus longtemps, et en bonne santé, et que nous avons besoin de beaucoup moins travailler pour vivre longtemps et en bonne santé. Il faut que les grincheux s’habituent à cette réalité troublante. Le travail ne devient plus qu’un cas très particulier de notre passage sur terre. Il va même plonger au dessous de 10% du temps de vie dans un futur immédiat. Bonne nouvelle, bien sûr ! Mais aussi défi majeur pour une société qui avait construit tous ses mécanismes de transfert sociaux sur… le travail !

La raison de ce trouble est simple : l’économie se situe au carrefour de multiples disciplines dont les analyses sont souvent contradictoires. L’économie vise à analyser le comportement humain dans les choix qui président à la couverture des besoins « domestiques », économie venant de oixos, la maison. Et l’économie est indissociable du système socio-technique qui la soutient. Or depuis la révolution industrielle  le travail n’est pas le seul facteur de nos progrès. Il n’y a pas de relation évidente entre le volume de travail (« plus » de travail), le niveau de production et la rémunération.  Il est curieux de constater que deux positions idéologiquement opposées dans le spectre politique français renvoient à une même analyse archaïque de la place du travail dans une économie moderne. « Travailler plus pour gagner plus » ou mieux répartir le travail existant en diminuant la durée hebdomadaire du travail, les "35 heures", sont deux interprétations identiques d’une même vision : le travail est un stock. Or il n’en rien, et depuis longtemps.

 

BellamyaTpsmod



 

Le travail a d’abord été utilisé pour apporter une réponse urgente aux besoins des couches basses de la pyramide de Maslow… survivre ! Se nourrir, se protéger des intempéries, du chaud et du froid, assurer la pérennité de l’espèce ont fourni pendant des millénaires le cadre naturel et obligé des échanges économiques. Il a fallu que la découverte des machines nous dotant d’une prothèse musculaire efficace ainsi que les progrès dans  la compréhension de notre environnement naturel nous permettent de faire des gains significatifs dans la productivité du travail pour nous arracher à cette zone de survie précaire. Ce n’est pas la seule intensification du travail qui a permis à l’humanité de progresser, mais la science et la technique. En même temps, le déploiement de nouvelles techniques - on ne parlait heureusement pas de « technologie » dans ce passé récent – apportait à chaque étape son lot de destructions créatrices. L’exemple du métier à tisser de Jacquard est le premier d’une longue série. Quand on observe le travail d’un paysan qui récolte les foins en quelques heures, seul au volant de son tracteur climatisé, on se souvient d’un passé proche où cette tâche impliquait des dizaines de personnes, enfants et vieillards inclus…Aujourdh'ui on en fait une reconstitution ...

Capture d’écran 2019-03-26 à 15.42.18

 


La mécanisation, puis l’automatisation et enfin l’informatisation ont cassé le lien linéaire entre le volume de travail et le volume de production. La croissance économique s’est construite par la réduction du volume de travail qui est le produit du nombre de travailleurs par la durée du travail pour une technique donnée. Et ce processus va continuer à opérer en touchant les métiers tertiaires encore peu transformés par le développement de la numérisation totale de toutes les activités.

 

 

Congespayes1217484722

 

 

L’automobile illustre clairement ce phénomène. Au début du XXe siècle les premières voitures automobiles étaient construites à l’unité à la main. C’étaient des produits artisanaux, extrêmement coûteux, réservés à une élite. Il a fallu Henry Ford pour comprendre que ce produit rencontrerait une demande forte si on en abaissait considérablement le prix de production, et pour cela il fallait casser le modèle de production unitaire pour passer à la grande série. Standardisation et mise en place de chaînes d’assemblage servies par des ouvriers exécutant des tâches simples et répétitives ont permis le décollage de cette industrie. C’est donc la rupture dans la conception qui a permis la croissance, non pas l’intensification du travail. Ce processus a progressé avec la robotisation qui a conduit à un accroissement de la qualité et à la réduction tant de la pénibilité du travail que du nombre de travailleurs. Le volume de travail direct engagé pour construire une voiture moderne est très faible. L’usine Renault de Flins est passée de 21000 salariés dans les années 70 à moins de 3000 aujourd’hui pour une production certes réduite de 50 %.  Certes l’organisation du travail actuel implique que lorsqu’on désire accroître la production d’un modèle, il faut intensifier l’utilisation du capital, la chaîne d’assemblage, ce qui requiert  l’apport d’une équipe supplémentaire.

Si un grand nombre d’emplois restent associés à un cycle de tâches élémentaires directement liés au temps qui leur est consacré – une coupe de cheveux, par exemple -, la plupart des emplois modernes dissocient temps de travail et production. C’est le cas de tous les emplois conceptuels - les manipulateurs de symboles - dont la production intellectuelle n’est pas fonction du temps qui lui est consacré. L’exemple parfait est celui du chercheur.  Les professions de création ne permettent pas d’établir un lien prédictible entre le volume de travail, le résultat atteint et la rémunération qui en découle.

L’arrivée de l’informatique, puis du  web sont  venues à leur tour bouleverser les mécaniques du travail. Plus de travail ne permettra pas de faire plus de courriels  pertinents, plus de tableaux excel utiles, plus de présentations  powerpoint probantes. Les heures de bureau, entrecoupées des pauses cigarette et café, et d’interminables réunions, sont une série de sprints courts pour  produire de l’information et l’envoyer telle une bouteille à la mer sur le réseau. Une idée peut naître n’importe où, n’importe quand, se propager instantanément  et apporter des résultats clivants ou simplement rejoindre le cimetière des fausses bonnes idées… La dématérialisation du travail a de nouveau dissocié le lien entre temps de travail, production, efficience et rémunération.

Il reste que le travail sert à beaucoup plus de fonctions que produire…  Le travail procure un statut social, des horaires, un lieu de travail, des collègues, un environnement de socialisation et… une rémunération. Il y a dissociation entre le travail, mesuré en heures, le produit  final et la rémunération. La place dans l’organisation, la reconnaissance par les pairs, l’image et le leadership  deviennent plus important que le seul travail fourni.  L’autorité et le lien de subordination sont moins efficaces quand il s’agit d’agir sur la capacité de conception que lorsqu’il ne s’agit que de maîtriser une contribution « musculaire ».

Enfin, il y a  de plus en plus de situations où la rémunération est obtenue sans travail – la retraite, le chômage, les études – mais par un mécanisme de solidarité basé sur une assiette qui ne peut plus être seulement le travail des autres. D’où la nécessité de repenser ce que signifie revenu de remplacement ou de solidarité tout au long de la vie. Se rencontre d’autres situations de rémunération sans « travail », le jeu ou la spéculation par exemple, qui peuvent néanmoins impliquer un certain talent…

Or comment remplacer ce mécanisme simple - travail = revenu - pour trouver tout au long de la vie des mécanismes de socialisation équitables, motivants et socialement utiles associés à un mode de rémunération politiquement acceptable? Au siècle des réseaux et du cerveau d’œuvre, alors que la dématérialisation multiplie à l’infini, idées, sons et images, il faut admettre que produire du sens devient aussi important que produire des biens. La décroissance qui tourne le dos à la science n'est pas la solution. L'intelligence collective en réseau peut réduire les dommages collétaraux d'une croissance des revenus plus respectueuse des équilibres naturels de long terme. Est-ce que le marché, qui demeure le moins mauvais des systèmes d'arbitrage, peut inventer les modèles de régulations jugés souhaitables ?

Utopie ? Certainement moins que l'idée d'atteindre couramment cent ans pouvait apparaître folle au XIXe siècle au temps de Karl Marx... Il faudrait d’abord reconnaître que toutes ces questions ne constituent pas un problème mais une formidable opportunité puisque, pour la première fois dans l’histoire, nous avons désormais le choix d’inventer et non pas de subir !

* Nouveau portrait de la France, de Jean Viard, Éd. de l’Aube, janvier 2012

Quel travail voulons-nous ?, coédition France-Inter avec les éditions Les Arènes, janvier 2012 

 


CES 2012 : la convergence s'affirme

L'intensité du développement de la planète numérique reste largement une vision conceptuelle quand on s'en tient aux seules statistiques.  Leur démesure spectaculaire ne rend pas compte des bouleversements en cours. En dix ans, soit une fraction de seconde du temps géologique, 5 milliards de terriens ont accédé à la téléphone mobile et 2,1 milliards à l'usage d'Internet. Plus encore le développement de l'Internet mobile rapproche ces deux mondes en créant une mobiquité dont l'ampleur était encore inimaginable il y a quatre ans lors de la sortie de l'iPhone. Rien de tout ceci n'a été prévu, programmé, orchestré.

S'il fallait encore se convaincre du caractère universel de cette transformation, il suffit d'observer les voyageurs d'un TGV. Chacun utilise un, voire plusieurs, objets numériques pour se distraire, regarder un film ou lire un livre numérique, pour s'informer ou travailler, pour communiquer, parfois sans trop de discrétion... Enfants, grand-parents ou professionnels, quel que soit l'âge ou le rôle social,  les objets utilisés sont de format différent mais ont été intégrés de façon naturelle dans le quotidien de chacun. Le monde de l'Internet, du smartphone, ont créé une culture de la mobilité et de la collaboration sans précédent dans l'histoire de l'humanité. Le vieux monde construit sur la rareté de l'information, sa gestion monopolistique  et son contrôle central s'effondre pour faire place à un monde polycentrique où chacun est à la fois émetteur et récepteur d'information, en tout lieu, à tout instant, avec une pluralité d'outils.

S'il fallait désigner un lieu sur la planète où cette transformation se visualise de façon  évidente, le Consumer Electronic Show en est le candidat par excellence... En effet, le monde du numérique se retrouve chaque année au Consumer Electronic Show dont la 44e session vient de se clore à Las Vegas. Ce qui n'était à l'origine qu'un vaste salon du son et de la télévision est devenu la manifestation globale de l'ère numérique.


Avec  3100 exposants  répartis sur la plus grande surface de l'histoire du CES, 17 ha, l'édition 2012 à attiré 153000 professionnels du monde entier. 20000 nouveaux produits ont été présentés et tous les dirigeants de la planète numérique s'y sont rencontrés. Mais ne sont plus présents les seuls acteurs de l'infrastructure, des produits et services numériques. Aux côtés des dirigeants de l'industrie informatique et télécommunications -Qualcomm, Microsoft, Intel, Xerox, Ericson - , des fournisseurs de services -Google, eBay, Facebook, Verizon - , se précipitent maintenant au CES les dirigeants de l'ancienne économie qui n'hésitent plus à montrer que leurs métiers de base sont revisités par le numérique. Ford est un habitué,  Mercedes a emboîté le pas d'Audi, présent en 2011, Unilever,Wal-Mart, General Electric ont fait une apparition remarquée en 2012.

Si sur la forme le CES affirme son rôle de manifestation mondiale phare, on peut dire que sur le fond il n'a pas apporté  de surprise  mais largement confirmé et amplifié les tendances. La révolution numérique continue à avancer, dans tous les continents, dans tous les usages. D'un CES à l'autre se dessinent et se complétent les vagues de transformation. En 2012, ce sont l'automobile et la santé, la gestion individuelle de l'énergie, la polyvalence des écrans, le développement de l'internet des objets qui attirent l'attention. Mais la 3D qui était le "must" de 2011 et 2010 n'a pas disparue, elle devient mature...

Tout communique : les hommes et les machines. Tout est cohérent : peu importe le contenant, images, voix, données, le contenu est distribué partout sous la même forme  à travers des objets choisis au gré de l'utilisateur pour leurs propriétés contextuelles. Le smartphone est l'outil de la mobilité quotidienne, la tablette et le PC allégé et mobile sont désormais accompagnés des téléviseurs connectés qui offrent un grand confort d'utilisation grâce à leur écran et permettent un partage collectif de l'experience numérique qui n'ets plus nécessairement un exercice solitaire.

L'expérience de l'utilisateur, du client et du citoyen, est fabriquée, enrichie, partagée  au cœur de son propre système à travers les trois axes cognitif, décisionnel, émotionnel. La continuité numérique prolonge l'expérience à travers des codes de mobilité qui sont devenus des standards. Les données, qui s'affranchissent du support grâce à la diversité des outils d'accès et surtout de la capacité à être stockée en dehors des machines dans le nuage  retrouvent tout leurs sens.

Le CES par son impact visuel, par la confrontation des points de vue offre un moment unique de lecture de la société numérique et de compréhension des mouvements rapides qui l'animent. Alors que le numérique tend à dissocier les facteurs de transformation, le CES permet de comprendre leur unité et leur cohérence. C'est une manifestation irremplaçable pour qui veut embrasser d'un seul regard et en un seul lieu la puissance et la diversité de la révolution numérique.


De l'informatique au numérique, du XXe au XXIe siècle

 

Le monde des technologies de l’information est en train de vivre une révolution qui est tout sauf tranquille. Depuis des années, les techniques issues du web, historiquement reléguées à la sphère privée, grignotent le monde de l’informatique d’entreprise. Pour certains il faut s’en inquiéter, pour d’autres s’en réjouir, internet et le web sont en passe de devenir le moteur central du système d’information de l’entreprise. La "consumérisation de l'IT" est un processus de déstructuration /reconstruction d'une puissance considérable comme toutes les grandes transformations techniques de l'histoire.  Mais, cette fois, elle concerne instantanément tous les habitants de la planète. Cette accélération dans le temps et dans l'espace alimente une vague de transformations sans précédent.

Dans quelques années, toutes les applications, tous les services, tous les accès pourront emprunter les techniques et les modèles d’affaire inventés par le web. Dès lors l’informatique ne sera plus un élément d’infrastructure, piloté par les coûts, mais sera devenue l’essence même de l’entreprise, se confondant avec ses processus, nourrissant par un flux constant d’informations complexes tous les rouages de l’organisation. Le phénomène d'ancilarisation de l'informatique, traitée sans ménagement comme un pur centre de coûts taillable et corvéable à merci laisse exangues les budgets informatiques, mais ouvre largement le champ de l'innovation aux métiers. Car pour beaucoup de dirigeants, l'innovation, ce n'est pas de l'informatique et il est légitime de laisser s'ouvrir des centres de compétences "digitaux" en dehors de la DSI. Les métiers ont besoin de cette capacité de créativité que donne l'usage pertinent des techniques de traitement de l'information. Si la DSI, contrainte, ne peut leur donner cet oxygène, ils vont le rechercher par leurs moyens propres à travers leurs budgets de marketing, de communication, d'investissement...Cet éclatement, subi plutôt que conscient, met à mal la cohérence du système d'information et fractionne les données qui sont le capital central de l'entreprise.

Il est encore possible de réconcilier les deux dimensions dans une vision unifiée, tonique et cohérente, des actifs numériques de l'entreprise démarche novatrice qui sera la signature des entreprises du XXIe siècle.

Il s’agit là d’une autre aventure qui dépasse le champ de la technique et impose un changement radical dans l’attitude des dirigeants. Ils ont pu pendant des décennies déléguer la construction et le pilotage de  la « mécanisation » des processus manuels historiques des entreprises, couches d’activités régaliennes, logiques transactionnelles  que les ERP ont réussi à traiter efficacement  non sans douleur initiale. La révolution informatique est ponctuée depuis cinquante ans  de grandes phases de rupture où se mêlent innovation réelle et souvent emphase marketing. Mais le PC, les ERP, les logiciels de CAO ont changé de nature  le traitement de l’information. Ces révolutions passées n’ont pas toutefois changé la nature de l’entreprise. Elles n’ont pas altéré le fonctionnement historique en silos et en pyramides, ni la segmentation des compétences.

Cette fois, ce sont les dirigeants et les métiers qui sont en première ligne. Les directions du marketing ont été les premières à en mesurer la portée. Connaitre et comprendre intimement le client est devenu le ressort vital de la compétitivité. Les entreprises nées dans le monde du web pour faire de l’e-commerce pratiquent à merveille la symbiose entre leur modèle marketing et les techniques du web. Les webanalytics sont le symbole de cette cohérence intime. L’information, minute après minute, est l’actif majeur de l’entreprise qui pilote son chiffre d’affaires comme en régate.

Jamais l’humanité n’aura produit, échangé, stocké autant d’informations. Le MIT estime qu’en une année nous produisons cent fois toute l’information produite depuis l’origine de l’humanité et ce chiffre croît de façon exponentielle. Ces informations sont la matière première de la décision dans tous les domaines de l’activité, que ce soit pour le consommateur final devenu son propre expert et s’appuyant sur l’avis de ses pairs, ou pour le fournisseur en entreprise étendue, partenaire en co-design de la conception et de la vente de produits complexes dont la totalité de la gestation est désormais numérique.

Ce monde que l’on commence à caractériser par l’appelation Big data a généré ses nouveaux outils : appareils mobiles surpuissants, réseaux à haut débit ultra-performants, cloud computing. Un iPad est aujourd’hui aussi puissant que la machine de calcul mythique des années 85, le Cray. L’informatique du nuage est un ensemble  de solutions qui associe la fourniture d’un programme applicatif et sa mise à disposition à travers internet. Il suffit à l’entreprise d’y intégrer ses propres données – organisation, produits, clients, fournisseurs – pour que l’application soit mise à la disposition de tous ceux qui en ont besoin et constamment adaptée, et ce sans investissement en capital ni délai.

Poussées par la consumérisation massive de l’informatique, ces solutions sont éprouvées par des centaines de millions d’utilisateurs quotidiens et font preuve dans les usages les plus courants, comme la messagerie, d’une fiabilité sans défaut  majeur.

L’informatique d’entreprise s’est construite en additionnant des couches de complexité, liées aux choix d’organisation et aux évolutions techniques, qui en font souvent un écheveau coûteux à entretenir, impliquant des compétences multiples. La révolution numérique apporte une décomplexification majeure du traitement de l’information mais remet les données au cœur de la compétition économique. Or la maîtrise des données n’a pas fait l’objet des soins nécessaires. Beaucoup d’incohérences subsistent, compensées à grand frais par des usines informatiques.

Aujourd’hui le marché ne propose pas encore de solution globale. Il y a des réponses partielles intéressantes et éprouvées, comme la messagerie, les outils collaboratifs, voire certains champs applicatifs comme le CRM. Mais sur le plan fonctionnel beaucoup de problèmes internes restent actuellement et transitoirement sans réponse du marché. 

 Il sera nécessaire encore longtemps d’assembler les solutions issues du nuage et les systèmes existants pour reconstituer le système d’information unifié, assurer la cohérence des données internes et celles traitées à l’extérieur en toute sécurité. Il faut également garantir la sécurité des données et leur rapatriement en cas de défaillance du fournisseur ou de réversibilité du contrat. Le nuage n’est pas non plus un ensemble homogène. Face à un marché naissant, il faut être en mesure d’exercer des choix documentés et de les  contrôler. C’est un exercice méticuleux qui implique de nombreuses compétences internes.

Mais rien ne pourra ralentir la transformation en cours. Elle est radicale. Elle va alimenter une nouvelle ère de performances économiques basée sur le rapprochement fertile d’informations naguère isolées et ignorées. Non seulement les hommes échangeront les informations pertinentes pour prendre, à chaque instant, des décisions informées, et en rendre compte, mais ils le feront en compagnie de machines elles-mêmes connectées en réseau, l’internet des objets. La mise à disposition d’informations contextuelles à chaque niveau de l’organisation, comme de la société, percute le modèle classique, déjà ébréché, de la descente d’informations filtrées. Chacun a pris l’habitude d’accéder à toutes les informations dans sa vie quotidienne et attend de l’entreprise de lui fournir tous les moyens de travailler efficacement sans délai inutile.

Expertisesystemssm  Business_rules_example

Exemple d'architecture intégrant des capteurs au système d'information de l'entreprise

Source : http://rfid.net/



Aussi, la révolution de l’information ne peut plus être poussée par la seule technique. Elle rend indispensable l’implication personnelle des dirigeants pour en prendre le leadership. Il ne s’agit plus de choisir entre un Blackberry ou un iPhone, mais entre un modèle dépassé d’organisation et de gestion, et des modèles novateurs riches en promesses.

C’est l’affaire des seuls leaders.

 


La France s'ouvre à l'open data

Comment dit-on "open data" en français ? Voici ce qu'il nous faudra rapidement établir pour faire comprendre cette transformation majeure de la relation entre les Etats, les collectivités territoriales et les citoyens. Le "partage des données publiques" est en effet une vraie révolution. Mais ce n'est que la partie visible de l'iceberg. La démocratie y gagne, mais c'est l'économie qui devrait être la véritable bénéficiaire de cette capacité nouvelle à appuyer les décisions individuelles sur des informations qui jusqu'alors n'étaient pas disponibles ou  inexploitables.

Ene effet la philosophie ultime de l'open data est d'inciter les acteurs privés à exploiter ces données publiques pour proposer des services nouveaux à caractère marchand. En effet, la valeur vient non pas de l'accès à la donnée brute, mais résulte d'un process de traitement des informations, de leur rapprochement et de la mise à disposition du client de clefs de décision inédites. 

Le portail francais vient rejoindre un grand nombre d'initiatives mondiales  et régionale, comme Bordeaux ou Rennes. C'est une initiative qu'il faut louer, mais surtout amplifier par une prise en compte par  les entrepreneurs de cette nouvelle opportunité de création de service.

 

Portail open data


Réindustrialiser la France

Le Conseil national des ingénieurs et scientifiques de France vient de publier son livre blanc qui apporte une contribution significative à la réflexion sur la relance du développement de la science et de l'innovation en France. Si, hélas, il ne s'agit pas du premier rapport sur ce thème, il présente une vision synthétique qui constitue une stimulante plate-forme de débat et surtout d'action. Il est vain de penser qu'il sera possible de redresser rapidement les comptes, le déficit abyssal de notre commerce extérieur, moins commenté que la dette publique, démontrant la gravité de la dégradation de notre performance économique à l'extérieur. Néanmoins, nous sommes dans une époque où la réactivité des systèmes autorise de nouvelles audaces et une capacité rapide à trouver place sur les marchés. Il faut donc non seulement s'inscrire dans le temps long de la science, mais aussi dans le temps court de l'innovation.

http://www.cnisf.org/upload/pdf/cp_sortie_livre_blanc_2011.pdf


Paradoxes 1 : l'économie a besoin d'un Etat fort

Les périodes troublées sont anxiogènes. Mais elles obligent à reconsidérer, au-delà de la volatilité du  quotidien, ce qui fait vraiment problème et identifier de nouvelles pistes de  solutions.  Bombardés depuis des mois par une actualité intense, et sombre, il apparait urgent et  indispensable de reconstruire des repères pour dégager de ce vaste sentiment d’échec et de gâchis des motifs de confiance. Car c’est la confiance qui est au cœur de la civilisation. Penser que tout problème peut trouver une solution entre gens compétents et bien intentionnés rassure. A l’inverse, voir s’effondrer les uns après les autres les convictions, les institutions, les réputations, les dirigeants, dans un jeu de massacre sans fin, accroît le malaise et l’anxiété. Nous avons tout à tour encensé l'Etat centralisateur, puis la décentralisation, l'économie sociale de marché, plus la déréglementation, l'espace économique régional - "le marché commun"-, puis l'ouverture totale à la concurrence libre et non faussée, l'euro comme vecteur de discipline économique et politique, puis admis que le projet avait été mal conduit... Toutes ces convictions assénées avec une vigueur assassine tuant le débat conduisent aujourd'hui à un grand vide idéologique. IL n'y a pas de plan B conceptuel. Je me jette dans le débat avec cette série des "Paradoxes" qui sont un moyen d'illustrer le caractère vain de toute pensée schématique et arrogante dans un monde complexe où l'analyse systémique, seule, peut nous aider à sortir de l'ornière de la pensée unique.  Tentative ambitieuse, sans aucun doute... Au lecteur de contribuer à corriger et enrichir les éléments de débat que je livre en patûre. Qu'il en soit remercié !

La décomposition de l’Etat est un signal inquiétant qui ne peut être une bonne nouvelle que pour les anarchistes. Anarchie veut dire au sens strict du terme « pas de pouvoir », donc pas de règles, pas d’autorité pour les faire respecter. C’est le renard libre dans le poulailler libre. Curieusement, les anarchistes du XXIe siècle se recrutent aussi bien  dans les rangs du Tea Party que dans les banlieues pauvres de Londres ou  Paris, parmi les adeptes du crime organisé ou les mafias russes et chinoises, et même à moindre échelle dans la perversion morale parmi les thuriféraires de la fraude fiscale… Rejeter l’Etat, ses contraintes, ses lois est devenu un sport chic où se sont retrouvés, au moins jusqu’à l’automne 2008 cols blancs bien pensants et truands accomplis.  La déflagration qu’a représentée la crise des subprimes, escroquerie banale transformée en ingénierie financière de pointe a jeté un discrédit sur ces pratiques marginales douteuses mais que la faiblesse des contrôles avait rendu délicieusement abordables. L’arrivée du chevalier blanc étatique pour sauver le système économique que ces pyromanes avaient fait exploser n’a pas suffi, au delà des déclarations pieuses sur la réforme du capitalisme, à restaurer le crédit moral de  l’Etat au moment où son crédit financier était tombé au plus bas.

De fait plus personne n’a plus confiance en rien, ni dans le marché suspect, ni dans l’Etat impuissant, ni dans la classe politique prise comme le lapin affolé dans les phares en flagrant délit d’incompétence « systémique »…  Nous sommes entrés dans une logique d’individualisation extrême dès lors qu’il s’agit de plaisir immédiat, et d’une demande de services infinie de la part de la collectivité dès lors qu’il s’agit d’être protégé dans ses biens et sa personne contre les risques. On s’offusque du caractère agressif des photographies montrant un poumon de fumeur sur les paquets de cigarettes mais on trouve normal de dépenser des milliards pour les soins générés par le cancer du tabac. Les modèles habituels – keynésianisme contre libéralisme – sont en panne pour expliquer le dérèglement des instruments classiques l’intervention publique. Il faut constater que dans un monde numérique, global et sans frontière, les armes du taux de change, de la fiscalité douanière et du budget sont singulièrement émoussées.

La scène internationale offre un spectacle inédit. Un pays comme la Belgique se passe totalement de gouvernement, celui en place expédiant les affaires courantes, alors que  le Japon a épuisé six premiers ministres en cinq ans et s’offre une dette publique de 228% du PIB… Les Etats-Unis se révèlent incapables de gérer la cohabitation entre un président démocrate dont l’élan réformateur a été cassé et un parti républicain dévoré par la gangrène du nihilisme libertarien.  La Grèce, l’Espagne, le Portugal, l’Italie, l’Irlande sont au bord de l’asphyxie financière et leurs peuples se révoltent. Le peuple islandais refuse tout simplement de payer les dettes de ses ex-gouvernants alchimistes de la finance. Les « indignés » se recrutent désormais dans le monde entier, même devant Wall Street. Les exemples se multiplient et si la révolution arabe a été perçue comme une réaction saine contre des années d’oppression de dirigeants affairistes, il n’est pas acquis que leur reconstruction démocratique soit un long fleuve tranquille…

La crise financière, la crise économique, la crise des pouvoirs alimentent une onde puissante de désespérance et de doute sur notre avenir collectif, ce qui ouvre la voie aux plus manœuvriers pour tirer parti de cette situation de déliquescence générale. La démocratie s’accommode mal de ces grandes périodes d’absence de repères et de dilution de la confiance. C’est un système qui paraît trop complexe et trop fragile pour régler des problèmes  inattendus et multi-facettes et qui ouvre la voie à toutes les tentations de déni de démocratie au nom de la vitesse et de l’efficacité.

Alors, laisser la place aux talibans, aux totalitarismes et aux mafias dans un monde parcouru par des bandes errantes, comme dans les pires récits de science-fiction n’est pas vraiment un choix confortable… Pour faire cesser ce dérapage incontrôlé, il faut se retourner vers les valeurs sûres. Or l’Etat, même, au sens propre, démonétisé, demeure un  bon candidat. Les banquiers l’ont compris, mais les peuples, échaudés, doutent de son efficacité. Aussi faut-il qu’il retrouve une légitimité. Il n’est pas inutile d’essayer de comprendre comment nous en sommes arrivés là, notamment en France. L’Etat républicain, héritier de l’ancien régime, ne s’y est jamais vraiment départi de son rôle tutélaire sur la plupart des aspects de la vie économique et sociale.

Bien entendu, cette ébauche de réflexion, dans le cadre de ce support, ne peut rester que limitée. Il faut lire et relire les bons livres sur le sujet. Ils abondent*.

La naissance de l’Etat moderne

Si l’organisation du désordre au profit d’un chef puissant, le système autocratique fondé sur la violence « privée », est une vielle création du génie humain, l’Etat moderne n’est pas une création ancienne. Il est le produit de l’entreprise humaine de civilisation qui s’inscrit dans un mouvement lent de maturation qui a forgé en Europe à partir du XIVe siècle sa structuration intellectuelle.  L’Etat moderne s’est fondé autour de deux conquêtes majeures : le monopole de l’usage de la force légitime et le monopole de la collecte de l’impôt. Ces deux fonctions régaliennes  - la gestion de l’ordre intérieur et la protection de la souveraineté nationale, le financement par l’impôt de ces dépenses- constituent le socle dur des responsabilités historiques de l’Etat.

L’absence de limites naturelles  à l’action publique

Au fil du temps, l’Etat  s’est vu attribuer de nouvelles responsabilités croissantes, qui ont trouvé dans le « welfare state » de l’après Seconde guerre mondiale  une nouvelle légitimité. A la notion classique de sécurité publique s’est adjoint le concept de « sécurité sociale », englobant une série de missions de protection tout au long de la vie contre les risques, vieillissement, santé, chômage, dépendance. Cette assurance collective contre les pertes de revenus dues aux risques de la vie a substitué un mécanisme de mutualisation obligatoire à l’assurance individuelle facultative. La liste des risques s’est constamment alourdie, la multiplication des textes et des organes chargés de les faire respecter a érigé un système complexe et coûteux impliquant une augmentation des effectifs publics et donc des coûts. Il a fallu pour financer cet ensemble de mesures d’actions augmenter les impôts, et quand cela ne suffisait pas parier sur l’avenir et une hypothétique croissance future en endettant la collectivité. 

Ce mécanisme a acquis sa légitimité dans le suffrage universel, qui faute d’explication pertinente de la part des dirigeants, a cautionné le fait récurrent que le « bien être présent » soit financé par un prélèvement croissant sur le revenu des ménages et des entreprises et anticipe, par la dette, sur leurs revenus futurs. Ce choix s’appuie sur l’abandon par les citoyens de leur capacité à décider par eux-mêmes des modalités techniques et  financières de la satisfaction d’une grande partie de leurs besoins.  Au fond, l’Etat, et les collectivités locales à qui il a concédé une partie de ses responsabilités par le mécanisme dit de « décentralisation » agit comme opérateur des citoyens par délégation tacite pour faire à leur place ce qu’ils ne seraient pas capables de faire eux-mêmes, soit par « inconscience », préférence pour le présent,  ou incapacité financière. Une grande partie des dépenses dites publiques au profit des personnes pourrait en effet faire l’objet d’un financement non obligatoire par les intéressés eux-mêmes dans un cadre volontaire et mutualisé. Or il a été « admis », dans la pacte social, que le système public était supérieur car fondé sur la solidarité obligatoire.  On voit mal pourquoi des entreprises, des citoyens seraient à ce point dénué du sens de l’intérêt général pour ne pas participer librement au financement d’actions collectives. Ce qui était compréhensible dans un monde dépourvu d’informations et peu éduqué devient tout à fait contestable au XXIe siècle.

En effet il n’existe pas de lien ni légal ni légitime entre le montant de l’impôt payé par les entreprises et les ménages et le niveau de service qu’ils peuvent en retirer au nom de la solidarité nationale qui mutualise les recettes. Ce mécanisme fondamental qui s’exprime dans la progressivité d’une (faible) partie de l’impôt est le ciment du pacte social qui relie les citoyens. Lorsque la charge de la dette devient un des premiers postes budgétaires, et représente 55% de la masse salariale de l’Etat, le lien entre cotisation et service devient impalpable… et explosif.

La légitimité du prélèvement obligatoire – impôt, cotisations sociale, amende- est toujours sujette à débat, d’autant plus que la complexification du système en rend les finalités illisibles.

Or l’Etat apparaît trop éloigné pour résoudre les petits problèmes et trop petit pour résoudre les grands problèmes. Ceux-ci se multiplient : réchauffement climatique, gestion des ressources rares, protection contre les radiations, gestion des mouvements de population transfrontaliers, épidémie, régulation du commerce international, lutte contre la corruption et la criminalité organisée… Dans un monde désormais ouvert, les risques systémiques se multiplient et rendent nécessaire la mise en place de structures inter-étatiques ou supra-nationales pour les gérer. La démonstration de cette indispensable coopération internationale à pas variable en est faite tous les jours, aussi bien à travers la crise de l’euro que du soutien aux révolutions arabes. Mais des dossiers complexes comme celui du réchauffement climatique patinent.

L’Etat est confronté comme toute organisation qui dépend pour sa pérennité d’un financement externe à des choix cruciaux sur l’étendue de ses missions et sur le rapport entre les résultats atteints et les ressources engagées. Ce débat est le pivot central du système démocratique. Que faire ? A quel coût ? Pour qui ?

L’Etat virtuel

Si ces questions ne sont pas nouvelles, la révolution numérique remet en cause directement le mode d’organisation de l’Etat sur le territoire. Il faut analyser de façon fine les missions qui impliquent, pour être remplies, une présence physique et celles qui peuvent être menées à bien sans contact direct à travers des systèmes numériques.

Concrètement, l’interrogation des élus, des responsables publics et des citoyens doit se développer sur deux plans distincts  :

-   Quelles missions doit conduire l’Etat dans le contexte général du système socio-technique de ce début de XXIe siècle ? C’est le volet stratégique « faire les bonnes choses ».

-  Comment accomplir ces missions de façon efficiente et transparente ? C’est le volet opérationnel « bien faire les choses ».

Si les missions de l’Etat se sont considérablement alourdies en Europe depuis le milieu du XXe siècle, les outils pour les accomplir ont peu évolué. La mécanique même de l’action publique s’incarne dans une administration qui met en œuvre des textes législatifs, agrégés au fil du temps sans cohérence ni logique opératoire, au risque de double emplois, de complexité inutile, de contradictions voire même d’impossibilités techniques. Il y a, par paresse et par routine, assimilation trop fréquente entre service public et administration publique, entre diminution du nombre de fonctionnaires et libéralisme, et, inversement entre accroissement du nombre de fonctionnaires et service du public. Le choc des points de vue s’inspire mécaniquement d’idéologies sommaires qui ne sont pas analysées de façon rigoureuse par la recherche indépendante.

Ce débat  historique ne résiste pas à l’évolution technologique. L’Etat doit accomplir sa mutation fondamentale en renonçant à être une industrie de main-d’oeuvre pour devenir, à l’instar de ce que doivent également réussir les entreprises, une industrie de cerveaux d’œuvre.

Tous les secteurs doivent reconsidérer leur organisation au regard des objectifs visés à partir d’une mesure objective de la performance, sans tabou. Dès lors qu’une mission est jugée nécessaire, elle doit faire l’objet d’un programme clair de définition des moyens techniques pour la remplir et d’évaluation des performances opérationnelles.

La RGPP – révision générale des politiques publiques – et la LOLF – loi d’orientation des lois de finances-  ont commencé à mettent de l’ordre dans le fonctionnement de l’Etat en soumettant la mise en œuvre des moyens à la définition d’objectifs clairs, ce qui est à la fois urgent et banal. Cet effort déjà mené à bien dans de nombreux pays comme le Canada ne doit pas se limiter à une rationalisation apparente. Il doit conduire à une révision globale et sérieuse des missions et de la manière de les réaliser accompagnée par la mise en place de plans de changement s’inscrivant sur le long terme. Ceci implique des choix dans le portefeuille des missions publiques, certaines n’étant plus impératives dans le monde actuel. Faut-il encore au XXIe siècle une radio et une télévision publiques ? Pourquoi faire ? Un ministère en charge des anciens combattants ? La liste est infinie et la questionner ne doit pas être tabou. Ce qui était vrai dans la contexte socio-technique de 1945 date du programme du Conseil National de la Résistance, qui demeure une référence sacrée de l’action publique, ne l’est plus automatiquement au XXIe siècle. Le statut des personnels ni leur mérite ne sont pas en cause, mais au moment où l’allocation des dépenses publiques se heurte à la limite technique du niveau des prélèvements  obligatoires, il ne faut pas faire preuve d’inconstance. On objectera à cette recherche de rationalité son caractère comptable, caractéristique apparemment méprisable, sa dimension technocratique, également source de vindicte, ou élitiste. Remettre en cause l’identification « naturelle » entre service public et statut public des personnels est évidemment un sujet de friction permanente au nom de l’indépendance que confère ce statut. Mais la défense souvent virulente d’intérêts catégoriels suffit à dissoudre dans l’opinion le dogme que le statut public suffit à garantir l’intérêt général.

 Il s’agit simplement d’appliquer à la vie publique ce que chaque citoyen s’applique à lui-même : faire des choix sous contrainte. Ce n’est certes pas agréable, mais c’est indispensable. Reprenons le vieil adage : gouverner c’est choisir, et choisir, c’est renoncer. Faute de choisir, on s’endette au risque de perdre toute manœuvrabilité, et ultimement, de s’enfoncer dans la pauvreté et  la perte d’indépendance.

Prenons un exemple simple pour illustrer cette thèse. En Suède, les parents ont le choix entre plusieurs réseaux scolaires, publics ou privés, en fonction du projet éducatif proposé par ces réseaux. Le gouvernement finance de façon parfaitement neutre les choix individuels des parents. Cette logique met en concurrence les établissements scolaires sur leur projet, et non pas sur leur statut administratif ou idéologique. L’Etat est neutre par rapport au choix des parents, mais définit des critères techniques précis de validation de l’offre pédagogique.  L’Etat exerce ses prérogatives sur sa vision de l’éducation et donc sur ce qu’il attend de  la compétence de la société. C’est une mission forte.

On peut très bien imaginer que l’Etat lance des appels d’offres pour développer des programmes culturels sur les chaînes de télévision et sur internet sans privilégier ni un support, ni un outil particulier, et sans en être propriétaire.

Réinventer le contrôle

Un Etat fort implique un contrôle efficace. La transparence publique n’est pas une concession des dirigeants au peuple qu’ils représentent, mais une ardente obligation. Rien ne doit être passé sous silence dans l’affectation des ressources et la qualité des emplois. Ceci passe naturellement pas la mise à disposition de toutes les données publiques (open data), mais aussi par la mise en capacité des citoyens de participer effectivement aux décisions sans déléguer à leurs représentants. L'initiative conjointe des Echos et de l'Institut Montaigne de chiffrer de façon scientifique les propositions des candidats aux élections présidentielles est à cet égard très positive. En déblayant le prolème sempiternel de la véracité des chiffres, il sera possible de se consacrer à l'essentiel, l'adapttation des solutions aux problèmes.

La démocratie représentative est une construction qui date du transport hippomobile. Techniquement parlant, sauf à Appenzell, on a considéré qu’il fallait déléguer à des représentants permanents le soin de prendre des décisions publiques. Mais la syndic de copropriété s’est vite transformé en propriétaire de l’immeuble, laissant aux seuls et authentiques propriétaires, les citoyens, le statut de locataires précaires de la démocratie.

Si le XXe siècle a connu une inflation des missions de l’Etat et des moyens en personnel qui y ont été consacrés, le XXIe devrait grâce à la technologie permettre une meilleure sélectivité des missions et un plus grand contrôle de leur exécution à travers les outils les mieux appropriés. La pénétration du monde politique par les outils et de la philosophie de l'internet est une grande promesse mais aussi un grand chantier du XXIe siècle.

Il est grand temps de l'engager avec force pour jetter les bases d'un nouveau système démocratique.

 


Penser les technologies de l'information en 2050, pari impossible ?

Ce document est une réflexion préparatoire à l'émission de Daniel Fiévet sur France Inter le samedi 20 août 2011, http://www.franceinter.fr/emission-on-verra-ca-demain, "Internet, toujours plus connectés ?"

Le lien avec la rediffusion de l'émission : http://www.franceinter.fr/reecouter-diffusions/601

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix.  Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions.

Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes.  Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Ce que nous connaissons aujourd'hui a très peu de chances de subsister à cet horizon...

Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même si l’électricité a aussi joué un rôle fédérateur pluridisciplinaire- n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines.

Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre à leur tour.

Echapper à la malédiction méthodologique de la prédiction

La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses !  Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles »  ne peut aisément s’arracher aux contraintes de la vie immédiate.

Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

-       l’avenir  est domaine de liberté

-       l’avenir est domaine de pouvoir

-       l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire.

Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

-       la puissance des processeurs

-       la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés

-       la simplification et la diversification de l’interface homme/machine

-       la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations concommitantes de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel  et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons grâce à internet et au web. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders technologiques du XXe siècle qui a su capter l'essence de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

-       l’accélération exponentielle des capacités des outils actuels

-       des ruptures technologiques majeures  

-       des ruptures sociales autour de l’acceptabilité des technologies

 

  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004,  grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins  de consommation d’énergie -  que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme.

Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore.

Cette certitude  est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines.

Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière.

Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6)  qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans al décennie 2010 sans problème… Au delà on imagine déjà de

Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

2. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns  représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un.

L’objectif est de tirer partie de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils.

Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ».  Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

3. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique ? Les questions classiques d'éthique pernent unt toute autre dimension car "l'homme connectable" est véritablement une possibilité scientifique proche.

Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe.

La perspective ouverte par Ray Kurzweil de ce moment, imaginaire, où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde.  Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Pour Kurzweil, qui est un scientifique sérieux, cette évolution est inéluctable et... positive !

Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique.

La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée.  Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.  La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance.

Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux.

De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il n'est pas sûr que de ce chaos naîtra une gouvernance mondiale crédible...

Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique  que technologique est arrivé à bout de souffle.  Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. 

La promesse technologique s’inscrit dans ce contexte turbulent.  Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles.  Demain, comme hier, la technique n’est que secondaire.

 

Eléments de référence

Kurzweil, Ray, The Age of Spiritual Machines,  Penguin Books,2000

Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables

http://www.media.mit.edu/

http://techresearch.intel.com/

 


La consumérisation de l’IT, une nouvelle page de l'histoire... et un nouveau défi

 

Pour comprendre l’évolution du monde des technologies de l’information, il faut regarder où se trouve l’épicentre économique de chacun des vagues de la révolution informatique, puis numérique. En reprenant à Jacques Attali la notion de « cœur », on constate que s’il n’a jamais été en Europe, la « cœur numérique du monde" s’est déplacé en soixante ans de la côte Est vers la côte Ouest des Etats-Unis. Si c’est l’usage qui bouleverse les organisations et les comportements, c’est bien la puissance des firmes technologiques qui rend cette transformation possible. C'est sur la côte pacifique que sont nés les idées et les produits qui aujourd'hui faconnent le monde numérique. Ainsi, si les résultats publiés en juillet 2011 par Apple sont à nouveau spectaculaires, ce n’est pas seulement parce que cette firme a révolutionné en quelques années le monde de la mobilité avec un nombre étonnamment réduit de produits, iPod puis iPhone et iPad, c’est parce qu’elle apporte aux clients, particuliers comme entreprises, des réponses pratiques, simples, homogènes à des problèmes de cohérence et de déploiement mal résolus jusqu’alors. On peut également saluer la performance durable de Microsoft dont le vaisseau amiral, Office, demeure incontournable dans la société de l’information. Office est un standard, et, en fait, le vrai moteur des systèmes d’information de l’entreprise. Enfin Google et Facebook s'imposent également parmi les leaders de la transformation numérique.

Ces succès économiques redessinent un paysage désormais centré sur les besoins des individus et non plus sur ceux des entreprises. L'informatique professionnelle devient un cas particulier,qui conserve certaines spécificités, d'un phénomène global qui concerne les sept milliards de terriens.

Le web imprime sa marque. La simplicité est bien le maître mot de l’époque. On veut aller vite, sans s’embarrasser de complexité inutile, exploiter les standards pour suater d'une application à une autre, quelle que soit la machine, pour avoir le maximum de satisfaction. Innover, serait donc rendre simples les choses… Jusqu’où ira-t-on ? Quelles conséquences pour ces cathédrales de complexité que sont encore les systèmes d’information d’entreprise ? Quelles leçons doivent tirer les DSI de cette évolution ultra-rapide qui propulse au coeur de la réflexion stratégiques des produits et services qui n'existaient pas, sous cette forme, il y a deux ans, comme les tablettes, les "apps"  et l'informatique en nuage ? 

Le monde des technologies de l'information est habitué à vivre des cycles de dix ans

A chaque étape de la révolution des technologies de l’information ses héros et ses entreprises emblématiques. Dans les années soixante-dix c’était IBM face à ses concurrents du BUNCH… Pour ceux, nombreux, qui ont oublié cet épisode de la saga numérique, rappelons que dans le monde des grands systèmes IBM, hégémonique, était opposé à plusieurs concurrents de niche Burroughs, Univac, NCR, Control Data, Honeywell qui ont tour à tour cédé… Puis ce fut le temps des mini-ordinateurs de DEC très belle entreprise qui n’a pas su continuer à innover pour réinventer la percée technique mais aussi conceptuelle qu’elle avait réussi. Le succès de Compaq et Dell, en revanche,  a été alimenté par la recherche de rupture dans les modèles économiques, mais sans innovation « client ». La réduction de coût n’est pas une stratégie de long terme car il faut alimenter le désir du client. Savoir que son fournisseur améliore sans cesse sa marge d’exploitation ne comble pas d’aise si en contrepartie de sa  contribution à la prospérité de son fournisseur, le client ne retrouve pas une valeur tangible.Dell ne séduits plus alors que son modèle industriel est performant.  Apple vend cher des produits très profitables parce que le client l’accepte car il se sent gratifié. Dans un autre secteur c’est ce que fait à merveille Audi.

L’innovation fonctionne lorsqu’elle se justifie par elle-même, sans marketing lourd, sans mode d’emploi, sans stress. Tout ce qui est complexe, rigide, prothétique, en revanche, ne fonctionne simplement pas dans un monde instable.

Pour les DSI, la leçon doit être claire : leur mission n’est pas seulement de résoudre les problèmes actuels, et certainement pas d’en poser, mais surtout d’ouvrir le chemin de la prospérité future. Et la baisse du budget informatique pratiquée avec constance au cours des dernières années ne peut remplacer une stratégie à long terme de transformation dynamique de l’entreprise qui implique des investissements avisés. Pour cela, DSI et direction générale, conjointement, doivent réviser leurs priorités pour exploiter la dynamique du marché des technologies de l’information au seul profit de leurs entreprises. La tentation historique de dédaigner, voire nier, l’apport du marché grand public à l’informatique professionnelle a été jusqu’alors très forte. Il est d’ailleurs assez troublant de constater que c’est parmi les informaticiens de métier que l’allergie anti-Apple atteint parfois l’hystérie, le dernier épisode ayant été le choix de RIM Blackberry, réputé « sérieux », contre l’iPhone, ludique… comme si l’informatique professionnelle ne pouvait pas être également un objet de plaisir. Car au-delà des querelles superficielles qui n'intéressent que le petit monde des spécialistes, le seul sujet majeur est la préparation des entreprises à la transformation numérique du monde. C'est bien en s'inspirant de l'informatique grand public, et son bouquet de solutions innovantes, que l'informatique d'entreprise doit définir ses objectifs de la décennie 2010.

L’erreur est interdite. Or il est absurde de chercher dans les vagues précédentes d’innovation informatique la réponse aux problèmes d’aujourd’hui et de demain. La rupture fondamentale réside dans la remise à plat des  méthodes. En effet  l’ensemble des outils – logiciels, méthodes de projet, réglages de la relation maîtrise d’ouvrage/maîtrise d’œuvre, formation – déployés dans les entreprises a été conçu pour automatiser  de façon artisanale des fonctions existantes. Ce travail est désormais derrière nous. Il a connu son apogée avec le déploiement des grands ERP dans les années quatre-vingt dix et des grands systèmes régaliens transactionnels, bancaires, facturation, réservation. Cet édifice a été complété dans les années 2000 par la mise en place des systèmes de conception numérique. C’est sur ce socle maintenant robuste et sans innovation majeure qu’il a été possible de réaliser sans révolution  une baisse du budget informatique par optimisation et rationalisation. Ce travail tend de façon asymptotique vers un seuil de tolérance à partir duquel toute réduction se traduit par une dégradation de la performance. Les vieilles recettes ne fonctionnant plus qu’à la marge -externalisation, offshore… - il faut alors changer d’échiquier.

Où on ne parle plus d’informatique...

Le problème posé aujourd’hui aux entreprises est bien différent. Il ne s’agit plus d’être compétitif par la seule baisse des  coûts, mais par l’innovation sur le marché mondial. Nous sommes entrés dans un monde où les modèles classiques sont devenus obsolètes. Aucune grande firme ni PME ni échappe. L’ère des « cost killers » est révolue, celle des vrais innovateurs commence. Les entreprises nées de l’internet et du web ont mis en œuvre cette stratégie d'innovation qui a poussé au développement du nuage et de tous ses services, dont l'e-commerce, car elle est dans leur ADN. Innover par une exploitation des outils issus de l’internet et du web est bien la seule solution.

Ceci passe par une transformation interne du management  et  un changement des relations avec l’environnement, client, fournisseur, parties prenantes. 

Le changement du modèle de fonctionnement interne est sûrement la clef ultime de la performance. Le passage de l’ère de la main-d’œuvre à celle du cerveau d’œuvre implique un changement de paradigme : le contrat de travail n’est plus un contrat de subordination à durée indéterminée, mais doit devenir un acte d’adhésion réciproque à un projet partagé, pour un temps, dans l’intérêt commun des parties. Le salaire est un élément majeur de cet échange, mais il n’est pas suffisant. Le droit à émettre des propositions, à créer individuellement comme  à contribuer en équipe à la créativité globale de l’entreprise est au moins aussi important pour attirer et développer les talents des membres de la communauté de travail. La faculté de coopérer en réseau à l'innovation ouverte n'est plus pour les entreprises innovantes, comme par le passé,  une trahison, mais devient une obligation, car elles ont compris que l'innovation est le résultat du choc des idées dans des réseaux multi-disciplinaires.

Changer ses relations avec son environnement, clients comme fournisseurs, est ainsi vital. Les fournisseurs ne peuvent plus être traités comme des sous-traitants corvéables mais font directement partie de la chaîne de valeur. On a même vu  des constructeurs automobiles contraints de racheter leurs fournisseurs exsangues car ils sont incontournables dans la mécanique fragile de leurs approvisionnements. Or la mauvaise santé de ces fournisseurs étaient souvent le résultat de prix de vente tirés à l’extrême. Les clients mal traités ont plus de liberté pour chercher ailleurs, et le manque de fidélité s’explique par la capacité des clients à devenir les experts de leur propre chaîne d’approvisionnement car ils disposent désormais de toutes les informations pour le faire efficacement. Une entreprise du XXIe siècle se nourrit de relations respectueuses et bi-directionnelles avec ses clients et fournisseurs, car chacun peut apporter un élément majeur dans la construction de la performance globale. Ceci  implique un partage large des données et non pas une vigilance maniaque et sourcilleuse. "L'open data" est un vecteur de progrès pour tous, car c'est la capacité à exploiter les combinatoires d'information qui crée de la valeur, et non plus la possession d'un cimetière de données propriétaires.L’entreprise étendue suppose le respect de règles de jeu claires où les performances de productivité sont construites, gérées et partagées de façon équitable. Cela passe par une circulation efficace de l’information et un partage réel des données. 

Capture d’écran 2011-07-28 à 08.33.24

C'est aussi pour la DSI l'heure de nouveaux choix

Orchestrer ces changements pour les DSI, femme ou homme d'information, d'imagination et d'ouverture au changement, paraît une voie naturelle. Mais pour y parvenir complétement, il faut faire un gambit et sacrifier sa plus belle pièce, l'ordinateur, qui colle trop au XXe siècle pour propulser l'image du XXIe. Etre directeur des ordinateurs n'est pas un objectif. Abandonner l'infrastructure au profit du contenu est donc un choix douloureux. Il me paraît aujourd'hui d'autant plus indispensable qu'enfermer les utilisateurs dans des choix rigides se révèle... impossible. Les études montrent que malgré les interdits, la pénétration de l'informatique grand public au sein des entreprises est inexorable...  Il serait plus judicieux de ne pas mener un combat perdu d'avance pour concentrer son énergie sur les vrais sujets d'avenir, ceux qui créent de la valeur... 

Evidemment, ce monde ouvert qui puise dans le web son énergie est déstabilisant. Il lamine les convictions anciennes, les modèles d'autorité, les modèles économiques. Mais il en a toujours été ainsi. L'innovation, cette fois, n'est plus confinée dans la sphère technique, elle touche toute la société et modfie les relations de pouvoir. C'est inconfortable, inachevé, troublant pour les esprits cartésiens que nous prétendons être. Néanmoins c'est une formidable opportunité pour entreprendre, bousculer, créer de nouvelles formes et de nouveaux emplois.

Il n'y a rien de plus léger, impalpable et sans maître que les idées. Les transformer en solutions pour un monde en changement est un magnifique défi.

 

 

 


La transformation numérique au service de la croissance

Jean-Pierre-Corniou-150x230
Fondapol, fondation pour l'innovation politique dirigée par Dominique Reynié, vient de publier une étude sur "La transformation numérique au service de la croissance" dont j'ai assuré la rédaction. Le document intégral de 45 pages est accessible en ligne sur le site de Fondapol;

http://www.fondapol.org/debats/colloque-small-2-0-is-beautiful-comment-internet-peut-doper-la-croissance/

Vous trouverez dans ce document le développement de thèmes familiers aux lecteurs de ce site. Un travail particulier est consacré au rôle de l'Etat, démuni devant l'ampleur des bouleversements technologiques qui vont beaucoup plus vite que la loi et les pratiques politiques. Le traitement de la protection des doits d'auteur est un exemple du débordement du droit par la technique, et de l'absence de solution simple et efficace pour rémunérer les créateurs. Le rôle du web et des réseaux sociaux dans les révolutions arabes, leur irruption dans les codes comportementaux de la démocratie démontrent que les pratiques sociales bousculent la vie publique de façon puissante et inattendue.

Loin de se réduire à un ensemble de technologies, Internet est un facteur d’importantes transformations dans les relations sociales et produit une véritable rupture dans le monde économique.

Si plusieurs rapports ont montré que les TIC et Internet jouent un rôle fondamental pour la  croissance, l’enjeu de la transformation interne des entreprises reste en suspens. Les clients communiquent de plus en plus souvent en réseau. Les frontières de l’entreprise sont devenues poreuses. La structure traditionnelle des organisations, très hiérarchisées, s’avère peu adaptée à l’ère de l’interactivité. Des transformations dans les process doivent donc être privilégiées pour augmenter la productivité, l’intelligence collective et le travail collaboratif.

Comment dès lors concilier ouverture et sécurité ? Afin d’optimiser les coûts, comment reconfigurer l’entreprise pour dynamiser ses forces ? En France, quels sont les principaux freins au développement des entreprises par le numérique ? L’entreprise, qui le plus souvent privilégie le secret, la compétition interne et le contrôle, avec un risque de perte de compétitivité, peut-elle se transformer afin de consolider sa croissance ?

Une web-conférence le 23 juin à 9h30 permettra d'approfondir ces questions. France Info consacrera quelques minutes à ce document et à cette conférence.

 


Innovation et enseignement

Vraiment une bonne nouvelle cette co-production entre le site pédagogique militant Le Café pédagogique et le Ministère de l'éducation nationale : le 4e Forum des enseignants innovants démontre que l'innovation dans l'enseignement est un fait réel, puissant, motivant aussi bien pour les élèves que pour les enseignants. Les technologies de l'information doivent résoudre les problèmes de la société. S'il est un domaine où elles doivent stimuler, réveiller, séduire, construire, c'est bien l'éducation.

Peu de choses ont changé dans l'éducation : un maître, une salle de classe, un tableau, des prises de notes sur des cahiers, des manuels, certes aujourd'hui avec de belles photos couleur... Et dans la vie : tout a changé depuis les années soixante-dix. Il suffit de regarder ce que font les gens dans un TGV : tous les passagers ont un écran. Tous ? Sauf un professeur qui corrige un paquet de copies...

On se plaint des coûts de l'enseignement, du manque d'enseignants, des résultats médiocres, de la violence scolaire... Mais qui parle de l'ennui de jeunes face à un modèle totalement décalé où on explique qu'il ne faut surtout pas aller sur Wikipédia à cause des "erreurs" ? Certes il y a eu des efforts, quelques PC, des tableaux blancs interactifs, des iPad  en Corrèze...). Mais il faut surtout des programmes pour apprendre autrement. Et seuls les enseignants peuvent les écrire. C'est pourquoi cette rencontre des enseignants innovants est si importante.