Inventons la démocratie du XXIe siècle !

En ces temps d’élections imminentes dans deux des plus anciennes démocraties du monde, le doute, et c’est un euphémisme, s’installe dans l’opinion américaine comme française sur la bonne santé du système démocratique. Le spectacle offert par ces (mauvais) acteurs que sont devenus les politiciens professionnels fait encore recette même si les audiences initiales de ces shows déclinent rapidement quand la mauvaise foi et l’incompétence éclatent au grand jour. Certes, il y a encore un intérêt pour les joutes politiques. Mais il s’agit d’un show.  En effet les spectateurs sont très peu nombreux à modifier leur point de vue à l’issue de ces émissions où le culte de l’image impose des mises en scène millimétrées et aseptisées où les communicants attitrés cherchent à éviter toute spontanéité qui pourrait conduire à un dérapage.

Or la question clef des citoyens posée à leurs dirigeants en démocratie est bien claire : aidez-nous à comprendre ce monde et, surtout, à faire en sorte que le futur de nos enfants soit meilleur que notre vie actuelle.

La question est d’autant plus pressante que tous les indicateurs qui nous entourent annoncent une montée de périls. On est fondé de parler  de retour aux années trente avec la montée des tensions interétatiques et l’incapacité de l’ONU à assurer une sécurité internationale. A l’instabilité politique due aux chocs potentiels entre blocs, s’ajoute les risques de déstabilisations climatiques ayant des conséquences sur les mouvements de population, déjà redoutés et ingérables. On peut rajouter à cette liste de périls les transformations structurelles résultant de la mondialisation et des évolutions démographiques :  la perte de revenus des salariés des pays développés et l’effondrement de la classe moyenne, les angoisses face à l’omni-contrôle des données, la non-maîtrise des pandémies, aux conséquences inconnues des OGM, l’instabilité terroriste…

Face à ces défis systémiques, le discours politique peine à produire du sens. Il n’y a aucun lien démontrable entre les propositions émises et les causes identifiées. L’analyse du passé, même si elle est souvent superficielle et émotionnelle, ne donne pas confiance dans la capacité des candidats au pouvoir à trouver des réponses crédibles aux multiples problèmes à résoudre. La tâche est d’autant plus rude que nous sommes dans un monde ouvert qui ne connait plus ni croissance, ni inflation, ni contrôle des changes qui furent d’utiles variables d’ajustement qui ont bien aidé les gouvernants antérieurs.  Si les faits sont têtus, l’aventure de la parole est alors bien tentante. La pensée magique fait facilement des ravages et permet de trouver, sinon des solutions, au moins des coupables commodes. L’histoire nous enseigne que la stigmatisation de présumés coupables conduit rarement à des solutions heureuses. Et que dans le despotisme éclairé auquel beaucoup aspirent tacitement par résignation, lassés des contre-performances de la démocratie et des promesses de la classe politique, on trouve rarement l’éclairage, mais toujours le despotisme.

La règle du jeu démocratique est ancienne et longtemps reconnue comme un modèle. Choisir ses représentants pour gérer les affaires publiques s’est révélé sur le long terme plus efficace que la démocratie directe, lente et complexe. C’est aussi le système le plus désiré. Tous les pays qui en sont privés se battent pour y accéder.  Et l’on s’empresse de retrouver la démocratie avec délectation lorsque le totalitarisme, qui fait son lit dans les défauts et les lâchetés de la démocratie, finit à son tour par démontrer son incapacité à résoudre les problèmes. Le système représentatif est certainement le moins mauvais des systèmes mais il est désormais débordé par ses ailes qui le remettent en cause de façon percutante. Qu’un candidat à la présidentielle dans une des plus anciennes démocraties du monde en arrive à proclamer que s’il perd il se peut qu’il ne reconnaisse pas le résultat, dont il annonce par avance qu’il sera truqué, et qu’il s’il gagne il jettera en prison sa rivale est totalement surréaliste et traduit à quel point notre système démocratique est malade. Une des forces de la démocratie est bien précisément la loyauté du débat et le respect mutuel des protagonistes.

Il faut sauver la démocratie. Car rien ne peut faire mieux. Les solutions ne sont pas simples car la démocratie, comme l’hydrogène aux vertus multiples, n’existe pas à l’état naturel. Il faut la fabriquer, et cela demande du soin et de l’énergie.

Deux voies s’affrontent pour proposer une méthode de résolution de problèmes.

L’aile de la modernité – libérale et progressiste pour utiliser un vocabulaire lui aussi usé - a trouvé dans le web et les réseaux sociaux le cadre d’expression pour la porter. Ce fut le cas lors de l’élection d’Obama, puis de la campagne de Sanders, c’est actuellement là où se trouvent l’inspiration d’Emmanuel Macron ou de NKM, voire même de Mélenchon. Mais ce n’est pas parce qu’on utilise les vecteurs contemporains qu’on véhicule les contenus les plus pertinents. La démocratie du web prône une parole libre et décontractée, qui s’écarte des cadres anciens, qui parle à une société fluide, mondialisée. Adepte de technique, ouverte aux courants les plus divers en matière de consommation, de pensée, de mœurs, confiante dans les bienfaits de la science, et des GAFA, cette modernité du XXIe siècle considère que l’élection n’est pas le point de passage obligé pour faire avancer les idées. Elle a une vision méfiante de la classe politique, masculine, voire machiste, conventionnelle dans ses diagnostics et dans ses thérapies. Elle croit en l’action et c’est pour cela qu’elle a trouvé dans la population des jeunes entrepreneurs un terreau fécond.

L’aile conservatrice se méfie de la démocratie, qui pour ses tenants est forcément influencée par les médias à la solde du clan des modernes.  Elle a développé une branche à succès, le populisme, qui renvoie au « peuple », le « vrai » le soin de faire triompher la sagesse populaire. Comme la réalité est complexe et ne permet pas des solutions simples, on puise dans le passé des recettes sommaires auxquelles on prête une redoutable efficacité au mépris du droit et du simple réalisme. Emprisonner préventivement toute personne suspecte de pouvoir commettre un crime est une solution élégante. Qui pourrait être étendue, par exemple, aux accidents de la route qui font beaucoup plus de morts que le terrorisme. Il suffit d’analyser les conditions d’accidents mortels pour isoler les chauffards potentiels, classés « C », et les priver préventivement de permis de conduire, de voiture et même de liberté de circuler. On pourrait aussi y penser pour les violences conjugales. « Minority Report » n’était qu’une vue d’artiste que les hommes politiques ont très envie de construire avec des murs, des frontières, des contrôles, des caméras vidéos, des analyses croisées de données, des policiers omniprésents. Les théories complotistes se nourrissent de ces discours. On sait où seraient les solutions, mais « on » ne veut pas les mettre en œuvre… Au nom de quoi, pour protéger qui ? Instiller un doute permanent sur l’incapacité délibérée des dirigeants à résoudre les problèmes pour favoriser les pouvoirs en place est devenu une arme banale de destruction sournoise de la confiance envers l’action publique.

Entre la modernité joyeuse, qui va régler tous les problèmes par la technique, et le populisme  anxiogène et rétrograde, l’électeur est bien en mal de comprendre tant les causes que les solutions.

Nous sommes là au cœur du problème existentiel de la démocratie. Confier à un personnel politique déboussolé, incapable de formuler une vision articulée du futur et de proposer des scénarios crédibles d’adaptation, est en soi anxiogène. Face à cette absence cruelle de vision, aussi bien aux Etats-Unis qu’en France, l’absurde fait recette. La vérité scientifique est bafouée, le bruit de fond des petites phrases étouffe toute tentative durable et solide d’explication du monde.

Or la complexité ne justifie pas le refus de l’explication. Par bravade médiatique, les hommes politiques en arrivent à dire n’importe quoi sur n’importe quel sujet, encouragés en cela par les journalistes en quête de petites phrases sensationnelles au fracas médiatique sans lendemain. Là où le lent processus de construction d’une culture politique de masse avait éduqué l’opinion à travers le travail des partis, des syndicats, des associations, une presse d’opinion diversifiée, ce travail de terrain, a été sapé par les télévisions en continu, les couvertures de Paris Match et les tweets ravageurs. L’image, instantanée et volatile, efface toute velléité de construction rationnelle.

Le diagnostic de la situation de nos pays occidentaux est certes difficile à conduire pour isoler, dans un arbre des causes foisonnant, les réponses opérationnelles à ce qui angoisse les citoyens. Chacun constate l’inexorable montée des températures, la fonte des glaciers de montagne comme de ceux des pôles. La communauté scientifique est convaincue, à travers les travaux publiés et précis de milliers de chercheurs, qu’il y a une cause sérieuse dans ces déréglements, l’émission en excès de C02 qui contribue à réchauffer l’atmosphère terrestre. L’accord de Paris à la suite de la COP 21 est maintenant signé et un ancien président se permet de dire qu’il ne croit pas à la responsabilité de l’homme dans le réchauffement climatique. Quelle confiance accorder à ces responsables qui pour de sordides motifs court-termistes n’hésitent pas à compromettre la parole publique ?

Les exemples sont légion. Là où la vérité scientifique doit faire l’objet d’analyses trans-partisanes et de recherches de solutions consensuelles, les exigences de la lutte politique qui se confond avec l’ambition personnelle minent le discours rationnel. Il existe pourtant des véhicules politiques pour le faire, tant sur les sujets scientifiques que sur les domaines anthropologiques comme l’économie où les biais cognitifs abondent. Citons l‘Office parlementaire d’évaluation des choix scientifiques et techniques, le Conseil Economique Social et Environnemental, l’Académie des sciences, l’INSEE… Les Think Tanks privés, eux aussi, publient des documents techniquement aboutis et basés sur des références auditables. Au-delà du contrôle des faits (« fact checking », pour être compris en France), qui constitue une étape indispensable, il faut que le débat public soit alimenté par des études indépendantes reconnues et relayées par les medias.  Les débats publics télévisés, qui attirent une audience respectable, devraient laisser une part importante aux avis d’experts en contrepoint de l’exposé par les candidats de leurs propositions. Il est en effet indispensable d’avoir une vue précise des problèmes avant de s’écharper sur les solutions. Par exemple, sur un sujet aussi complexe que la durée du travail, que soient publiées des études indépendantes sur l’effet sur l’emploi du retour aux 39 heures dans un monde ouvert, numérisé, où 12% de la population travaille dans des usines. Il en est de même sur les effets de la hausse de la TVA ou de la suppression de l’ISF. Marqueurs idéologiques, dit-on, ou mesures utiles et documentées ?

Il faut donc promouvoir le débat, non pas avec le seul personnel politique qui défend sa propre cause, mais avec des experts reconnus pour donner une analyse documentée. S’entendre sur les problèmes est déjà un premier pas constructif. Il sera toujours temps ensuite de dérouler les scénarios de solutions pour identifier les plus crédibles. Il faut que la sphère publique s’approprie les solutions qui fonctionne bien dans le monde informatique. Que les idées deviennent « open source », et ne soient plus marquées des labels de certification d’origine largement démonétisés que sont gauche ou droite, souverainiste ou mondialiste, libéral ou socialiste, qui divisent sans expliquer. Que les scénarios de résolution de problème ne s’appellent plus réforme, mais recherche, et obéissent à la logique efficace du « essayer et apprendre » (« test and learn »). Que les projets publics ne mettent pas des années à se concrétiser mais répondent aux règles du développement rapide et des boucles de rétroaction courtes.

Il faut admettre que la démocratie représentative devenue un cirque médiatique peuplé de bateleurs dont on n’attend même plus les derniers tours de magie ne permet plus ni de poser les problèmes, par peur, mensonge ou dissimulation. Ni de mettre en œuvre des solutions. Cette incapacité est devenue anxiogène dans beaucoup de pays. Il faut donc décaper le discours convenu pour s’attaquer aux racines de la méfiance et créer les conditions d’un débat sur le fond et non pas sur des recettes magiques. Il faut pour cela expliquer sans relâche, débattre sur le fond et forger des convictions non pas sur des superstitions mais sur des analyses. Concluons en empruntant au dernier texte de Condorcet, qui date de 1794,  sa vision du rôle de l’éducation sur l’exercice de la liberté et de la démocratie. Il est trop simple de considérer que le « peuple » n’a pas les moyens de comprendre la complexité de l’économie. Il faut donc développer les connaissances, non biaisées, pour tous. Car il n’y a pas de liberté et de démocratie, donc de progrès, sans éducation.

« L’égalité d’instruction que l’on peut espérer d’atteindre, mais qui doit suffire, est celle qui exclut toute dépendance, ou forcée, ou volontaire. Nous montrerons, dans l’état actuel des connaissances humaines, les moyens faciles de parvenir à ce but, même pour ceux qui ne peuvent donner à l’étude qu’un petit nombre de leurs premières années, et, dans le reste de leur vie, quelques heures de loisir. Nous ferons voir que par un choix heureux, et des connaissances elles-mêmes, et des méthodes de les enseigner, on peut instruire la masse entière d’un peuple de tout ce que chaque homme a besoin de savoir pour l’économie domestique, pour l’administration de ses affaires, pour le libre développement de son industrie et de ses facultés ; pour connaître ses droits, les défendre et les exercer ; pour être instruit de ses devoirs, pour pouvoir les bien remplir ; pour juger ses actions et celles des autres, d’après ses propres lumières, et n’être étranger à aucun des sentiments élevés ou délicats qui honorent la nature humaine ; pour ne point dépendre aveuglément de ceux à qui il est obligé de confier le soin de ses affaires ou l’exercice de ses droits, pour être en état de les choisir et de les surveiller, pour n’être plus la dupe de ces erreurs populaires qui tourmentent la vie de craintes superstitieuses et d’espérances chimériques ; pour se défendre contre les préjugés avec les seules forces de sa raison ; enfin, pour échapper aux prestiges du charlatanisme, qui tendrait des pièges à sa fortune, à sa santé, à la liberté de ses opinions et de sa conscience, sous prétexte de l’enrichir, de le guérir et de le sauver. « 

Condorcet « Esquisse d’un tableau historique des progrès de l’esprit humain »  

http://www2.assemblee-nationale.fr/14/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/(block)/24975


Web, pouvoir et (trans)humanisme

L’histoire se résume en trois dates clefs : 1969, 1993, 2007, soit moins de cinquante ans pour changer le monde. Le réseau Internet est né, il y a quarante ans, de la rencontre entre les exigences de la sécurité nationale des Etats-Unis et de la culture libertaire des hippies californiens. D’une telle hérédité ne pouvait pas sortir une créature anodine, mâtinée d’inspiration libérale voire libertaire et d’aspiration à un ordre nouveau, eugénique et hygiénique. A partir de 1993, le web allait rendre le réseau internet accessible et familier et permettre le développement de nouveaux services que le smartphone allait encore étendre avec l’iPhone en 2007. Ce formidable succès, comme celui des acteurs qui sont à l’origine de cet engouement planétaire, ravit les utilisateurs autant qu’il inquiète les intellectuels. Internet et le web portent simultanément les gènes de l’ordre et du pouvoir et celles du désordre et de la transgression. Comme toute innovation humaine structurante !

Capture d’écran 2016-06-06 à 15.27.24

La prise de conscience de l’émergence d’un monde nouveau, d’une civilisation nouvelle, est encore peu répandue en France où on affecte encore de vouloir retrouver les formes de la croissance d’antan en sous-estimant la rupture scientifique et technique du monde numérique. Cette situation n’est en effet pas nouvelle. Elle est commune à chaque étape de mutation rapide. Adolphe Thiers ne parlait-il pas du train comme d’un jouet pour lequel l’intérêt serait éphémère ? Jacques Chirac et son mulot comme Nicolas Sarkozy avec son ignorance du plus grand site d’échanges marchands entre particuliers perpétuent cette tradition. Que ces avancées soient pour l’essentiel nord-américaine ne fait qu’amplifier la cécité, au moment où notre pays se débat dans l’impuissance collective qui absorbe une grande part de son énergie.

Il faut donc saluer le travail d'intellectuels français qui projettent ce débat dans des ouvrages de clarification et de mises en garde dans des registres différents, mais aux interrogations convergentes. « L’homme nu » de Marc Dugain et Christophe Labbé, sous-titré « La dictature invisible du numérique », est l’œuvre d’une équipe, un écrivain et un journaliste, et « La révolution transhumaniste » de Luc Ferry est le travail d’un philosophe qui n’a pas oublié qu’il a joué un rôle politique. Ces deux livres, parus au printemps 2016, sont utiles car, documentés et bien écrits par des personnalités reconnues, ils forcent à la réflexion.

Leur mérite est de marquer ce territoire où science, technique et comportements tissent les trames d’un monde nouveau qui va changer en profondeur tout ce que nous faisons. Qu’ils posent ces questions fondamentales est nécessaire. L’angoisse se nourrit d’ignorance et se réfugie dans l’inaction incantatoire, art où nous excellons. Il serait catastrophique pour notre futur de s’enfermer dans le déni et de sous-estimer l’ampleur des mutations en cours. Il serait également coupable de ne pas voir les menaces de l’émergence d’un nouvel ordre mondial qui derrière une façade avenante ne serait qu’un avatar d’une histoire bien connue, celle du pouvoir d’une minorité.

Il faut donc comprendre pour agir avec discernement, car le futur n’est pas plus écrit qu’il n’est prédictible.

Un constat implacable

Le web s’est insinué, sans aucun doute, dans tous les compartiments de la vie de l’homme du XXIe siècle. Il le fait partout sur la planète et de façon invasive, nuit et jour. Ce compagnon omniprésent a su se rendre indispensable pour nous aider à régler les mille et un problèmes de notre vie quotidienne. Disponible, mobile, prévenant, le web est plus qu’un outil pratique. C’est un observateur infatigable des moindres de nos faits et gestes. Ce que nous faisons, ce que nous mangeons, les gens que nous voyons, les lieux que nous fréquentons, ce que nous pensons, tout ceci laisse, électron après électron, des traces dans une immense mémoire où il suffi(rai)t de plonger avec quelques logiciels malins pour établir des liens entre tous les compartiments, parfois étanches, de notre vie. Nous produisons à chaque instant des traces numériques soigneusement enregistrées. Le croisement de ces données individuelles et collectives apporte des informations précieuses, donc monnayables. Nous devenons la matière première de la décision. Google, Facebook cherchent à le faire pour notre bonheur et leurs résultats financiers. Nous devenons « l’homme nu » dont parle avec angoisse Marc Dugain. Cette vision est étayée par les déclarations mêmes des acteurs de ce mouvement Mark Zuckerger, Serguei Prin, Jeff Bezos et les autres. Tous les tycoons de la Silicon Valley le répètent à l’envi : « We want to build a better world ». Ce n’est pas absurde pour les consommateurs. Il faut que cela soit aussi vrai pour les autres dimensions de la vie sociale.

Car nous devenons aussi « l’homme omniscient » puisque tout savoir est désormais à portée de clic. Chaque décision, même mineure, peut être adéquatement informée. Et comme nous pouvons savoir tout de tout, nous constituons progressivement un immense réseau cognitif justement capable de se protéger contre les excès. Chaque humain, et plus seulement les institutions spécialisées, devient un composant d’un système global où coopèrent de plus en plus intimement humains et machines pour repousser les limites du savoir et faciliter dans tous les domaines la prise de décision. Les mécanismes économiques qui étayent la puissance de la société en réseau ont été largement développés en 2006 dans le magistral ouvrage de Yochai Benkler « The Wealth of Networks ». Le capital de la connaissance est plus facile à exploiter que le capital matériel et ouvre donc à de multiples opportunités de création de richesse.

Notre société technique, comme à chaque palier de transformation, génère des questionnements légitimes qui appellent à une réflexion lucide. Mais peut-on s’enfermer dans la nostalgie d’un monde meilleur, qui n’a jamais été, ou tenter de décrypter ce que nous vivons pour profiter pleinement de la technique et peser sur l’évolution ?

Le futur angoisse toujours, le notre comme ceux de nos prédécesseurs

Le livre de Dugain et Labbé est clairement à charge, même si son analyse est précise et documentée. Car les conclusions sont anxiogènes et se focalisent sur un cri d’alarme : on est manipulés, c’est le grand complot entre le GAFA et le NSA. Le but des Etats-Unis n’est pas de conquérir le monde mais de le dominer… Les « Big Data », c’est ainsi qu’ils nomment les firmes qui ont structuré le monde du web, en contrôlent les clefs et veulent faire fructifier ce savoir et ce pouvoir en vendant, « maîtres du temps », la promesse de l’immortalité. Mais ce ne sera que pour une minorité fortunée. Pour les autres, le pronostic est sombre : « Dans un univers digitalisé et automatisé où le travail se raréfie, l’arrivée des robots humanoïdes va précipiter le « chômage technologique » jusqu’à l’étape ultime du chômage total ! ».Pour Dugain et Labbé, les « Big data » ont sombré dans l’hybris, la démesure absolue. Ces maîtres du monde nous ont piégé en nous anesthésiant , le pire est désormais sûr : « les avantages proposés par les nouveaux maitres du monde sont trop attrayants et la perte de liberté trop diffuse pour que l’individu moderne souhaite s’y opposer, pour autant qu’il en ait les moyens ».... Quand on est un propagateur des mérites de l’économie numérique, on se trouve tout un coup pris d’un malaise : ais-je été manipulé à ce point pour devenir le zélé héraut d’une société aussi sombre ?

Sommes-nous aussi impuissants face au GAFA ?

Mais pourquoi considérer d’une part que ce ne peut être que pour nous exploiter, au pire nous contrôler ? Pourquoi imaginer que tous les contre-pouvoirs seront impuissants face à ces nouveaux maîtres ? A chaque nouvelle percée technique, il y a eu des auteurs sérieux, mais affolés, qui annonçaient le pire sur l’usage du train, de l’automobile, de l’électricité. Mais nous avons été ravis de confier aux machines le soin d’amplifier notre capacité musculaire et de nous permettre de produire et de nous déplacer rapidement, facilement et confortablement. Malgré les défauts de « la voiture à gaz de pétrole » on cherche aujourd’hui à l’améliorer plutôt qu’à la supprimer et personne n’a envie de revenir exclusivement à la marche à pied et à la traction hippomobile. D’ailleurs, signe de lucidité collective, les transports en commun ne cessent de gagner en part de trafic dans les grandes villes. La révolution des transports a changé notre univers mental. La révolution de la machine, elle, nous a donné des pouvoirs considérables, dont souvent, certes, nous ne faisons pas le meilleur usage. La chimie, le nucléaire, l’exploitation des énergies fossiles ont des limites dont nous sommes désormais conscients et qui appellent des correctifs.

L’histoire nous montre certes que nous nous engageons dans des voies nouvelles, sans en mesurer a priori toutes les conséquences, car c’est impossible. Trop de principe de précaution asphyxie l’innovation. En revanche pour pouvons collectivement corriger la trajectoire. Aussi qui peut raisonnablement prétendre que l’avenir donnerait aux seules firmes qui manipulent les données massives un pouvoir tellement asymétrique qu’il deviendrait démesuré et hors de contrôle ? Risque, oui, certitude, non, motif suffisant pour ne rien faire, certainement pas !

Le monde de la connaissance est beaucoup plus équilibré qu’il ne l’a jamais été

Ces liens multiples en permettant de comprendre - rappelons que l’intelligence vient du latin « interligere », c’est à dire établir des liens – les relations qui existent entre nos comportements. De cette capacité surpuissante on peut bien évidemment tirer le meilleur – tout ce qui nous permettre de vivre plus longtemps, en paix et en bonne santé et en limitant notre impact sur les ressources naturelles – mais aussi le pire, le contrôle possible de nos comportements, leur anticipation et potentiellement la maîtrise de nos consciences. Alors que pour la machine il ne s’agissait que de puissance musculaire, la révolution numérique nous dote d’une prothèse cérébrale qui touche au cœur de notre essence.

C’est pourquoi Luc Ferry choisi de dépasser le cadre de la révolution numérique telle qu’elle est aujourd’hui définie en posant clairement la question du transhumanisme : la technique va-t-elle amplifier les capacités de l’homme comme elle n’a cessé de le faire depuis les origines, ou va-t-elle par sa puissance absolue remettre en cause l’humanité en la dépassant par une création nouvelle d’hommes-machines hybrides ? Le transhumanisme ne serait-il que le prolongement de la quête des Lumières telle que la formulait Condorcet : « Nous trouverons dans l’expérience du passé, dans l’observation des progrès que la science, que la civilisation ont faits jusqu’ici, dans l’analyse de la marche de l’esprit humain et du développement de ses facultés, les motifs les plus forts de croire que la nature n’a mis aucun terme à nos espérances ». Il n’y a pas de limite à notre capacité, nous nous en donnons les moyens et nous n’avons aucun motif de brider notre capacité à nous surpasser.

Luc Ferry a réalisé un remarquable travail de synthèse de la littérature sur ce sujet, très largement commenté outre-Atlantique. Son cheminement est lucide et laisse une large part au doute. Il ne condamne pas mais tente d’esquisser un chemin raisonné compatible avec nos valeurs. Entre ubérisation de la société et transhumanisme, il y a une convergence car le socle technique est bien le même : un réseau mondial qui fait circuler, analyse et enrichit toute l’information et la connaissance a des conséquences sur la dimension matérielle de la vie sociale mais aussi sur sa dimension métaphysique et spirituelle. Mais Luc Ferry ne soutient pas l’idée qu’il s’agit d’un chemin pavé de roses vers l’utopie de la fin du capitalisme, en éreintant au passage les thèses de Rifkin avec une certaine jubilation.

Une voie raisonnée est-elle possible ?

C’est le pari de Luc Ferry. Il n’est pas le seul à pondérer à la lumière de l’histoire et de la philosophie les risques de la société de la connaissance. Ils ne sont pas nouveaux par nature, puisque la maîtrise de l’information pour tenir le pouvoir est une constante, mais ils sont amplifiés par la puissance de machines. Néanmoins la résistance est possible. Faut-il rappeler qu’il a suffi d’un seul homme, Edward Snowden, pour contrer la CIA et la NSA ? WikiLeaks défend depuis 2006 le droit à une information libre. Comme dans « 1984 », la conscience individuelle des donneurs d’alerte reste plus forte que la conformité aux normes dominantes. Néanmoins, ce serait un peu fragile et illusoire de confier le futur de l’humanité à quelques héros solitaires. Luc Ferry estime que face aux bouleversements annoncés du travail, de la vie sociale et de la vie tout court, nos outils actuellement de régulation sont impuissants. Interdire Amazon comme UberPop est absurde. La démocratie est dépassée par un double mouvement : une profonde aspiration à l‘individualisation, qui s’inscrit dans le courant de long terme initié par les Lumières, fondé sur la recherche de toutes les formes de désaliénation, et l’ultra-compétitivité induite par la mondialisation technique, et qui pousse de façon inexorable à étendre sans fin le champ du « techniquement possible « . Ce qui est bon pour Google est bon pour l’humanité. Cette double aspiration vertigineuse, qui laisse au fond l’individu seul face à la technique, tous les freins ayant disparu, l’Etat, la religion, la morale, pousse une partie de l’opinion pensante à un profond pessimisme.

Mais ce monde déstructuré est aussi une opportunité pour inventer autre chose, fondé sur la frugalité dans l’utilisation des ressources et la générosité dans l’exploitation des talents. Au fond, notre destin humain est tragique, mais notre époque est la moins tragique de toutes si on fait preuve de sagacité statistique sur le long terme en oubliant que sa cave a été inondée. Alors ce monde imparfait peut-il continuer à cheminer cahin-caha vers moins d’imperfection en utilisant la science et la technique ? Pour Marc Dugain et Christophe Labbé, il faut organiser la résistance à partir de micro-communautés militantes. Pour Luc Ferry la réponse est positive si on invente une forme de régulation publique avisée qui dépasse les points de vue individuels et les pressions technicistes et mercantiles. Ceci passe par la compréhension impérieuse que nous vivons une mutation qui n’a rien de magique mais qui reste profondément humaine. C’est un appel à la formation et à la conscience.

Vaste programme !

Marc Dugain et Christophe Labbé, « L’homme nu », Plon, 2016

Luc Ferry « La révolution transhumaniste »,Plon, 2016

La question n’étant pas triviale pour être tranchée facilement, je conseille au lecteur de se plonger dans la littérature abondante sur l’avenir du web, très largement exploitée par les auteurs anglo-saxons

Andrew Keen, « The Internet Is not the Answer », Atlantic Books, 2015

Larry Downes and Paul Nunes « Big Bang Disruption : Strategy in the Age of Devastating Innovation », Penguin Portfolio, 2014

Laurent Alexandre « La mort de la mort », JCLattès, 2011

A lire aussi cette réflexion de Jean-Baptiste Fressoz sur la prévisibilité des dégâts du progrès : « L’apocalypse joyeuse », 2012, UH Seuil

Et bien sûr le blog d'Yves Caseau http://informationsystemsbiology.blogspot.fr comme celui de l'Institut de l'iconomie http://www.iconomie.org


Vous avez dit "digital" ? Qu'entendez-vous par là ?

Après beaucoup de désintérêt et d’ignorance, le numérique, et surtout sa version hype anglo-saxonne, le « digital », est désormais sur toutes les lèvres. Il faut « en » faire, et vite ! Mais dans cette agitation, beaucoup de gens ont oublié de s’interroger sur la nature et la réalité de cette nouvelle idole. A force de considérer comme acquise une compréhension homogène des concepts, plus personne, par peur de paraitre ringard, ne fait l’effort de définir précisément ce dont on parle. Il en ressort une cacophonie généralisée qui permet de multiplier les procès en sorcellerie de ceux qui osent poser la question simple et sans réponse évidente « de quoi parle-t-on au juste quand on parle de « digital » ?

L’aveu en mai 2016 par Nicolas Sarkozy de son ignorance de ce qu’est « le bon coin », 8e site français quand même fréquenté par plus de 22 millions d’utilisateurs chaque mois, dont 50% à partir de mobiles, illustre la coupure entre la déclamation de principe de la priorité du numérique et sa compréhension réelle par beaucoup de décideurs. Le même, alors candidat, n’hésitait pas en effet à déclarer en 2007 : « Il n’est pas un secteur de notre société qui ne soit pas touché par l’apparition d’internet et les bouleversements qui en résultent. C’est une révolution qui se déroule sous nos yeux, la révolution numérique ». Il est surprenant que Le bon coin ait échappé neuf ans plus tard à cette vigilance tant c’est un site populaire dans la vie des gens qui a effectivement transformé le fonctionnement de l’économie de proximité. De même l’absence d’ordinateur sur le bureau présidentiel de François Hollande a surpris. Jacques Attali avait malicieusement fait observer lors de l’Université numérique du MEDEF en 2015 que s’interroger sur l’usage du numérique en 2015 était surréaliste et ressemblait à un colloque du CNPF de 1950 sur l’utilisation du téléphone par les entreprises.

Faute de connaitre la « vraie » réponse sur la nature de cette révolution numérique, on cherche avant tout les coupables sans comprendre les causes. Sommes-nous « en retard » ? Pourquoi ? Où se situe la France dans sa maturité numérique ? Qui doit conduire la transition numérique en entreprise ? Ce débat alimente désormais avec régularité les colloques et articles sur la transformation numérique. Le DSI sera-t-il ou non supplanté par le CDO, Chief Digital Officer ? Le suspense est total.

Cette dramatisation du débat, transformé en conflit de structure et de personnes, ne sert pas la cause car elle occulte la véritable question : comment (continuer à) transformer l’organisation, comme la société, confrontée à un nouveau paradigme socio-technique que ce terme « numérique » tente de définir ? Comme c’est un sujet complexe, incertain, qui engage toutes les fonctions mais en premier lieu le cercle historique des décideurs, il est indispensable, pour réussir à s’engager résolument dans le chemin de la transformation, de commencer par le débroussailler. Il serait grand temps de s'y mettre sérieusement...

Qu’est ce que le "numérique" ?

Une convergence de définition sur ce point central doit étayer toute démarche. Faute de compréhension, le débat sur la stratégie, et donc sur les personnes et les structures les mieux aptes à la mener, est faussé. Les approches peuvent être multiples, académiques ou empiriques. Depuis plus de vingt ans, les ouvrages sur l’émergence de la société numérique tentent cette approche. Don Tapscott, qui avait déjà prévenu dès 1993 avec "Paradigm Shift",  écrivait en 1996 dans son ouvrage « Digital Economy » : «  The computer is expanding from a tool for information management to a tool for communications… In this digital economy, individuals and entreprises create wealth by applying knowledge, networked humain intelligence and effort to manufacturing , agriculture and services. In the digital frontier of this economy, the players, dynamics, rules , and requirements for survival and success are changing ». Dix ans plus tard, en 2006, Yochai Benkler écrit « The Wealth of Networks ». Le professeur de Yale y développe sa vision : « The removal of the physical contraints on effective information production has made human creativity and the economics of information itself the core structuring facts in the new networkeded information economy ».

Tout est dit. Nous étions prévenus depuis longtemps et, d'ailleurs, nous n'avons pas été inactifs en France. Les structures, comme le Conseil national du numérique, existent. De multiples rapports passionnants ont été écrits. mais cette qualité d'analyse n'a pas nécessairement conduit les entreprises à l'exception de quelques pionniers à se mettre sérieusement en route. Or il est impossible d'ignorer que nous sommes face à un tsunami et il faut se préparer et agir.

Si les nuances existent, le consensus est fort sur ce constat : il ne s’agit pas seulement de technique informatique, mais d’un système global où la technique, les produits, les processus et les compétences sont engagés dans une nouvelle combinaison des facteurs. En ce sens la nature de la révolution numérique ne diffère en rien de celles qui l’ont précédé : l’écriture, l’imprimerie, la vapeur, l’électricité… La numérisation de l’entreprise, comme de la société, est une transformation radicale qui exploite le potentiel de toutes les techniques de traitement de l’information - logiciels, réseaux, interfaces, serveurs - objets pour réinventer le mode de fonctionnement global, tant économique que politique. Mais s’il y a bien une différence à chercher avec les étapes antérieures, c’est la vitesse et l’ampleur de la diffusion des outils qui font, en deux décennies, de la révolution numérique une révolution spécifique. C'est aussi le fait que la révolution industrielle a permis l'humanité de se doter d'un prothèse musculaire, alors que la révolution numérique nous permet de privilégier le cerveau-d'oeuvre à la main-d'oeuvre en nous offrant une prothèse cérébrale efficiente. 

Ces techniques ne sont pas récentes comme on en a l’illusion. Elles ont graduellement été mises au point depuis les années cinquante, internet et le web étant la dernière vague de cette construction. Chaque étape technique - avec un pas de dix ans environ: ordinateurs centraux , puis départementaux, ordinateur individuel, internet, web - a permis d’étendre le spectre des usages et de baisser les coûts de mise en œuvre.

Architecture-ordinateur2architecturedebase-8-638
Les techniques informatiques peuvent être imagées sous la forme d'un cône inversé qui repose sur la base historique que constitue aucun doute le modèle de von Neumann, qui date de 1945. Sur ce modèle, et grâce à la loi de Moore,  la production d'outils informatiques (réseaux, processeurs, programmes)  s’élargit rapidement pour couvrir un  champ de plus en plus vaste Ces outils engendrant eux-mêmes de nouveaux usages, le cône informatique englobe désormais un volume de plus en plus important que l’on nomme par convention « numérique ». Si la construction de la pointe du cône a pris beaucoup de temps, coûté cher et laissé souvent d’amers souvenirs de projets avortés, de performances médiocres, l’accélération technique, et les choix structurants de l’architecture de l’internet, permettent aujourd’hui d’atteindre des performances de fiabilité et de coût qui autorisent une totale démocratisation des usages et de nouvelles ambitions. Le monde des données massives (Big data), l'internet des objets, l'exploitation de l'intelligence artificielle, les robots constituent le nouveau front de cette expansion.

En effet, la combinaison des outils disponibles, désormais abondants, économiques et interopérables, permet de réaliser de nouvelles constructions qui dépassent la capacité des outils antérieurs. Cette extension de la performance intrinsèque coût/valeur permet également d’appliquer ces outils à de nouvelles catégories et, par là, d’étendre le champ de la réflexion et de l’action. Si la population des terriens a maintenant accès, partout, à l’information numérique grâce aux réseaux hertziens et à la fibre optique, c’est grâce à 70 ans de recherches, d’innovations et d’investissements considérables. La démocratisation du « téléphone intelligent », le smartphone, qui n’est plus téléphone que pour 15% de ses usages, mais ordinateur le reste du temps, ouvre à chacun le potentiel d’accès aux ressources du web. La révolution informatique continue sa marche en avant. Elle s’appelle désormais numérique, alliant la complexité technique de ses couches invisibles à la facilité d’usage de ses outils pratiques.

Un monde nouveau émerge

En décloisonnant les disciplines, effaçant les frontières des entreprises, bouleversant les statuts, transformant les rôles la révolution numérique fait émerger progressivement un monde nouveau qui remet en cause les situations et les convictions. Mais la puissance de ce mouvement est telle que la déstructuration du monde ancien se fait très rapidement, sans laisser le temps aux structures antérieures de s’adapter. Cohabitent ainsi deux mondes, l’ancien qui refuse de mourir, le nouveau qui malgré ses percées remarquables peine encore à se généraliser ce qui alourdit les coûts, différant la transformation dans toute son amplitude est donc la récupération effective des bénéfices. Ce déploiement différencié entre les entreprises et les nations conduit à l’émergence d’hyperpuissances numériques, l’Amérique et ses « champions du web », qui raflent la mise de la transformation, laissant aux moins rapides le soin de gérer les externalités négatives. Cette définition démontre d’ailleurs que la numérisation de l’entreprise n’est pas un big bang, mais un processus de transformation permanente qui emprunte au flux d’innovations celles qui sont les plus pertinentes pour atteindre l’objectif générique de compétitivité.

Il n’y a donc pas un modèle unique de transformation numérique -ou digitale- mais une adaptation des processus, des structures et des comportements pour renforcer l’entreprise sur ses marchés, sa profitabilité et ses perspectives. C'est un projet qui dépasse de très loin les seules responsabilités du CIO, mais engage toute l'entreprise, même si obtenir des résultats ne peut être envisagé sans maîtrise de la technique. De nouvelles entreprises qui comprennent mieux que d’autres l’alliage entre la technique et les usages se déploient mondialement avec talent sans s'interroger trop longtemps sur les nuances  d'une stratégie digitale. C'est ce qu'il convient de faire, sans délai : agir, aller de l'avant, projet par projet, usage par usage, faire confiance aux innovateurs, aux jeunes.

D ‘autres souffrent pour s’adapter. Beaucoup n’y parviendront pas. C’est la logique de l’évolution économique qui n’est en rien choquante si les processus d’adaptation des hommes aux nouvelles compétences requises et aux nouveaux comportements se déploient dans la lucidité et l’équité.

C’est bien le (seul ?) sujet de la démocratie aujourd’hui : qui doit payer le coût de l’adaptation ? Qui va en récolter les bénéfices ? Comment assurer une transition douce ? Les questions de l'emploi, des revenus, de sécurité et de respect de la personne doivent être réévaluées dans la perspective de la révolution numérique. La réponse n’est pas dans les idéologies anciennes, ni dans les hommes providentiels, mais dans une réinvention de la prise de décision collective, en entreprise et dans la société.

C’est possible... en exploitant les mêmes outils.

La vision du Chief Digital Evangelist de Salesforce, Vala Afshar, sur les six axes de la transformation numérique 

 http://www.huffingtonpost.com/vala-afshar/6-stages-of-digital-trans_b_9822640.html

Quelques lectures "historiques" pour se rafraichir la mémoire :

"The Digital Economy", Don Tapscott, 1996, McGraw-Hill

"What will be." How the new world of information will change our lives, Michael Dertouzos, 1997, HarperEdge

"The Wealth of networks" How social production transforms markets and freedom, Yochai Benkler, Yale University Press, 2006

Pour les passionnés, "A history of modern computing" de Paul E. Ceruzzi, The MIT Press, 1998, est un régal !

NB : ce blog qui a été lancé en 2005 est en fait une chronique de la révolution numérique qui permet de mesurer l'évolution de la perception


Au-delà du CES... qui prend en charge la transformation numérique ?

La leçon majeure apportée par le CES est que transformation numérique de l’économie s’appuie sur deux composants indissociables : la pertinence du service rendu au client final et l’excellence technique. Tous les témoignages et démonstrations convergent vers ce constat. La révolution numérique résulte de la conjonction de la compréhension des attentes des clients et de la qualité de l’exécution technique. La fourniture de biens et services pointus implique un investissement technique majeur pour garantir une qualité perçue optimale, le client ne faisant plus preuve de tolérance envers toute forme de défaillance. C'est dire que la prise en compte du numérique est un travail collectif qui implique, partout, un changement profond de la culture managériale ! 

Mais la déclinaison de l’excellence technique, qui se fait tout au long de la chaîne de traitement de l’information, appelle de la part des DSI à une réflexion   sur le « réinvestissement » technique qu’implique la transformation numérique. En effet, après la phase de séduction que les solutions web, isolées, souvent en mode SaaS, ont apporté par la qualité visuelle et graphique des interfaces et la simplicité des développements et des déploiements, on constate que la transformation numérique soulève des problèmes de plus en plus complexes. Il faut attaquer la totalité du système d'information et en redéfinir les couches techniques souvent anciennes et ayant emprisonné dans leurs sédiments chaque strate d'évolution.

Pour garantir un accès mobile de tous, clients et collaborateurs, aux informations nécessaires à l’action, la « webification » du système d’information, dans son ensemble, implique une modernisation des applications comme des infrastructures. Ceci nécessite une révision des architectures pour permettre de délivrer un nouveau niveau de services. La nouvelle vague d’informatisation que va apporter l’internet des objets, l’augmentation considérable du nombre et de la diversité des données qui vont être collectées et les traitements qu’elles vont impliquer vont également accroître la complexité du système d’information. Le monde du web s’appuie sur l’excellence technique, gage de la qualité de service qu’exigent les clients, 24/24, sur toute la planète. Mais cette performance est désormais hors de portée des seules équipes internes et doit s’appuyer sur de solides partenariats.

 

Capture d’écran 2016-02-02 à 11.12.30

Quelques exemples de l’intensification technique captés au CES

La démonstration de Netflix a beaucoup apporté sur le rôle central des réseaux et de la maîtrise des protocoles de traitement de l’image indispensable pour distribuer en streaming sur tous les réseaux, tous les formats de terminaux et ceci maintenant dans 130 pays. L’expertise qu’ont développée les ingénieurs de Netflix est la pierre angulaire de la qualité de service qui est au cœur du modèle d’affaire du distributeur de contenus. Mais en dépit des investissements consentis par Netflix pour obtenir ce niveau de performance, Netflix a renoncé à opérer ses propres datacenters et a décidé en 2015 de s’appuyer sur les services d’Amazon. Ceci démontre que l’exigence technique implique des niveaux de performance de plus en plus critiques que seules des compagnies spécialisées peuvent garantir.

YouTube a exprimé le même engagement dans la technique, notamment en optant pour une diffusion à haute définition 4K et la norme HDR.

Intel, Qualcomm, Samsung et Nvidia ont démontré à quel point la conception des processeurs, coeur du système numérique, joue un rôle majeur dans la diversité des usages. En mettant en évidence par une pluralité d’exemples que la nouvelle frontière des usages – reconnaissance d’image, 3D, temps réel, gestion du mouvement, production de musique, conditions extrêmes dans le sport ou les drones, utilisation en biologie – est exigeante en termes de fiabilité, de performance et de consommation d’énergie, les concepteurs et fondeurs de processeurs sont clairement à la source de cette transformation. Or c’est une activité exigeante, fortement capitalistique et risquée. Les difficultés de SMT Microlectronics comme les résultats d’Intel, légèrement en baisse fin 2015, montrent que ces firmes dont les performances sont indispensables aux avancées numériques sont également vulnérables.

Capture d’écran 2016-02-02 à 11.21.04

Samsung, Bosch, Panasonic, parmi d’autres, ont démontré que l’intégration des potentialités de l’internet des objets pour fournir des services «  sans couture » aux clients rendait nécessaire une plate-forme d’interopérabilité. La Poste, qui n’est pas un opérateur technologique naturel, propose cette intégration avec son hub en y accueillant de multiples fournisseurs de services. C’est donc une tendance de fond qui dépasse les débats sur les composants et les protocoles pour proposer le cadre d’interopérabilité simple qu’attendent les clients.

La  technique permet de mettre le client au coeur du SI

Le CES met en évidence une transformation continue de l’environnement technique du traitement de l’information qui pour les DSI représente de nouvelles opportunités d’action. Cette poussée continue issue du monde de la consommation grand public a un impact immédiat sur toutes les entreprises en B-to-C qui doivent revoir leurs processus pour coller aux nouvelles exigences des consommateurs. Mais toutes les entreprises présentes ont également montré que même en amont de la chaîne de valeur elles doivent également intégrer les attentes du client final. La marche du B-to-B vers le B-to-C est inéluctable, même si la logique partenariale, qui est une autre composante illustrée par CES implique que la relation entre l’entreprise, ses fournisseurs et ses partenaires, devienne également une composante du système global tel que le définit la cadre industriel du manufacturing 4.0 porté notamment par Bosch.

Les DSI doivent donc se préparer à intégrer rapidement dans le système d’information la demande de traduction par les métiers de ces nouvelles pratiques. Elles doivent agir en amont sur la préparation de l’infrastructure aussi bien que, dans la phase de production, sur la vitesse de réponse aux sollicitations des métiers. Elles doivent aussi prendre sans délai les initiatives nécessaires pour identifier les partenaires nécessaires pour les accompagner dans cette mutation. Elles devront notamment élargir le cercle habituel de leurs partenaires informatiques pour s’ouvrir à de nouveaux acteurs, totalement immergés dans la culture du web.

Les DSI doivent donc considérer que la conjonction des tendances structurantes, identifiées ou confirmées lors du CES 2016, appelle une réponse cohérente en direction de l’ensemble des parties prenantes du SI d’entreprise. Car faut intègrer dans une vision unique la pérennisation du SI opérant actuel, avec les modernisations requises, et l’apport des nouvelles techniques.

Le CES a révélé et accentué le caractère critique induit par la transformation des comportements sur la capacité du SI.

1/ Prééminence de la donnée

La donnée est devenue l’élément central du système d’information. Elle est aujourd’hui interne comme externe, structurée comme non structurée, constatée ou calculée, produite par les humains ou des capteurs automatiques. Plus que jamais les principes du CobIT en matière de donnée s’appliquent parfaitement et ce dans un périmètre largement étendu par rapport aux origines du SI. La DSI doit garantir à l’entreprise que les données traitées répondent aux exigences définies par CobiT : efficacité, efficience, confidentialité, intégrité, disponibilité, conformité, fiabilité.

Captées, acheminées, traitées, restituées, stockées, archivées, protégées, ces données multi-formats représentent un capital dont la volumétrie ne va pas cesser de croître notamment avec le développement continu de l’IoT (Internet of Things). Ceci appelle de nouvelles compétences, notamment en matière de réseaux (Sigfox, LoRa) et en matière d’outils de traitement, comme Hadoop et de façon générale de connaissance du champ mouvant des méthodes d’analyse (« analytics »). L’utilisation des outils de l’intelligence artificielle trouve sa dynamique dans le contexte de la massification des données. Néanmoins, elle n’est pas d’un usage évident et implique l’acquisition de compétences nouvelles.

2/ Accroissement global de la technicité

La prééminence de la donnée, devenue cœur du SI, en modifie la technicité toute au long de la chaine de traitement. La DSI doit développer une compétence d’architecture technique intégrant tous les nouveaux composants issus du web et de l’IoT, des protocoles de communication et de l’IP V6 jusqu’aux nouveaux langages de programmation.

En matière de développement, aux côtés de s méthodes classiques qui subsisteront encore pour un temps dans les applications transactionnelles lourdes ressortissant encore du cycle en V, le développement agile et le DevOps vont s’imposer. Contrairement à ce qui a pu être recommandé dans le passé, l’existence de développeurs internes rompus aux nouveaux langages peut représenter un avantage concurrentiel direct grâce à la compréhension des attentes métiers et à la rapidité du développement.

Enfin la technicité du nouveau SI étendu passe par une véritable rupture en matière de fiabilité qui doit pour les applications critiques atteindre 99,999%

Dans ce cadre général, la possession et l’exploitation de données d’origines multiples pose de nouveaux problèmes de sécurité qui dépassent le cadre traditionnel de la protection anti-intrusion pour traiter des problèmes rigoureux de protection des données personnelles.

3/ De nouvelles frontières techniques pour la DSI

La DSI est née de l’automatisation des processus régaliens de l’entreprise et a graduellement étendu son champ de responsabilité. L’apparition de solutions issues du web a pu laisser penser que le travail de mise en cohérence et d’orchestration du système d’information avait conduit à des solutions lourdes et contraignantes pour les métiers qui pouvaient trouver très vite dans ce catalogue de nouvelles solutions en mode SaaS réponse à leurs besoins. Le nouveau chapitre de l’évolution du système d’information redonne à la DSI une légitimité qu’elle peut exploiter dès lors que la qualité et le niveau de service qu’elle délivre répond aux besoins et aux désirs des métiers. Le défi pour la DSi est d’étendre le spectre de son offre tout en faisant évoluer son modèle de service.

Il est évident que l’augmentation exponentielle du nombre des potentialités offertes par la technique ouvre de nouvelles perspectives aussi bien pour l’informatique dite de gestion que pour les outils de production, de biens comme de service. Le temps réel devient une réalité opérationnelle. Le champ immense de la production additive transforme les imprimantes 3D d’outils anecdotiques en instruments de production insérés dans la gestion de production. Même les drones trouvent un positionnement dans le monde de la production et du service qui en font un nouvel auxiliaire précieux du système d’information.

Les techniques dans lesquelles la plupart des DSI étaient peu engagées prennent désormais une importance clef dans la réponse de l’entreprise au marché. La reconnaissance d’image et de formes, la reconnaissance de la parole, démocratisée par les services d’Apple avec Siri mais aussi par Amazon avec Alexa, sont des auxiliaires du SI qui rendent possibles de nouvelles performances, comme le prédictif contextuel. L’ergonomie et le design, le soin apporté à la qualité des interfaces, l’obligation de gérer l’information dans des contextes multi-environnements sont aussi de nouveaux défis auxquels la DSI doit pouvoir apporter, seule et en partenariat interne avec les métiers comme en externe avec les spécialistes, les réponses appropriées.

4/ Un nouveau cadre de management

La DSI de 2020 sera profondément différente de cette de 2010. L’expansion illimitée de l’internet, notamment vers les objets, l’exploitation de la donnée sous toutes ses formes appelleront de nouveaux modes d’organisation et de nouvelles compétences. Ce n’est évidemment pas une surprise pour les DSI du CIGREF, organisation qui s’est donnée comme mission, il y a plusieurs années, de développer la capacité des grandes entreprises à intégrer et maîtriser le numérique.

La confrontation directe au CES avec les pratiques des acteurs de la société numérique comme avec les grandes entreprises en mutation, notamment automobiles, offre l’avantage de fournir sous un format compact de quatre jours une vue à la fois globale et incisive sur les transformations des usages et des techniques. Au-delà d’une connaissance générale, cette plongée dans le monde numérique à travers le prisme, certes imparfait, parfois biaisé par la culture de la démonstration spectaculaire, mais impressionnant du CES, permet de mesurer la vitesse de transformation et de comprendre les intentions et les pratiques des acteurs.

Pour le DSI, il est clair que ce choc doit conduire à une réévaluation des pratiques sur les domaines techniques clefs qui ont été identifiés mais, de façon générale, à une révision de la gestion des priorités.

Cinq points d’action émergent sans ambiguïté :

  • Le pilotage des partenariats est un levier majeur de la transformation numérique
  • Les nouvelles disciplines techniques doivent être comprises et acquises
  • Le cycle de l’innovation s’accélère et doit être piloté de façon proactive et partagée
  • Le mode agile implique une évolution majeure des comportements
  • La vitesse comme la qualité d’exécution, c’est à dire la culture du service, font de la DSI un centre d’excellence

On pourrait conclure que si la robustesse du SI socle, gage de la performance opérationnelle au quotidien de l’entreprise, ne doit pas être négligée, il faut conduire sa transformation avec l’audace et les méthodes des start-ups. Exacerber une sorte de rivalité entre CIO et CDO - Chief digital officer - est sans intérêt car il y a du travail pour tous dans cette transformation. Mais une des leçons du CES est qu'il faut l'engager sans délai avec une équipe de direction générale en ordre de bataille, identifiant bien les forces internes et externes, et mettant les ressources requises au bon endroit.


Trop de web ? Trop de numérique ? Quel avenir ?

 

Le débat sur l’impact du numérique sur l’économie s’accélère et se densifie dans notre pays. Deux lois sur le numérique sont en préparation, après la parution d’une multitude de rapports, documentés et stimulants, mais restés pour l’essentiel lettre morte. Cantonnée, Il y a peu de temps encore, aux secteurs de la presse, de la musique, du voyage, la prise de conscience de la transformation profonde engendrée par le web réveille aujourd’hui l’éternel débat sur la vitesse de la transformation induite par la technique. Comme à chaque étape de l’histoire humaine, la mise en tension des structures qu’implique l’émergence d’un nouveau système socio-technique bouscule l’ordre établi, déstabilise les pouvoirs, ravive les fractures sociales, remet en cause les hiérarchies et l’équilibre des territoires. Et inquiète tous ceux qui ne comprennent pas le mouvement et craignent, souvent à raison, d’en être les victimes ! La destruction créatrice de Schumpeter est en marche. Elle est violente et rapide d’autant plus qu’elle n’obéit pas à un plan prévisible et pré-établi comme nous les aimons dans notre pays marqué par la centralisme de notre culture politique et économique.

Néanmoins, la révolution numérique, en dépit de son caractère spectaculaire, n’est, comme les révolutions techniques qui l’ont précédé, qu’une œuvre humaine. Elle n’est pas magique mais résulte de l’action conjuguée de forces maîtrisables. Il est donc possible, et même absolument indispensable, de l’analyser avec lucidité. Il faut d’abord comprendre pourquoi cette révolution, venue d’ailleurs, nous heurte particulièrement en France, avant d’esquisser les pistes d’une prise en compte active de cette dynamique sur notre territoire.

  1. La révolution numérique est rapide et violente

Le tempo de cette transformation est imposé par les leaders nord-américains.

La santé insolente que manifeste les leaders du GAFA (Google, Apple, Facebook, Amazon) est une provocation pour l’économie européenne et l’aveu d’un cruel échec pour ce respectable terroir qui a dominé pendant plus de deux siècles l’économie mondiale par son talent et sa capacité d’innovation. En 2000, l’Europe s’était donné comme objectif pour 2010 de devenir leader dans la science et la technique ! En effet, il n’y a plus, après l’échec de Nokia, aucun point lourd dans les techniques numériques en Europe ! Parmi les entreprises du CAC 40, aucune n’appartient à ce courant des champions du web. Et on peut admettre que seuls Orange et Cap Gemini, Alcatel Lucent étant absorbé par Nokia, portent les couleurs de cette nouvelle vague d’informatisation, avec de pâles valeurs de capitalisation : 43 et 14 milliards €. Et cette domination n’est pas prête de se ralentir car les licornes, entreprises ayant dépassé une capitalisation boursière d’un milliard de dollars, se développent à toute vitesse aux Etats-Unis. Plus d’une centaine de ces entreprises sont ainsi apparues depuis 2014. Si toutes ne réussiront pas, il est clair que certaines viendront grossir le rang de leurs aînées ou seront absorbées.

Capture d’écran 2015-11-30 à 12.46.54

Les jeux sont faits : la Silicon Valley est devenue le centre du monde économique du XXIe siècle. La capitalisation boursière atteint, en novembre 2015, des niveaux jamais atteints : 651 milliard $ pour Apple, 500 milliards $ pour Google, plus de 300 milliards $ pour Facebook et Amazon. Seul, Apple vaut autant que les dix premières entreprises du CAC 40. Avec les profits de son année fiscale 2014-2015, soit 53,4 milliards $, Apple a battu le record du plus haut niveau de profits jamais atteint en une année dans l’histoire économique. Ceci représente 79% des bénéfices des entreprises du CAC 40 pour l’année 2014!

Dans le chaudron neuronal californien, où abondent les talents et les capitaux, s’invente, dans le style décontracté inimitable des tycoons californiens, l’économie de demain. Et rien n’est trop beau ni laissé au hasard : ni le nouveau siège d’Apple, ni la nouvelle ville de Facebook, ni l’appétit omnivore de Google pour le futur. L’ambition et la certitude d’avoir raison animent cette nouvelle génération d’entrepreneurs qui bousculent tous les establishments en imposant leurs codes. Leur vocation est de développer leur influence dans tous les secteurs, sans frein à leur appétit, sans précaution pour laisser vivre en dehors de leur écosystème les audacieux qui refusent d’y entrer. Le gagnant emporte toute la mise sans rien laisser aux concurrents. Cette logique d’universalité doit servir le bien de l’humanité car les tycoons ne sont pas avares de déclarations généreuses. Le « moon shot » est là et prend le pouvoir politique comme l’a démontré le rejet d’une proposition anti-Airbnb à San Francisco. Le moonshot, par similitude avec le programme Apollo, consiste à adopter des solutions radicales tant sur le plan technique qu'organisationnel, sans précaution majeure ni pour la prise de risque ni pour la rentabilité à court terme. Les pratiques fiscales des barons de la nouvelle économie sont opaques et ni dans les pays où ils opèrent ni même aux Etats-Unis, ces géants du web ne figurent pas parmi les entreprises citoyennes exemplaires. Mais est-ce vraiment différent des Carnegie et Rockfeller en leur temps, sinon que leur terrain d’action est mondial et qu’ils pénètrent beaucoup plus profondément les consciences que pouvaient le faire les rois de l’acier, du chemin de fer et du pétrole ? La logique d’un entrepreneur est d’exploiter, sans état d’âme, tout le terrain que lui laissent ses concurrents… et le législateur.

Les conséquences sociales sont considérables

La disruption – mot clef de ce et début de XXIe siècle – est un tsunami qui s’attaque à tous les secteurs économiques. Bien sûr la construction des fondations de l’internet a nécessites près de trois décennies pour créer, progressivement, ce réseau mondial universel. Mais l’accélération a été déclenchée par l‘irruption d’un nouvel objet. Le premier smartphone. L’iPhone, doté de fonctionnalités qui faisaient sourire en 2007 comme la géolocalisation, ou un appareil photo, a mis entre toutes les mains un puissant ordinateur, mobile et connecté au réseau internet. Passer de quarante années d’informatique « assise », coûteuse, lourde, complexe à une informatique « debout », ergonomique, mobile, accessible et géolocalisée, a créé une brèche spatio-temporelle dans laquelle se sont engouffrés développeurs et entrepreneurs pour inventer un monde poussé par la recherche de solutions utiles et simples à la plupart des problèmes de la vie quotidienne. Sans intermédiaires, grâce à l’idée géniale des magasins d’applications gratuites ou peu onéreuses, ils distillent l’élixir de la transformation numérique de la société directement vers les utilisateurs qui s’en emparent avec délectation, parce que c’est simple, utile et… pas cher ! Ce phénomène défie les lois de l'économie car la plupart des enteprises porteuses de ces nouveaux services ne gagnent pas d'argent en dépit d'une capitalisation boursière pharaonique. Néanmoins elles bousculent les secteurs établis, les forcent à s'adapter ou à disparaître. 

Citons quelques exemples. AirBnB, né en 2008, s’est développé ainsi de façon virale, sans autorisation, sans prévenir. Et sans que personne n’ait vraiment vu le phénomène se développer, sauf les pourvoyeurs d’espaces – promus « hôtes »- et leurs clients, ravis d’une telle aubaine, AirBnB capte des millions d’utilisateurs et, en pertes, génère un revenu de moins d'un milliard $ pour une capitalisation boursière de 24 milliards $. En 2020, l'entreprise devrait enfin être rentable ! Or tout peut changer dans ce secteur très ouvert...

Pour étendre son spectre d’activités, Google investit des milliards de dollars. Google, qui est désormais fractionné en plusieurs entités légales, sous une nouvelle holding, Alphabet, a nommé le pape de l’intelligence artificielle à la tête de son département de recherche, Ray Kurtweil, et fait de nombreuses acquisitions dans le domaine des robots, comme Boston Dynamics, spécialisé dans les robots militaires. la boulimie de Google est incommensurable mais son alimentation en cash est permise par une activité tout ce qu'il y a de plus classique, la publicité. 

Les structures politiques sont ébranlées

Pour la première fois dans l’histoire, l’innovation ne connait pas de frontière et se déplace instantanément, sans délai, entre les pays, supprimant l’avantage comparatif que donnait aux pays développés leur avance technique. Le développement des télécommunications bouleverse la séquence historique de développement. La totalité des habitants de la planète accède maintenant au téléphone mobile, et bientôt, grâce aux smartphones à bas prix qui se vendent par centaines de millions, bénéficiera de tous les services du web. Les gouvernements ne peuvent que constater que la révolution numérique se fait sans eux, sans leur autorisation et hors de leur contrôle.. Si le Parlement européen s’émeut, et vote en novembre 2014 une résolution pour démanteler Google, l'entreprise ne se plie pas pour autant aux exigences européennes.

Peu de dirigeants ont encore intégré le fait numérique dans leurs pratiques

Si les Français adorent les technologies numériques pour leur usage personnel, les pratiques en entreprise et dans la vie publique sont en retrait par rapport à cet engouement individuel, même si, au fil du temps, on observe des changements significatifs de comportement. Les images du bureau de François Hollande sans ordinateur et noyé sous les parapheurs ont choqué. Il n’est pas le seul à parler du numérique, pour les autres. Les dirigeants français ont dans l’ensemble raté la seconde vague de la révolution informatique, celle des années quatre vingt-dix avec les ERP. Ils trouvent aujourd’hui qu’avoir une stratégie « digitale » est beaucoup plus chic que de faire de l’informatique, activité reléguée au rang définitif et peu enviable de « centre de coûts ». Si utiliser un mot anglais permet d’avancer la prise de conscience, tant mieux. Mais il ne faudrait pas que ce soit un leurre de même nature que l’e-commerce au début des années 2000. Car si techniquement le numérique ne se dissocie pas de l’informatique, culturellement il n’en est rien. Là où l’informatique permettait d’accroître la productivité de l’existant, le numérique consiste à remettre en cause, ou simplement ignorer, cet existant pour inventer tout autre chose.

Bien peu de dirigeants acceptent l’idée que la révolution numérique est avant tout une révolution managériale qui s’appuie sur la compétence de la totalité des collaborateurs avec un minimum de technostructure et d’encadrement. La révolution numérique, c’est une large décentralisation avec des équipes petites, autonomes connectées en réseau. C’est la réactivité privilégiée par rapport au plan et au budget venus d’en haut. La reconnaissance ne se fait pas par la hiérarchie mais par les pairs. C’est une incitation permanente à l’initiative et au non-conformisme. On ne tue pas une idée, on l’améliore ! C’est une remise en cause radicale du système hiérarchique pyramidal, ses rituels et ses ordres.

La révolution numérique bouscule emplois et compétences

La désintermédiation, qui a désormais un nom, « ubérisation » est un processus simple et efficace. C’est pour cela qu’elle s’impose dans tous els secteurs. Elle consiste à supprimer tous les intermédiaires inutiles d’un processus pour délivrer un résultat, rapidement, efficacement et pour le moins cher possible. Le réengineering des processus, activité phare des années quatre vingt-dix se fait désormais de façon beaucoup plus radicale en mettant en place un outil informatique, une plateforme d'intermédiation, qui met en relation directe émetteur et récepteur La désintermédiation est aussi connexe à la dématérialisation. Comme le support physique n’est plus utile à l’accomplissement de la fonction, la production de l’information suffit. Et elle est immatérielle, peu coûteuse et se prête à tous les traitements qui assurent la traçabilité et le contrôle du dénouement physique et économique de la transaction.

Avec la suppression de fonction physique de production, de diffusion et de contrôle, ce sont des centaines de milliers d’emplois industriels et tertiaires qui sont d’ores et déjà supprimés ou encore seulement menacés. Les exemples sont multiples dans l'édition musicale, la presse, la photographie.. .Prenons l'exemple d’un produit récent qui fut innovant, le Compact Disc, diffusé à partir de 1982. Editer un CD à partir d’un fichier numérique, le presser, l’emballer, le transporter, le distribuer dans des points de vente représentait un grand nombre de tâches matérielles et l’utilisation de ressources physiques - papier, carton, plastique, stockage, véhicules, manutention - que la diffusion en un clic du même fichier sur un serveur supprime définitivement. Aujourd'hui les magasins de disques ont quasiment disparu, à l'instar du célèbre HMV à Londres, plus grand magasin de disque du monde, ouvert en 196 et fermé en 2014. Il en est ainsi dans les guichets, les points de vente, les caisses de supermarché, les bureaux… Il est bien naturel que les emplois directement associés à ces tâches physiques disparaissent également. Mais la logistique impose encore beaucoup de main-d’œuvre et Amazon propose un nouveau type de contrat de travail, Flex, pour ses livreurs occasionnels aux Etats-Unis. Il s’agit d’utiliser sa propre voiture, sans couverture sociale, pour livrer quand on le veut dans un périmètre restreint pour 18 à 25 $ de l’heure. Les initiatives de ce type se multiplient dans tous les métiers, sapant sans bruit les bases historiques du salariat.

Bruissante, tumultueuse, sans égards pour le passé, la révolution numérique apporte à tous et bouscule tout le monde. Elle n'est nullement morale ou vertueuse par elle-même, s'inscrivant dans une longue histoire de l'innovation, mais elle peut le devenir si elle sert l'intérêt général.

A suivre ...

  1. A la recherche d’un nouvel équilibre

Faire basculer la France dans le XXIe siècle : le numérique

Le G9+, think tank informatique, télécoms et numérique des anciens des grandes écoles, a lancé une démarche de réflexion collective pour 2017 : "100 idées pour une France numérique". Ce texte, sous une forme adaptée,  s’intègre dans cet ensemble de contributions qui sera débattu le 19 novembre.

De multiples rapports ont été consacrés au développement numérique de la France. Un des plus importants est celui publié en 2014 par la commission Lemoine sur « la transformation numérique de l’économie française ». De nombreuses structures, think tanks et organismes professionnels, ont émis des propositions et réunis les acteurs engagés dans la révolution numérique. Ce n’est donc pas l’originalité, ni l’exhaustivité, des mesures qui doit être prise en compte dans le cadre de cette réflexion, mais la recherche d’un effet de masse sur la société. Dans la situation actuelle de la société et de l’économie française, il est indispensable de sortir du champ de l’intention et de l’expérimentation pour franchir un seuil irréversible d’adoption massive.

Bureaucratie-paperasse

Dans ce débat qui  a commencé à la fin des années quatre-vingt dix quand certains ont commencé à prendre conscience que le développement mondial de l'internet et du web était un phénomène d'une ampleur qui promettait d'être exceptionnelle. La France a beaucoup hésité face à ce processus clairement américain dont elle n'avait pas été à l'origine, et qu'elle avait sous-estimée, malgré les courageuses initiatives de Louis Pouzin. Vingt ans plus tard, internet et les services du web ont conquis le monde avec trois milliards d'internautes.

Aussi les ultimes résistances tendent enfin à s’estomper devant la prise de conscience de l’irréversibilité de la transformation en cours partout dans le monde. Plus que la somme des techniques de communication, désormais disponibles à faible coût et sans complexité,  qui permettent d'accéder sans limite à des informations de toutes natures, ce sont les changements culturels et comportementaux qui marquent la vie sociale. Or l’expérience des succès de l’économie du web démontre que c’est la rencontre entre un besoin, souvent latent, et une offre, ergonomique et économique, qui déclenche l’adoption. La créativité des start-upers  est sans frein ce qui conduit les magasins d'applications à proposer des millions d'applications diverses dont certaines ne sont jamais exploitées par ceux qui les ont téléchargées. Cet usage privé, que chacun gère en fonction de ses envies et de ses besoins, est une première étape plaisante et pratique dans la numérisation. Mais il faut aller au-delà pour ancrer le numérique dans les pratiques sociales qui, en France, nécessitent la plupart du temps l'engagement de l'Etat. Car, dès lors qu’il s’agit de rechercher un effet de masse qui dépasse l’adoption privée, poussée par l’innovation, les évolutions du cadre législatif et réglementaire se révèlent nécessaires pour rendre possibles ces transformations.

Au-delà d'un mouvement comme  la French Tech, qui mobilise les talents des entrepreneurs,  et la dynamique des start-ups, relayée par les écosystèmes régionaux, ce sont les pratiques régaliennes qu'il faut revisiter à travers le prisme de la culture numérique. Dématérialisation, réactivité, engagement, décentralisation sont les vecteurs de cette transformation qui doit transformer nos modes de fonctionnement conventionnels pour faire basculer notre culture du papier et de l'autorité vers celle du numérique et de la responsabilité.

1191_696_Capture-d-e-cran-2014-11-12-a-13

Si, en France, les infrastructures sont globalement capacitaires, si l’adhésion spontanée des consommateurs est forte,  Il s’agit maintenant de fournir un cadre de confiance collective envers le numérique qui ne peut être produit sans impulsions législatives et réglementaires. Il faut également améliorer l’offre de services collectifs, sans qu’ils soient nécessairement publics, au-delà des propositions du marché pour produire un effet de transformation collective des comportements.

Les mesures proposées, qui s’inscrivent dans le prolongement de mesures déjà engagées,  ou incluses dans les projets de loi d'Axelle Lemaire et Emmanuel Macron, visent une accélération du développement universel des usages en stimulant la confiance envers les solutions numériques de tous les citoyens et la créativité numérique. Il s’agit de renforcer les motivations des pionniers et développer l’adhésion des milieux encore sceptiques, ou hostiles, en créant les conditions transparentes d’adhésion lucide et responsable à la société numérique du XXIe siècle. Le besoin de sécurité et de confidentialité est un élément structurant de la demande sociale. Faute d’y répondre clairement, la transformation numérique reste partielle et ne livre pas ses promesses économiques et culturelles. Cinq mesures ne suffisent pas. Mais il est important de créer un cadre général sur des sujets pour lesquels le changement de pratiques pourra induire le développement d'une nouvelle culture d’initiatives et de responsabilités dont la France a besoin.

1/ Rendre obligatoire la facturation électronique pour tous les échanges inter-entreprises au 1er janvier 2019

La dématérialisation des commandes et des factures est le seul mécanisme collectif déclencheur d’une transformation numérique des processus. En effet, l’échange de documents informatisés implique la mise en place de processus et d’outils dans toutes les entreprises et organisations, quel que soit leur taille. C’est donc le moyen d’obtenir que se mettent en place des processus numérisés de bout en bout.

2/ Mettre en œuvre un titre universel d’identification numérique individuelle

Contexte :

Le projet d’une carte d’identité numérique est ancien. Il a été  lancé en 2003 et visait  de produire une’identification forte associant un cadre régalien et un cadre commercial.  Ce qui fait l’originalité de ce projet a justement conduit à de multiples tergiversations qui ont finalement différé son adoption qui nécissattn une loi n’a pas trouvé le cadre et les supports requis.

Relancé en 2012 sous l’appelation IDéNum, le projet a été adopté mais de nombreuses dispositions ont été jugées anticonstitutionnelles.

Objectif

Doter chaque personne d’un outil d’identification numérique irréfragable, sécurisé et garanti par l’Etat, permettant à la fois de répondre aux objectifs régaliens et d’assurer dans toutes les transactions, publiques ou commerciales, une preuve d’identité.

3/ Dématérialiser tous les documents concernant la vie professionnelle et la gestion du patrimoine avec l’instauration d’un service de coffre-fort électronique personnel.

Objectif

Eviter l’émission de millions de documents en double (papier et numérique)  notamment la feuille de paye avec stockage électronique à vie,  les actes de gestion individuelle et patrimoniale (contrats, titres de propriété…)

Faciliter la liquidation des droits à pension de retraite et de façon générale simplifier la gestion des actes administratifs personnels

Fournir sous forme numérique tous les éléments validés pour des transactions (achats immobiliers, achats de véhicules…)

Unifier toutes les informations sociales

Garantir  la sécurité juridique des éléments clefs de la vie sociale

Offrir un cadre pérenne, sécurisé, permettant la sécurisation de long terme

 

4/ Déployer le « contrat de coopération » pour fluidifier la circulation des compétences 

Contexte

L’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, l’esprit entrepreneurial constituent des propriétés naturellement développées et encouragées par les écosystèmes numériques. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel. Les entreprises qui sauront devenir des fédérateurs naturels de talents individuels gagneront la compétition économique. Affranchie des contraintes conventionnelles issues de la fragmentation de la société, la mise en synergie des talents peut trouver des réponses radicalement nouvelles aux problèmes de notre société et combler les lacunes des mécanismes classiques. 

Quand on fait appel au « cerveau-d’œuvre », plus il y a d’acteurs, plus il y a d’idées qui germent et réussissent. Il faut donc abattre toutes les barrières à l’entrée à l’activité en renforçant, avec un code du travail simplifié, l’efficacité des sanctions.

Mesure

Introduire un « contrat de coopération »  à échéance variable, de 2 à 5 ans,  qui n’est pas un contrat de subordination, mais définit contractuellement les droits et obligations des deux parties, et précise la nature de la contribution et les règles d’évaluation. La rémunération reste un salaire, chargé, mais le salarié ne figure pas parmi les effectifs statutaires de l’entreprise et n’entre pas dans le comptage des seuils sociaux.  Il est soumis aux conditions de travail de l’entreprise mais peut également inclure le télétravail.

5/ Développer l’industrie du logiciel éducatif et pédagogique à travers les enseignants et le diffuser à travers l’enseignement

Contexte

Le développement des supports numériques pédagogiques inclus dans les programmes  est très lente alors que l’échec scolaire s’accroît, surtout sur les disciplines fondamentales comme la langue française, les langues étrangères, les mathématiques, l’histoire géographie…

Objectif

L’objectif est d’exploiter l’appétit naturel des jeunes générations pour les outils numériques pour installer le numérique au cœur des processus pédagogiques. Ce mouvement ne peut passer que par les enseignants eux-mêmes et par l’inclusion des outils numériques dans tous les processus d’apprentissage.  Il ne s’agit pas d’ajouter le numérique comme matière d’enseignement ( même si la question est pertinente pour la formation à la programmation) mais d’inclure les outils numériques dans la progression pédagogique et l’évaluation ;

La mesure proposée est donc d’inciter les enseignants à partager leur expérience pédagogique par la création de logiciels professionnels. C’est une action qui permettra l’émergence de start-up francophones produisant des produits totalement insérés dans les processus pédagogiques et dans les programmes.

 

 


L'urgence iconomique

S’il faut stimuler la réflexion, ce n’est pas pour le plaisir de l’exercice de style, mais pour contribuer à aider les acteurs sociaux à trouver des repères et à anticiper. Notre travail collectif, au sein de l’Institut de l’Iconomie, est précisément de réfléchir à l’ampleur des transformations en cours sur notre planète pour comprendre, anticiper, construire. Il y a urgence. Nous devons revoir en profondeur nos méthodes de travail, notre culture managériale pour ouvrir, partout, des espaces de liberté et de créativité.

 Ce décodage est indispensable quand tout bouge simultanément et que le découragement gagne face à l’inefficacité des réponses convenues. L’erreur la plus commune est en effet de vouloir résoudre des problèmes nouveaux avec des solutions anciennes. Notre pire ennemi, c’est le passé, répète Elon Musk. Il faut inventer en matière d’organisation de la société comme nous savons si bien le faire en matière technique, sans tabou ni totem.

La révolution du web n'est pas technologique

Internet et le web sont arrivés à la fin du XXe siècle sans que personne n’ait vraiment pris la mesure de l’ampleur de cette transformation. Le monde des entreprises où se déploient les règles, les pratiques et les rituels  du travail, ne considérait pas cette innovation grand public comme pertinente pour le monde professionnel. En 2007, c’était l’iPhone qui allait ouvrir le champ à une profonde mutation de la communication et de la connaissance, probablement une des plus riches de conséquences de l’histoire de l’humanité. En permettant l’accès mobile à toute l’information, on mettait fin à la suprématie de « l’informatique assise » qui servait de base à toutes les pratiques sociales de l’organisation du travail. Car la mobilité casse les frontières, remet en cause les processus, le temps et le lieu de travail, donne à celui qui est proche du terrain le moyen d’agir et d’interagir avec son environnement. Loin d’être achevée, cette révolution entraine une désintermédiation massive des métiers. Cette « ubérisation », redoutée par toutes les entreprises, est à l’œuvre partout au grand bénéfice du client, libéré des carcans des monopoles et des processus bureaucratisés. Mais le client, qui est aussi un producteur, est entraîné lui aussi dans les conséquences de ce bouleversement systémique.

L'agilité, plus qu'un outil, une culture

 C’est probablement le changement que nous allons continuer de vivre dans les quinze prochaines années. Il sera graduel, continu, et va toucher tous les actes professionnels. L’informatique  a quitté le champ de l’industrialisation des processus répétitifs pour conquérir tous les espaces de la conception, de la production, de la diffusion.  L’action se nourrit de l’information et de la connaissance, du rationnel comme des émotions. Le système d’information, décloisonné, ouvert, traite aussi bien les données structurées internes, comme le font très bien les ERP, que les données structurées externes, et surtout les données non structurées, internes bien sûr, comme externes. C’est cette mise en relation continue et riche qui va donner à la décision, à tous les niveaux de l’organisation, une densité et une robustesse renforçant l’efficacité collective dès le niveau le plus fin, c’est à dire chaque collaborateur.  

 Ce nouveau modèle d’organisation est qualifié d’agile. L’objectif est de réduire la complexité pour s’adapter plus rapidement à un environnement changeant. Appliquée plus largement à l’entreprise, l’agilité est une vision du travail basée sur l’idée de changement permanent, itératif et incrémental, où le produit final, matériel ou immatériel, proposé doit pouvoir évoluer en s’adaptant au désir du client ou aux conditions du marché. L’entreprise agile privilégie des cycles de développement courts, développe ses produits par itérations en fonction, en priorisant les évolutions identifiées,  se confronte très tôt au feedback du marché et des clients. Au besoin, elle peut « pivoter », c’est à dire changer radicalement son produit ou son business model si le marché l’exige. L’entreprise agile se nourrit de collaborations extérieures et remet en cause constamment, et sans drame, son modèle d’organisation. S’appuyant sur le réseau maillé collaboratif, l’entreprise agile est infiniment « scalable », c’est à dire qu’elle s’adapte au contexte sans délai ni rupture.

Revitaliser le sens du travail

Il est clair que dans ce modèle, qui  n’a pas vocation à être marginal car il peut  couvrir l’essentiel des activités, l’homme est revenu au centre. Le travail n’est plus un exercice frustrant imposé par d’autres, mais le moyen d’exprimer ses compétences, son talent, ses envies dans un cadre robuste mais fluide. L’idée n’est pas neuve. Dès les années soixante-dix, la logique d’enrichissement du travail a permis graduellement de sortir de la déshumanisation imposée par le taylorisme de pure obédience. Ce n’est que la persistance de modèles autoritaires, inefficaces, qui prive beaucoup de collaborateurs du plaisir de la coopération, et alimentent les dégâts du stress au travail.

 Innover en matière de travail, c’est produire du sens et développer sans cesse la compréhension, le respect, la confiance et la formation, seuls moteurs de l’adhésion. Le numérique oblige certes à repenser le fonctionnement de  l’entreprise comme un réseau ouvert sur l’extérieur et non plus comme une pyramide fermée. Ce ne sont  plus les mêmes profils de compétence et de comportement. Mais l’ouverture, la flexibilité, la prise d’initiatives, la collaboration spontanée, ne constituent pas des propriétés naturellement développées. C’est un travail de remise en cause des acquis. Réinventer les parcours de travail au cours de la vie à l’ère du numérique implique de multiples changements dans notre compréhension du travail contemporain, dans les organisations et la culture managériale mais aussi dans l’affirmation de sa responsabilité individuelle dans le développement de son parcours professionnel.

Les entreprises qui sauront devenir des fédérateurs naturels de talents individuels gagneront la compétition économique. Affranchie des contraintes conventionnelles issues de la fragmentation de la société, la mise en synergie des talents peut trouver des réponses radicalement nouvelles aux problèmes de notre société et combler les lacunes des mécanismes classiques. Utopie ? Certainement moins que l'idée d'atteindre couramment cent ans pouvait apparaître folle au XIXe siècle au temps de Karl Marx... Reconnaître que toutes ces questions, sans réponses univoques, ne constituent pas un problème mais une formidable opportunité est une première étape. Admettre l’urgence et la remise en cause, sans inhibition, de la plupart des modèles qui ont construit l’entreprise, et donc la société, depuis la XIXe siècle est une seconde étape, courageuse, qu’il faudra rapidement franchir si on veut éviter l’effondrement de ces modèles devenus progressivement obsolètes.

Notre réflexion doit nourrir de façon tonique et coopérative, cette remise en cause lucide et efficace. C’est un long et exaltant chemin !


Sécurité sur le web, comment faire ?

En juin 2013, Edouard Snowden, un ancien consultant de l’Agence Nationale de Sécurité américaine (NSA), révèle l’existence d’un programme secret de surveillance électronique, nommé PRISM. Depuis 2007, ce programme permet aux Etats-Unis de collecter en masse des informations sur tote forme d'activité en ligne (conversations audio, emails, photos, activités sur les réseaux sociaux, etc.), au niveau mondial, auprès d’entreprises américaines, dont Google, Yahoo!, Microsoft ou Apple, mais aussi de services de pays amis. Depuis, chaque semaine, sont révélées, partout dans le monde, des opérations d’intrusion menées par des services secrets. Dans cette vaste parade de l'observation mutuelle, il n'y a plus ni amis ni ennemis mais que des suspects. Car depuis le 11 septembre, les Etats-Unis, suivis par tous les grands pays, ont engagé une guerre totale contre le terrorisme en utilisant tous les moyens techniques pour capter les informations permettant de réduire le risque terroriste. La première réaction du gouvernement français, à la suite des attentats du 11 janvier 2015 a été d’allouer des ressources supplémentaires aux services de renseignement électronique. Plus encore, l’exploitation de ces informations autorise les Etats à procéder, comme dans Minority report à des interventions préventives contre des personnes dont « tout indique » qu’elle s’apprêterait à commettre un acte terroriste.

Wordle1

 

A la lumière de ces événements, citoyens et entreprises du monde entier prennent conscience avec indignation, mais aussi fatalisme, de l’ampleur de l’intrusion dans leurs données privées et confidentielles permise par les techniques de plus en plus sophistiquées. Mais est-ce un phénomène nouveau ?

En réalité, toutes ces affaires renvoient à de multiples notions de « sécurité ». Si l’intrusion des Etats dans la vie des citoyens n’est pas une nouveauté propre à la société de l’information, son ampleur et sa précision ont été décuplés par la puissance des moyens techniques. Toutefois il serait préjudiciable que le buzz médiatique autour de la cyber-guerre ou du cyber-terrorisme conduise à discréditer le web  au risque d’en paralyser toute initiative d’utilisation pertinente. Cet équilibre délicat entre information, prévention, sanction et interdiction est bien illustré dans le préambule du « Rapport sur la cybercriminalité* » publié en France en février 2014 et fruit d’un groupe de travail interministériel : « Il importe d’avoir les yeux ouverts sur ces dangers nouveaux sans pour autant dramatiser, ni prétendre à un verrouillage sécuritaire d’ailleurs hors d’accès, mais aussi sans tomber dans un discours lénifiant invoquant une évolution inéluctable, un risque acceptable et préconisant le laisser-faire. L’objectif est bien de mieux cerner ces dangers, d’y sensibiliser tout un chacun et d’examiner la meilleure façon de les prévenir ou de les réprimer, sans porter atteinte aux libertés fondamentales auxquelles nous sommes tous attachés ; »

Le web est devenu aujourd’hui le vecteur incontournable de la compétitivité des entreprises et du fonctionnement efficient de la société. On peut plus s'en passer et même les pays autoritaires comme la Chine doivent autoriser que leurs citoyens exploitent le potentiel du web pour favoriser le développement économique. L’enjeu actuel pour les démocraties est bien de réconcilier capacité d’innovation, usages du web créateurs de valeur, et sécurité et ceci dans le respect des personnes et des libertés. Il faut que les démocraties reprenent un tour d'avance et réinventent ce qui a fait leur succès dans un tout autre contexte technique. Comme tout défi qui s’attaque aux conséquences sociétales des potentiels techniques, il est complexe, mulit-facettes et implique des réflexions et des pratiques nouvelles.

Essayons donc d’analyser les composants de la sécurité sur internet pour tenter de faire émerger les bases sereines d’une stratégie de protection. Car toutes les données ne se valent pas et il faut être en mesure, comme avec les biens physiques, de mesurer les risques, les coûts et l'efficacité des mesures de protection. chacun sait qu'une porte blindée banale ne résistera pas des heures à des professionnels équipés. Il en est de même en matière de sécurité numérique ! 

Tout d’abord, cette affaire révèle qu’un homme seul, Snowden, a pu mettre à jour une opération d’espionnage à grande échelle menée par la première puissance mondiale. Ceci prouve que le système est loin d’être infaillible. Or la notion d’espionnage n’est pas nouvelle et a rythmé l’histoire de la géopolitique internationale. Tous les Etats disposent d’une palette d’organismes de renseignements spécialisés dans le domaine militaire (Direction du renseignement militaire en France), économique (Direction de la protection et de la sécurité de la défense en France), de la sécurité intérieure (FBI aux Etats-Unis) ou encore de la sécurité extérieure (MI-6 au Royaume-Uni). Cette surveillance, élaborée au cours du XXe siècle afin de détecter les activités d’espionnage et de terrorisme dirigées contre les intérêts nationaux, se développe dans le nouveau contexte crée par la démocratisation des usages du web et le renforcement des moyens techniques. En France, l’Agence nationale de la sécurité des systèmes d'information (ANSSI) a été créée en 2009 pour assurer la sécurité informatique de l’Etat. Si le numérique offre des possibilités croissantes aux internautes en termes d’accès et d’échanges d’informations, de produits et de services, l’évolution des menaces en termes de sécurité va naturellement de pair.

Les états ne se contentent pas d’une position défensive. Certains n’hésitent pas, comme dans une guerre classique, à exploiter leurs capacités à des fins offensives. Le piratage de Sony Pictures, qui aurait coûté à la firme 35 millions $, attribué à la Corée du Nord, sans preuve formelle pour le moment, en est un exemple récent, comme l’attaque désormais historique subie par l’Estonie en 2007. Les groupes mafieux et radicaux utilisent les mêmes moyens à des fins de chantage, de déstabilisation, de propagande.

Au-delà des actions entre Etats, trois champs distincts peuvent être identifiés: la cybercriminalité, la protection de la vie privée des utilisateurs et l’exploitation commerciale des données personnelles.

La cybercriminalité englobe les formes traditionnelles de criminalité, comme les escroqueries et la diffusion de contenus illicites par voie électronique. Elle comprend surtout des infractions propres aux réseaux électroniques : atteinte à la vie privée, cyberattaque visant les systèmes d’information, fraude informatique, déni de service etc. Le territoire de la cybercriminalité est mondial, les cibles sont multiples (entreprises, particuliers, gouvernements), les actes instantanés et les attaquants difficiles à localiser du fait de l’utilisation de machines mises en chaîne pour diffuser virus, vers et autres chevaux de Troie. Les attaques peuvent viser également directement des installations industrielles, des véhicules, des réseaux comme l’énergie ou les télécommunications, et demain potentiellement tous les objets connectés. Les cyberattaques de grande ampleur, comme celle qui a permis le détournement de 80 millions de dollars auprès de plusieurs établissement bancaire en Europe et en Amérique en 2012 ou celle qui a touché le secteur aéronautique français début 2014, préoccupent les Etats qui ont placé la cybersécurité parmi leurs priorités stratégiques.  La Loi de Programmation Militaire (LPM) votée en France en décembre 2013 renforce le contrôle extra-judiciaire du web de façon très large, et controversée.  La France a consacré en 2014 un milliard d’euros au renforcement des capacités nationales en matière de cyberdéfense pour se préparer à d’éventuelles attaques à grande échelle. De nouveaux efforts ont été annoncé par le Premier ministre en janvier 2015. La dimension internationale du phénomène implique une régulation et une prévention au niveau mondial, comme l’illustrent les réflexions sur la sécurité du web initiées au sein de l’Union Européenne, de l’ONU et de l’OTAN.

Le deuxième champ est celui de la protection de la vie privée. Courriels, recherches sur le web, géolocalisation, réseaux sociaux : l’adoption croissante des nouvelles technologies de l’information et de communication a multiplié les données personnelles disponibles sur chacun sur la toile. Nos mouvements immatériels sont tracés, comme le sont l’utilisation de notre téléphone mobile ou de notre carte de paiement.  La collecte, le traitement et le stockage des données personnelles de chaque internaute sont encadrés par loi “Informatique et Libertés” de 1978 que la Commission nationale de l'informatique et des libertés (CNIL) est chargée de faire respecter en France. Mais le contexte de 1978, pré-internet, où les fichiers informatiques pouvaient être tracés précisément, ne ressemble plus au monde du web qui génère des exaoctets de données structurées et non structurées.

Toutefois rechercher et agréger les données en ligne sur un individu devient beaucoup plus facile que par le passé. Entre les données ajoutées volontairement par les utilisateurs et celles rendues publiques par d’autres, l’usurpation d’identité personnelle est un délit accessible, bien que puni pénalement. De nombreux sites ont renforcé leurs options de protection de vie privée depuis le scandale de PRISM mais la transparence sur les données conservées par les services en ligne n’est pas toujours au rendez-vous. L’exemple de Facebook est assez frappant : en 10 ans d’existence, le réseau social est passé d’un réseau fermé, restreignant l’accès aux informations uniquement à un groupe de personnes défini par chaque utilisateur, au partage public par défaut d’informations personnelles (nom, prénom, photos, listes d’amis, centres d’intérêts, etc.). De plus, même après la suppression de son profil, la firme californienne conserve sur ses serveurs les informations publiées sur son site : une politique, également appliquée par d’autres sites, qui alimente le débat encore naissant sur le droit à l’oubli numérique.

Enfin, au-delà de la protection de la vie privée des internautes, se posent des questions autour de la commercialisation des données personnelles récoltées sur le web. Les géants d’Internet ont développé un modèle d’affaires basé sur la monétisation des données personnelles de leurs utilisateurs en proposant des publicités ciblées en fonction de l’historique de navigation ou de l’analyse des emails, grâce notamment aux cookies. Ces fichiers qui permettent de stocker des informations spécifiques sur un utilisateur permettent en partie de bénéficier des services en ligne de façon gratuite. La CNIL a d’ailleurs prôné fin 2013 une plus grande transparence vis-à-vis des cookies en recommandant l’affichage de bandeaux informatifs sur leur exploitation et en demandant le consentement des internautes, technique appelée opt-in actif qui impose de demander expressément l’accord des intéressés pour interférer avec leur usage du web.

Il semble que ce compromis entre gratuité du service et exploitation des données privées ne soit plus satisfaisant pour les internautes. En effet, 20% à présent d’entre eux utiliseraient des bloqueurs de publicité dans leurs navigateurs Internet, comme AdBlock Plus, outil open source. Cette pratique en progression qui n’est pas sans conséquence pour les sites de contenus : ces blocages publicitaires se traduisent en pertes financières nettes pour les sites qui se tournent désormais vers des solutions payantes comme l’abonnement. Largement adopté par les plus technophiles au sein d’une panoplie d’outils anti-traçage, ces pratiques soulignent la volonté d’une partie des internautes de ne plus être la source passive de données susceptibles d’être exploitées commercialement.

Or l’exploitation des données en masse est considérée comme un des moyens marketing les plus puissants à la disposition des entreprises. Le  marché du Big Data (ou « données massives »), qui représenterait déjà une dizaine de milliards d’euros en 2013 devrait ainsi croître entre 30 et 50% dans les prochaines années afin de permettre aux entreprises de tirer parti de ces flux de données et d’adapter leur stratégie. Certaines entreprises sont conscientes des risques pour leur image d’une stratégie abusive d’utilisations des données qu’elles collectent. Moins nombreuses sont celles qui ont pris conscience que leurs bases d’informations sur leurs clients, même transparentes et éthiques, peuvent devenir l’objet d’exploitation délictueuse des données qu’elles renferment par des tiers. Elles deviennent de fait garantes de l’usage indirect de ces données. La prise de position du président et directeur général de Ford au CES 2015, Mark Fields, sur le ferme engagement de sa société de protéger toutes les données conservées par Ford a indiqué une évolution majeure de la responsabilisation des entreprises.   

Capture d’écran 2015-02-28 à 09.43.45Les objets connectés vont devenir une source majeure de collecte de données dans des domaines qui touchent de très près la vie quotidienne. L’irruption de données personnelles très privées liées à la santé, aux pratiques sportives, à l’alimentation, au rythme de vie et aux permettra d’établir des analyses précises des comportements individuels pour cibler encore mieux  les propositions commerciales. Les risques d’intrusion non désirée et d’abus rendent indispensable une protection efficace de ces données et la répression efficace des pratiques délictueuses.

La sécurité sur le web est donc un thème à facettes multiples qui va alimenter le débat et la production juridique dans les prochaines années. Comme à chaque étape de la transformation technique de la société, l’arbitrage entre la liberté individuelle et les contraintes d’usage  reste un exercice d’équilibre délicat où s’opposent capacités techniques, opportunités et inquiétudes. Lucidité et vigilance s’imposent dans un débat complexe loin de s’éteindre. 

*http://www.justice.gouv.fr/include_htm/pub/rap_cybercriminalite.pdf


Informatique, banalisation, usage: retour vers le passé

Ce texte date de 2004. Nous avons le sentiment de vivre une période d'accélération de l'histoire des technologies. Or dix années plus tôt, en avril 2004, au moment du lancement de la sonde Rosetta, j'écrivais cet article pour la revue L'informatique professionnelle. Il est intéressant de relire ce document qui traduisait les proéccupations de l'époque pré-iPhone et qui ouvrait quelques perspectives largement confirmées.

L’informatique connaît une banalisation démocratique qui la range peu à peu au rang des autres industries. Désacralisée par le web, elle participe à la convergence générale des technologies. Bien des innovations sont encore à venir mais c’est l’usage qui en déterminera la valeur.

Il y a encore quelques temps, il aurait pu paraître curieux, voire même provocateur, de s’interroger sur les relations entre informatique et innovation tant l’informatique a longtemps été porteuse, dans la représentation collective, d’une image de modernité et de progrès. Il y a en effet très peu de secteurs économiques qui peuvent s’enorgueillir de repousser sans cesse depuis si longtemps leurs limites technologiques, à l’image de l’emblématique loi de Moore, et de célébrer avec tant d’éclat leurs performances. Depuis un siècle, et surtout depuis les années cinquante, tout réussit à l’informatique, propulsée par quatre puissantes vagues d’innovation matérielles et logicielles. Dans les années soixante IBM et le BUNCH inventent les ordinateurs centraux, puis au début des années soixante dix DEC lance les ordinateurs départementaux. En quatre vingt apparaît le révolutionnaire micro-ordinateur, vite relié en réseau, puis connecté mondialement grâce au web en 1993. Mais après la frénésie d’investissements justifiés par le passage de l’an 2000 et l’éclatement de la bulle le monde informatique semble patiner. L’informatique serait-elle en panne d’inspiration ? Aurait-elle perdu son aura et sa magie ?

Pour qui sonne le glas ?

Industrie écologiquement bien pensante, composée de personnel qualifié, à l’image moderniste, l’informatique n’a guère suscité de rejet, tout au plus de l’indifférence. Le marketing et les relations publiques de l’industrie de l’informatique et des télécommunications se sont chargés d’entretenir la flamme et se sont toujours révélés prodigieusement efficaces pour focaliser l’attention sur les nouvelles prouesses de leurs produits. Toutefois, l’informatique traverse une crise de désenchantement qui amène tous les acteurs à s’interroger sur les perspectives réelles de cette industrie. Et tout porte à croire que ce n’est pas une baisse de forme passagère. L’article de Nicolas Carr paru en mai 2003 dans la Harvard Business Review, « IT doesn’t matter », a sonné bruyamment la première charge contre l’informatique toute puissante, ouvrant  une brèche dans laquelle se sont engouffrés tous ceux que l’arrogance de l’informatique a pu agacer et qui finalement se sont révélés plus nombreux que prévu ! La question, nouvelle, est désormais posée : l’industrie informatique va-t-elle définitivement se banaliser et rejoindre dans l’anonymat  de la routine quotidienne d’autres industries stars qui, en leur temps, ont révolutionné notre appréhension du monde avant de succomber à la fatalité de la courbe en S ? Ou bien va-t-elle continuer son essor vers de nouvelles perspectives de transformation en se réinventant grâce à une nouvelle alchimie composée de rêve, de réussite économique et d’appropriation collective ? Qui pourrait gagner, qui pourrait perdre, parmi les acteurs de l’écosystème informatique : éditeurs, consultants, intégrateurs, fabricants de matériel, sociétés de télécommunications, informaticiens d’entreprise, direction des systèmes d’information d’entreprises ? A quelles évolutions de la localisation des compétences va-t-on assister ?

De l’innovation

L’innovation technologique ne provient pas d’un monde extérieur désincarné en percutant nos sociétés telle une météorite. Les innovations naissent au sein de nos sociétés et sont  le fruit de l’interaction dynamique de trois vecteurs : les hommes qui les imaginent, les conçoivent, les réalisent ; les structures qui les financent et les propagent, les utilisateurs qui s’en emparent et se les approprient. Elle s’inscrit dans une logique sociétale où s’arbitrent en permanence ce qui est techniquement possible et ce qui est socialement accepté. C’est à travers cette mécanique complexe d’acteurs que, dans le temps et dans l’espace, se joue le sort des innovations technologiques.

La production d’innovation vient enrichir le stock de ce qui est utilisable, alors que les logiques économiques, l’acceptabilité sociale et la capacité d’apprentissage font un tri pour choisir ce qui est utilisé, et en définitive c’est l’usage qui finit par consacrer ce qui est vraimentutile.

Le déplacement des vagues de l’innovation se fait ainsi à partir du cœur de la recherche scientifique transformée par la maîtrise industrielle vers la périphérie de l’usage. Plus une technologie est adoptée, plus elle se dissout dans la banalisation qui a fait son succès et perd son aura. C’est ce qui se passe avec l’informatique. Le modèle de Von Neuman qui a formalisé la structure de base de l’informatique et permis l’essor de cette industrie n’a pas changé. Mais qui sait qu’une calculette à 2 euros ou un téléphone portable sont des ordinateurs. Même les grands ordinateurs scientifiques ont laissé la place à des fermes de serveurs banalisés. Qui s’en soucie désormais dès lors que la rareté a disparu ? Des produits souvent banals intègrent des technologies sophistiquées, un des meilleurs exemples étant le DVD, réussite de l’intégration de l’optique, de l’électronique et des algorithmes de compression de l’information. Dans cet exemple, l’adoption rapide du service rendu a fait baisser les prix au point qu’un lecteur DVD est aujourd’hui vendu le prix de deux disques … DVD !

Ce qui fait de l’informatique un objet désormais banal est précisément ce qui a fait son succès : accélération de la vitesse, augmentation de la fiabilité, miniaturisation, autonomie en énergie croissante, facilité d’accès grâce à des logiciels de plus en plus simples (le navigateur web est devenu l’outil universel d’accès) mobilité et interopérabilité et surtout baisse des prix. Non seulement les outils sont plus performants, mais l’utilisation de l’informatique se répand dans tous les secteurs de l’activité, des plus classiques comme le commerce de détail aux plus sophistiqués comme la chirurgie ou les bio-technologies. Ce mouvement se poursuivra. Ceci signifie nullement la fin de l’histoire informatique car il se prépare bien sûr dans les laboratoires d’autres innovations qui vont permettre d’élargir l’usage en enrichissant les contenus et en rendant encore attractifs les contenants. Mais l’addition de techniques ne suffit plus à alimenter le mythe quand la magie est dissipée.

La banalisation démocratique

Au milieu du XIXéme siècle, l’électricité statique était une attraction de foire. Comme le cinéma.  Puis ces prouesses individuelles ont donné naissance à de puissantes industries qui ont mis quelques décennies à trouver leur taille adulte. L’exposition universelle de Paris en 1881 consacrait le statut industriel de l’électricité, mais l’électrification de la France a pris des décennies. Un immeuble sur trois seulement était électrifié à Paris dans les quartiers riches, en 1914, mais seulement un sur vingt dans les quartiers populaires. La photographie a mis des décennies pour sortir du domaine de la découverte et se démocratiser. Il est paradoxal que la numérisation rattrape pour la déstabiliser une firme aussi robuste que Kodak qui avait innové en contribuant à rendre la photographie facile et populaire dès 1900 avec ses célèbres appareils Brownie à 1$.

L’informatique, elle, est née adulte et mondiale, sérieuse et coûteuse. Elle ne s’adressait qu’aux grandes entreprises et aux puissantes organisations publiques. Et même si la mise au point de cette technique s’est révélée complexe et coûteuse, tout allait bien pour la poignée de spécialistes qui en avaient la charge. Au grand dam de ces experts, l’informatique a commencé à quitter le champ des grandes organisations pour percer dans le grand public avec le micro-ordinateur et c’est la généralisation de la micro-informatique propulsée par le web qui en quelques années lui a donné le statut d’industrie de masse désacralisée. Il y a désormais un milliard de micro-ordinateurs dans le monde. En quatre ans, un tiers des 22 millions d’internautes français se sont connectés au web par des lignes à haut débit ADSL usage qui était absolument inimaginable pour les informaticiens d’entreprise… comme pour les sociétés de télécommunications.

Depuis lors, cette industrie portée à célébrer le culte de la technologie assiste à sa propre banalisation. Qui se soucie désormais de la puissance de son micro-ordinateur ? Le langage codé des systèmes d’exploitation, des gigabytes et des méga-octets ne fait plus recette. De plus cette transformation ne se limite plus au grand public, mais concerne aussi maintenant les infrastructures des grandes entreprises. Il n’est plus nécessaire de posséder avec fierté ses grands ordinateurs, car la banalisation, appelée ici « utility computing », (fiabilisation, puissance et économie d’usage) concerne aussi les composants centraux des systèmes d’information des entreprises. Certes la technicité y demeure forte, le poids de l’héritage applicatif est encore lourd, mais les méthodes et les outils industriels mis au point au cours des dernières années permettent de gérer l’énergie informatique de façon industrielle. Cette révolution s’est faite en quelques années et brutalement l’industrie informatique a accédée à la maturité, c’est à dire à la baisse des prix et donc des profits. Ce qui compte désormais c’est l’usage, pour tous, de la puissance, de la fiabilité, de la bande passante et de l’ergonomie. La discrimination dans les choix se fait désormais plus sur des critères consuméristes que sur les performances techniques intrinsèques.

Les télécommunications en panne 

L’histoire récente du téléphone préfigure assez largement le sort de l’informatique, au moins dans ses couches d’infrastructure. L’ère du 22 à Asnières est définitivement révolue dans nos pays. Tous les habitants des pays développés utilisent un téléphone même s’il ne faut pas oublier que près de deux habitants de la planète sur trois ne passeront jamais de coup de téléphone de leur vie. Ce qui laisse un bel avenir à l’industrie du mobile qui relègue les vieilles dames du fixe au statut d’icônes préhistoriques, devenues des mamies Bell. Le téléphone vocal a longtemps été une machine magique, un objet de désir. Aujourd’hui ce n’est qu’un objet banal qu’on jette rapidement au gré des modes. La grande force de l’industrie du mobile est de se renouveler par l’usage, certains futiles comme le téléchargement des fonds d’écran ou des sonneries, mais aussi par de vraies trouvailles sociologiques comme le SMS et peut-être l’image. Mais c’est une industrie sous pression des coûts, avec des marges laminées et une concurrence féroce entre les grands anciens comme Motorola ou Nokia et les nouveaux venus agressifs comme Samsung et LG avant que n’entrent en scène à grande échelle les producteurs chinois.

La convergence

Depuis plusieurs années, l’utilisation de composants et de logiciels informatiques dans les appareils électroniques conduisait à prédire la convergence des industries informatiques et des industries électroniques. De fait, la numérisation des informations conduit à ce rapprochement sans toutefois que les deux familles industrielles se confondent, chacune conservant son indépendance. Cette hésitation semble révolue, la convergence gagne du terrain à travers des industries comme celle des écrans plats qui servent aussi bien l’informatique que la télévision, ou la numérisation complète des supports audio et vidéo. Dès lors les fournisseurs informatiques n’ont pas de difficulté à franchir le pas pour investir le domaine des écrans de télévision que les grands fabricants d’ordinateur commencent à attaquer. L’industrie du disque, autant support physique que contenu, vit cette transformation dans la douleur, alors que les acteurs de l’informatique excellent, comme Apple, dans la captation de ce marché de la musique numérique à consommer plutôt qu’à posséder.

Nouveau produit cherche service

Les revues et séminaires informatiques bruissent des innovations qui vont à nouveau faire faire un bond en avant à l’industrie. La question se pose de savoir si ces innovations vont générer de nouveaux usages attractifs, justifiant ces nouveaux investissements, ou simplement entretenir le renouvellement du parc applicatif et des infrastructures. Car pour les utilisateurs professionnels, il faut des motifs sérieux pour investir dans des techniques nouvelles plus perturbatrices que génératrices de gains.

Le champ majeur de développement restera la poursuite de la numérisation complète des informations et donc des processus de création, d’industrialisation, de commercialisation et d’échanges entre acteurs économiques. Autour d’internet, se développeront les échanges entre les acteurs des mêmes écosystèmes pour créer de vastes entreprises étendues, comme se développera entre les personnes d’une même entreprise, d’une même communauté d’intérêt un tissu de relations économiques, culturelles et sociales. Les usages collectifs d’Internet sont encore limités par l’insuffisant équipement des ménages et les difficultés d’apprentissage, obstacle qui se diluera dans les jeunes générations du « chat » et de Kazaa.

La mobilité des personnes et des objets est un vecteur majeur d’innovation annoncée. L’utilisation de la voix sur IP, qui n’en fait qu’un cas particulier de flux de données, à travers un micro-ordinateur connecté en Wi Fi semble ouvrir une ère nouvelle de connectivité, l’extension des capacités du WI-FI vers le WIMAX (802.16) d’une portée de 50 km à 70 M bit/sec et l’UWB (Ultra Wide Band) pour les courtes distances compromettant même les chances, déjà fragiles de l’UMTS au moins dans les zones denses. Les étiquettes électroniques (RFID : radio frequency identification)  vont permettre de relier les objets, sans contact, aux systèmes d’information de façon plus facile et généralisable que les étiquettes à code à barres, fluidifiant la chaîne d’approvisionnement.

Enfin l’informatique continuera à repousser les limites de la modélisation dans les applications de santé, de bio-technologie, dans le développement industriel, dans la compréhension de la matière et de l’univers.

Ces nouveaux produits enrichiront les services existants dans une société plus avide de connaissance et de rapidité. Elles pourront continuer à laisser au bord de la route tous les exclus de la société numérique, ou, peut-on espérer, contribuer à leur réintégration dans la société tout court.

La course off shore

Si l’innovation dans les couches techniques va graduellement enrichir ce qui est possible, c’est par la capacité de mettre en œuvre ces outils par des logiciels appropriés que les changements se concrétiseront dans les processus métier. Les logiciels représentent donc la voie royale du changement. Il reste que la production de code applicatif demeure une activité consommatrice de ressources pour les éditeurs dont c’est le métier mais aussi pour beaucoup d’entreprises utilisatrices qui doivent gérer la transformation de leur parc applicatif. Le cœur applicatif des grandes entreprises est en effet composé d’applications anciennes mêlées de façon souvent  inextricable, sans urbanisme d’ensemble, sans cohérence technique. Ces couches historiques sont coûteuses en entretien technique et en modifications, parfois simplement pour des raisons légales et sans création de valeur. Toute insertion d’innovation perturbe l’équilibre souvent instable des applications antérieures, et coûte cher en création d’interfaces nouvelles.

Pour accomplir les tâches informatiques répétitives de maintenance ou de conversion de codes anciens, les entreprises ont engagé la recherche de solutions plus économiques que l’emploi de techniciens et de cadres de pays développés. Elles se sont orientés en premier lieu vers l’industrialisation et l’automatisation des tâches de réalisation de logiciels. Ces méthodes et outils ont toutefois trouvé leurs limites dans les technologies classiques, mais, de plus, les innovations confortables pour les utilisateurs, comme les interfaces web, se sont révélés contre-productives pour les développeurs. Puis dans une deuxième étape, les « producteurs » de code ont cherché des solutions moins onéreuses en coût de main d’œuvre dans des pays aux salaires plus compétitifs.

Ce mouvement vers l’externalisation off-shore a commencé aux Etats-Unis et en Grande-Bretagne au début des années quatre-vingt dix. L’exploitation des ressources informatiques mondiales trouve son origine dans la même démarche économique que pour les métiers industriels. Elle a été beaucoup plus rapide dans les pays anglo-saxons qu’ailleurs pour des raisons culturelles, linguistiques, légales. Ceci a clairement favorisé l’essor de l’Inde dans ce secteur. Mais le problème n’est pas seulement économique. Les firmes indiennes ont développé une compétence rare dans la gestion des processus, sont devenus champions du niveau 5 du CMMI, et vont sans aucun doute étendre leurs compétences vers la gestion complète de processus. S’il s’agissait de simplement trouver une main d’œuvre meilleure marché, bien que formée, pour « faire du code », l’Inde se verrait elle-même dépassée par des pays plus compétitifs, comme les Philippines. Mais l’Inde est en train de construire une véritable usine informatique puissante qui sert tous les acteurs mondiaux de l’informatique et pose un énorme défi aux Etats-Unis, qui risquent de perdre des centaines de milliers d’emplois en informatique, ce qui devient un problème politique majeur aux USA.

La course off-shore se  joue non seulement sur les coûts mais désormais de plus en plus sur l’expertise. C’est un défi considérable pour les pays développés qui se croyaient mieux protégés dans les métiers de la « manipulation de symboles » que dans ceux utilisant la seule main d’œuvre.

Le monde de l’informatique et des informaticiens est instable. Si l’innovation ne gagne pas les couches les plus importantes de la population, dans les entreprises comme dans la société, pour s’intégrer de façon harmonieuse dans les pratiques courantes de la vie, l’informatique n’aura pas remplie sa mission de transformation. Si elle réussit, elle perdra en grande partie son identité. Les informaticiens ont cette redoutable charge de transformer une formidable réussite collective en banalisation de leur métier tout en conservant leur professionnalisme et leur rigueur.


S'emparer des outils numériques pour revitaliser l'économie

Où en est la France dans la relance de son économie ? Perdue dans le rêve d'un retour à la croissance d'antan, transpercée par les déficits, la France se vit comme la grande victime de la mondialisation. Comme tous les autres pays, elle dispose toutefois d'un levier de transformation majeur, la généralisation des outils numériques pour simplifier, rationaliser le passé et ouvrir le champ immense du futur. Or tout se passe comme s'il fallait encore convaincre les dirigeants qu'ils avaient entre les mains un moyen puissant de reconfigurer leurs processus et d'inventer de nouvelles activités. Cette cécité paradoxale dans un pays qui aime l'innovation technologique pour ses usages individuels conduit, par exemple, à être très en retrad en matière de robots industriels. Or le web et internet fournissent des solutions accessibles, faciles à mettre en oeuvre et peu coûteuses. Il n'est que temps d'agir sans délai pour changer et aller de l'avant !

Vingt ans après la démocratisation de l’accès à internet par la mise au point d’outils de navigation simples et efficaces, le réseau internet et l’ensemble des services accessibles par le web sont partout dans le monde devenus une réalité économique, culturelle et sociologique dont l’ampleur, dans l’histoire de l’innovation, est unique. La France n'y échappe pas. Pourtant elle en retarde la prise de conscience en dépit du nombre élévé de rapports pertinents qui visent à en réveiller la conscience numérique.

VOxjmwJiVW2VQOg14w1CR685mBVg8rUjZbyzLNCL-CI

Or cette mutation a été servie par la démocratisation de l’accès aux services de l’internet et du web, qui n’exige aucun apprentissage, par la baisse des coûts des terminaux et des services et par la généralisation des usages dans chacune des sphères de la vie professionnelle et sociale. Chacun de ces vecteurs de transformation va continuer à agir dans les prochaines années pour amplifier le nombre des innovations et leur impact sur la vie sociale. C'est un phénomène inéluctable, sauf cygne noir qui viendrait bouleverser toutes les perspectives mondiales.

Avec plus de 90% de la population mondiale pouvant accéder aux services de la téléphonie mobile, avec plus du tiers de la population mondiale disposant d’un accès au web, avec plus d’un milliard de terminaux intelligents mobiles vendus en 2014, le web ne représente plus une nouvelle frontière élitiste et confidentielle, mais un phénomène de masse totalement immergé dans la réalité économique et sociale de notre époque. La France qui a pu se considérer comme en retard par rapport à ses principaux concurrents n’est plus techniquement pénalisée grâce à la concurrence qui offre des accès économiques aux ressources fixes et mobiles du web. Le nombre de start-ups, l’action publique  pour la numérisation des services publics, le développement des services numériques dans les grands secteurs économiques mettent la France au diapason des grands pays.  La France peut même s'enorgueillir d'être classée en 2014 par l'ONU parmi les premiers pays mondiaux et même au premier rang en Europe pour la e-administration.  Mais toute situation acquise est fragile dans un champ hautement concurrentiel et mondial. Car très prochainement, c’est bien l’ensemble de la population mondiale qui pourra accéder aux potentiel du web, ce sont les objets connectés qui  vont être au cœur de la future vague de transformation. Cette double expansion dans le nombre d’utilisateurs  et dans le champ des usages possibles du numérique offre naturellement de nouvelles opportunités mais aussi dilue rapidement tout avantage comparatif temporaire. 

Nous avons construit pour la simple année 2010, selon les calculs du MIT,  cent fois le volume d’informations créées depuis l’origine de la civilisation.  Nous ne sommes qu’au début d’une aventure humaine exceptionnelle où la mise en connexion par le web de milliards d’êtres humains constitue une expérience cognitive sans aucun équivalent dans notre histoire. Nous sommes sortis d’une vision linéaire, prédictive du progrès de connaissances pour entrer dans un modèle à la fois systémique et exponentiel, où chaque discipline se nourrit et alimente les progrès des autres disciplines. De cette croissance sans limite  vont émerger des produits et services aujourd’hui simplement inimaginables. 50% des produits et services que nous utiliserons couramment en 2025 n’existent pas aujourd’hui.

La  capture de données, la recherche d’informations et l’élaboration de connaissances constituent les fondements d’un nouveau cycle économique impliquant nouveaux acteurs, nouvelles disciplines, nouveaux modes de gestion et de management.

C'est là où se joue vraiment l'avenir des entreprises : concevoir et mettre sur le marché des produits innovants, attractifs, en ligne avec les besoins des clients  est la vraie -et seule- finalité des entreprises. Le faire en disposant d'un moyen ultra efficace pour rapprocher des informations structurées issues du système d'information interne, et les informations non structurées internes comme externes, donne une efficacité accrue au système de conception, qui bénéficie d'une nouvelle qualité d'exploitation du stock d'informations et de connaissances, souvent dormant. Il s’agit non seulement de gérer des données structurées, mais surtout non structurées, dont des images 3D. Veille technologique, analyses concurrentielles, suivi en temps réel du cycle de vie des produits, analyses fines de la réaction des clients sont les nouveaux outils de la performance. Ce qui naguère fut un exercice souvent négligé, la gestion et l’archivage des données numériques devient désormais un outil incontournable d'efficacité dans tous les métiers.

La France, par la qualité de son enseignement, par la persistance d’une industrie numérique qui a su résister dans les applications professionnelles, même si elle a quasi disparu dans les applications grand public, par l’existence d’une génération d’entrepreneurs numériques audacieux, par une infrastructure numérique de qualité  peut retrouver une dynamique de croissance économique alimentée par un usage pertinent du potentiel numérique dans l’entreprise.

Produire dans l’ère numérique c’est bien évidemment s’adapter en temps réel à la  demande par une analyse continue de l’évolution de la demande finale, des stocks et des encours de production. Le cycle de conception, production, distribution est désormais ramassé dans le temps ce qui offre de nouvelles perspectives de réindustrialisation des territoires. Cet exercice est sous-tendu par la capacité de gérer les approvisionnements en flux tendu grâce à une logistique précise. Passer de la conception numérique à la maquette numérique puis au  process numérique devient naturel grâce aux outils de PLM (« product life management ») qui permettent de rassembler dans un référentiel unique l’ensemble des informations nécessaires à la conception, à l’évolution et à la production. La conception entièrement numérique  permet des gains considérables dans les phases d'industrialisation et de production : élimination des retouches et problèmes de fabrication, qualité maximale atteinte dès le démarrage de la production industrielle,  temps d'assemblage divisé par deux, outillage de production réduit de plus de 50%. Ainsi, l’avantage lié au coût de la main-d’œuvre disparaît si les gains obtenus par la vitesse de conception et de déploiement des produits, la réduction des stocks et la limitation des coûts logistiques.

Cette logique s’applique également aux produits dont toute la chaîne de conception est numérique, qu’ils adoptent une forme matérielle (le journal papier) ou immatérielle (l’image du même journal sur internet). Cette continuité protéiforme qui conduit d’ailleurs à remettre en cause l’opposition duale matériel/immatériel s’applique à de nombreux produits comme par exemple un prêt bancaire ou un voyage où la chaîne de conception et de décision purement numérique s’incarne dans une réalité physique. Ces outils permettent un gain de temps et d’efficacité considérables par rapport aux circuits fragmentés de décision. Leur mise en œuvre est de plus en plus simple et accessible, même aux petites entreprises.

Que peut faire l'Etat dans ce contexte nouveau pour lui d'une révolution dont il n'a pas les clefs ? De ce fait, les modes d’actions que peut impulser l’initiative publique ont changé de nature. Il ne s’agit plus de faire connaître et comprendre  le web en tant qu’objet technologique à travers des laboratoires d’expériences, il faut désormais construire avec les outils courants du marché, largement disponibles, les organisations et les processus d’affaires qui vont servir la compétitivité de la France à travers de nouveaux modèles d’affaires, à travers de nouvelles structures, de nouveaux modes d’apprentissages et de nouveaux comportements. Il est aussi indispensable, dans cette réalité mouvante qu’est l’économie numérique, d’en comprendre les ressorts pour anticiper les évolutions futures et préparer leur intégration dans la quotidienneté. Le choix de soutenir des projets techniques doit être sélectif pour éviter une dilution préjudiciable des moyens.

Certes en dépit de cette généralisation rapide, la révolution numérique est encore inégalement répartie entre les territoires, les groupes sociaux, les usages. Comme face à chaque nouvelle mutation, certains acteurs peuvent estimer être gagnants et d’autres perdants, voire victimes. L’action publique doit favoriser un accès équitable aux ressources numériques en laissant l’initiative individuelle opérer de façon libre. Un des thèmes majeurs de cette dynamique est l’accès aux ressources de l’internet haut débit dans les zones où la rentabilité des investissements ne peut être garanti par la seule dynamique du marché. Or la qualité de l’accès à internet, de façon fixe ou mobile, est une des conditions de base d’un usage pertinent du web.

Le monde du web, et de façon générale l’économie numérique, présente la caractéristique d’être oligopolistique dans ses fournisseurs techniques et totalement dilutif dans la capacité de chacun à tirer profit des objets et services fournis par les moteurs du cœur technique. La compétition ne porte plus sur seulement sur l’invention de nouveaux outils mais sur la combinaison rapide des outils et des services pour proposer  de nouvelles opportunités aux utilisateurs. C’est en portant ces nouvelles opportunités dans les activités et métiers que l’impulsion numérique fait naitre de nouveaux potentiels qui trouveront leurs marchés et leurs publics. Ce processus de métabolisation peut être favorisé et accéléré par les acteurs publics dès lors que les composantes de cette dynamique sont bien identifiées et comprises. Il ne s’agit plus de donner des moyens financiers, il faut favoriser la construction d’écosystèmes qui deviendront rapidement autoporteurs. C’est la philosophie du Fonds national pour la société numérique gérée par la Caisse des dépôts.

C’est bien la capacité à construire des modèles coopératifs entre acteurs qui va permettre de concevoir et porter de nouvelles propositions de valeur dont l'utilisateur sera, in fine, seul juge de la pertinence. S'il y a bien une caractéristique de l'économie numérique qui perturbe les pouvoirs publics et les décideurs, c'est bien cette absence de prévision sur la maîtrise des éléments. Or si l'on ne peut prévoir, c'est alors qu'il faut préparer !

Références

 - Pour ceux que l'industrie numérique passionne, il faut lire l'excellent document publié par le Gimelec  sous le thème de l'industrie 4.0  http://www.gimelec.fr/Publications-Outils/Industrie-4.0-l-usine-connectee-Publication

- Le rapport des Nations Unies, élogieux pour la France, sur le e-government est accessible sur le site

 http://unpan3.un.org/egovkb/en-us/Reports/UN-E-Government-Survey-2014

- Philippe Lemoine a été chargé par Fleur Pellerin en janvier 2014 d'une mission sur la transformation numérique de l'économie française dont les conclusions seront présentées en septembre 2014