Previous month:
novembre 2021
Next month:
mars 2022

Microprocesseurs, crise et enjeux

Article publié le 11 février 2021 sur le site Atlantico.fr

 Que ce soit pour la construction d’iPhone, de cartes graphiques ou de voitures, les puces électroniques sont essentielles mais ont souvent manqué ces derniers mois. Cette pénurie peut-elle durer dans le temps ? Est-ce uniquement la faute de la crise sanitaire ? 

Jean-Pierre Corniou : On a souvent tendance en manipulant quotidiennement notre smartphone, en toutes circonstances, pour des usages multiples à oublier qu’il s’agit d’un des ordinateurs les plus sophistiqués mis à disposition de l’homme, et pour quelques centaines d’euros. Cette puissante machine doit sa performance à la mise en œuvre d’une série de composants animés par le cœur du système, le microprocesseur. Le microprocesseur a fait naître une industrie complexe, interdépendante et dont la cohésion assure la performance technologique et industrielle.

L’industrie informatique qui a commencé son essor après la seconde guerre mondiale avec des ordinateurs à tubes à vide, coûteux et fragiles, a connu une accélération constante avec la mise au point des transistors, puis des circuits intégrés, à partir de 1963, enfin des microprocesseurs, inventés par Intel en 1971, dont le premier modèle, la 4004, rassemblait 2 300 transistors. En étant capable d’ajouter des millions de composants sur un composant de quelques centimètres carrés, l’industrie des microprocesseurs s’est engagée dans une amélioration constante de ses performances à coût constant. Aujourd’hui un microprocesseur rassemble plusieurs milliards de transistors. Cette révolution unique, formalisée dans la loi de Moore, doublement de la puissance de calcul tous les deux ans, a permis une démocratisation de l’informatique qui n’était pas concevable il y a cinquante ans. Le microprocesseur, ou chip en anglais, est vraiment le moteur de la révolution informatique, puis de son extension à l’ensemble des machines et applications grand public et professionnelles depuis le développement des smartphones au début des années 2000. Les semi-conducteurs représentent en 2020 un marché mondial de l’ordre de 500 milliards $.

Les microprocesseurs sont en effet aujourd’hui intégrés dans tous les appareils électroniques, comme les téléphones portables, les ordinateurs ou les téléviseurs, mais aussi dans toutes les machines industrielles, comme les machines-outils, ou les appareils grand public. Ils ont conquis le traitement de l’image, l’électroménager et maintenant l’automobile. Dans une voiture moderne, on va trouver plus d’une centaine de microprocesseurs. De fait, la demande de microprocesseurs ne cesse d’augmenter avec le développement des usages et l’attente de performances sans cesse grandissantes. Miniaturisation, baisse de la consommation électrique, amélioration de la capacité de communication font des microprocesseurs le cœur universel et banalisé de notre société moderne. Dans une tendance de long terme à la hausse, le coronavirus a simultanément conduit à baisser la production de microprocesseurs et a accéléré la demande d’appareils électroniques et d’outils de communication avec le lancement commercial de la 5G.  Les flux commerciaux ont aussi été perturbés par les sanctions économiques des Etats-Unis contre la Chine.

Car le processus de fabrication de ces outils est complexe et coûteux. Cette industrie est en fait composée de deux branches majeures distinctes : ceux qui conçoivent l’architecture des processeurs, comme le britannique ARM, Nvidia, Qualcomm ou désormais Apple et ceux qui les fabriquent, que l’on appelle les fondeurs. Un troisième groupe d’industriels assemblent, et contrôlent les processeurs. Les concepteurs s’appuient sur des technologies de software de design des applications, nommées EDA (Electronic Design Applications). Intel reste leader de ce marché avec 65 milliards $ de chiffre d’affaires.  L’activité de fonderie des microprocesseurs est dominée par deux firmes asiatiques, le taïwanais TSMC (Taiwan Semiconductor Manufacturing Co), qui détient 50% du marché mondial, avec 36 milliards$ de revenus et Samsung Electronics. Samsung Electronics maîtrise toute la chaine, et le groupe Samsung est son premier client. La position de TSMC est donc unique et incontournable. C’est une firme convoitée, notamment par les Etats-Unis qui a obtenu qu’elle installe une usine sur son territoire avec un investissement de 12 milliards $ en Arizona.

Une usine de microprocesseurs est un ensemble ultra-précis et complexe, capable de graver des composants au-dessous de 10 nanomètres (nm), et dont l’investissement atteint 10 milliards $. TSMC vient d’investir 25 milliards $ pour fabriquer des puces de 5 nm. Samsung engage 20 milliards $ pour sa prochaine usine, disponible en 2022, pour la prochaine génération de puces gravées à 3 nm. Samsung a annoncé un plan de 116 milliards $ pour devenir leader mondial en dix ans. Or les machines les plus avancées ont besoin de processeurs de 7 nanomètres, et au-dessous, notamment pour la 5G ou l’intelligence artificielle. Ceci constitue l’enjeu stratégique majeur de l’économie mondiale. Les technologies antérieures, de 28 à 350 nm, restent compétitives pour les usages les moins pointus notamment en automobile, en robotique dans les machines industrielles.

Comment le manque de puces peut-il affecter l’industrie ? Quels sont les produits du marché qui seront impactés par ce problème d'approvisionnement ?

La production de microprocesseurs dépend d’un nombre réduit d’acteurs qui constituent un goulot d’étranglement non contournable car il n’y a pas à court terme de solutions alternatives. Toute rupture d’approvisionnement en microprocesseurs, mais aussi de mémoires, a des conséquences en chaîne sur l’industrie. Tous les secteurs sont donc aujourd’hui dépendants des livraisons de l’industrie des microprocesseurs. Les délais de livraison sont passé de quelques semaines à plusieurs mois. Des lignes de montage automobiles ont été arrêtées, Qualcomm, qui alimente l’industrie mondiale des téléphones mobiles a baissé sa production avec des conséquences sur la production par Apple des iPhone 12, General Motors annonce des réductions de production de véhicules. Ce sont donc des réactions en chaîne qui perturbent toute l’industrie à un moment crucial de sortie de la crise sanitaire qui devrait permettre une relance dans le courant de l’année 2021.

Les industriels européens peuvent-ils réagir à cela en créant leur propre chaîne d’approvisionnement ?

Comme dans beaucoup de secteurs liés à la révolution numérique, l’Europe n’a pas su, ou voulu, se doter de son industrie propre et a préféré acheter aux États-Unis et en Asie les composants dont elle avait besoin pour son industrie. L’Europe n’a pas de fondeur et très peu de fabricants de microprocesseurs, qui sont spécialisés comme Infineon, allemand, NXP, hollandais, et STMicrolectronics, franco-italien. Ces trois industriels cumulent un chiffre d’affaires de 26 milliards $ soit la moitié de Samsung Electronics. Il parait improbable de rattraper ce retard technologique et de trouver les ressources pour être compétitif dans la production de masse. De fait la demande de l’Europe est faible. 6% des ventes de TSMC se font en Europe contre 60% aux Etats-Unis.

Toutefois, ASML le leader mondial des machines lithographiques indispensable à la fabrication des puces est une firme européenne de taille mondiale. C’est une société hollandaise, issue de Philips, créée en 1984 à Eindhoven, aux Pays-Bas, et devenue indépendante en 1995. Elle emploie 25 000 personnes dans le monde. Chacune de ses machines de dernière génération (Extreme ultraviolet lithograph ou EUV) est facturée près de 200 millions $, c’est-à-dire le prix catalogue de deux Airbus A320. Personne ne sait aujourd’hui concurrencer ASML, mais il est clair que l’ambition de la Chine, qui importe 80% de ses processeurs, est de se doter d’une industrie complète de microprocesseurs indépendante des technologies occidentales, ce qui lui prendra au moins une décennie. Le paradoxe de la révolution électronique est que la Chine a accumulé du retard dans la conception et la fonderie, n’ayant que quelques industriels dans ces domaines (HiSilicon, filiale de Huawei, pour la conception, SMIC pour la fonderie) qui sont de petite taille par rapport à leurs compétiteurs. Mais elle est décidée à y jeter toutes ses forces économiques et technologiques, et elle en a les moyens.

L’Europe se retrouve impuissante face à la compétition frontale entre la Chine et les Etats-Unis dans un domaine stratégique.


Hydrogène contre batteries, les termes du débat

Décarboner la mobilité est devenu le leitmotiv des gouvernements et l'obsession des industriels, désireux de proposer aux marchés des solutions technologiquement viables et économiquement satisfaisante. De fait il y a désormais une course de vitesse entre les constructeurs et les réglementations.

Le débat entre VEB (véhicules électriques à batteries) et véhicules électriques à pile à combustible ne fait que commencer. Il s’agit en effet de deux solutions concurrentes pour alimenter les véhicules électriques qui ont chacune leurs propriétés et leurs partisans.

L’enjeu est la propulsion des véhicules du XXIe siècle où l’on sait que la lutte contre le CO2 impose dans tous les cas de réduire drastiquement l’usage des énergies fossiles. La fin du moteur à combustion interne à pétrole sera une des grandes avancées scientifiques et techniques du XXIe siècle après 140 ans de domination incontestée sur la mobilité individuelle. Mais on ne remet pas en cause impunément un système industriel qui a fait ses preuves.

Capture d’écran 2022-01-23 à 09.47.57

Aujourd’hui, la disparition effective du moteur thermique dans les véhicules neufs, programmée dans la plupart des pays industriels entre 2030 et 2050, est conditionnée par la capacité de l’industrie à produire des véhicules électriques peu coûteux et apportant un gain global en matière d’émission de CO2 et d’autres polluants, tout au long de leur vie. Si la technologie du moteur électrique est parfaitement maîtrisée, la question porte sur l’utilisation de l’électricité à bord du véhicule, problème technique résolu pour le transport ferroviaire, mais qui a été l’obstacle majeur au développement de l’électricité dans l’automobile. Deux solutions sont exploitées, le stockage de l’électricité par batteries à bord du véhicule ou sa production par une pile à combustible à partir d’hydrogène.

 Leur point commun entre ces deux solutions, c'est qu'elles n'émettent au lieu d'usage ni polluant (gaz toxique comme les NOx ou résidus de combustion) ni CO2. L'une emporte à bord de l'électricité produite par des centrales électriques, conventionnelles, nucléaires ou renouvelables et distribuée par le réseau généraliste (avec un mix énergétique fonction du lieu de charge) et l'autre la fabrique à bord avec de l'hydrogène embarqué.

L’hydrogène n’existe pas à l’état naturel mais est combiné avec d’autres composants. Pour libérer l’hydrogène, il faut dissocier la molécule et ce processus de cracking demande de l’énergie. Ce processus de production peut être vertueux (hydrogène vert produit par électrolyse de l’eau à partir d’électricité renouvelable) ou très polluant (hydrogène noir ou gris produit par reformage à partir de pétrole ou de gaz). Aujourd’hui 90% de l’hydrogène utilisé dans le monde est noir ou gris. L’hydrogène doit ensuite être stocké, transporté et distribué pour constituer un réseau spécifique de distribution. La chaîne de distribution d’hydrogène implique également de la consommation d’énergie.

Dans les deux cas, la vertu environnementale du véhicule est entachée par la qualité de l’électricité qu’il utilise, ou fabrique, et par son propre processus de fabrication. Ce qui les différencie sur ce point ce sont les batteries d’un côté et la pile à combustible de l’autre, tous les autres éléments, base roulante, électronique et moteurs électriques étant identiques.

Sans titre

  • Les batteries

Dix ans après son véritable lancement commercial -Nissan Leaf, Renault Zoé, Chevrolet Volt-, la voiture électrique est devenue une réalité tangible pour le grand public ; 20% des véhicules neufs vendus en Europe en 2021 étaient électriques ou hybrides rechargeables. Tous les constructeurs mondiaux ont désormais à leur catalogue plusieurs véhicules électriques, de la citadine au SUV et même au pick-up. Des camionnettes légères sont également disponibles. L’autonomie de ces véhicules varie dans l’état actuel du marché de 200 à 600 km effectifs selon la norme WLTP. Le temps de recharge varie également selon le mode de recharge. Sur une prise électrique standard 220 v 10 A à domicile, la charge complète prendre plus de 20 heures. Sur une borne de recharge accélérée, ce temps est réduit à 3 h pour les bornes de 22kW et 1h30 pour les bornes les plus puissantes de 50 kW à 250 kW.  La charge à 80% de la capacité maximale, complémentaire à la charge principale nocturne, prendra sur ces bornes puissantes moins d’une demi-heure.

La fabrication de batteries à grande échelle dans les gigafactories nécessite de l’énergie, comme l’extraction de ses composants (lithium, cobalt, manganèse…). L’industrie - jeune- de la batterie de traction automobile travaille à améliorer chacun de ces points pour baisser les coûts, accroitre autonomie et vitesse de charge et réduire l’empreinte environnementale, dans une équation complexe où les gains sont, dans le contexte technique actuel, incrémentaux. Si le coût des batteries est passé en dix ans de 1200 $ par kWh à 150 $, cette baisse est considérée aujourd’hui comme asymptotique. Une des voies de progrès est d’utiliser des matériaux plus courants dans la construction de l’anode et de mettre en œuvre un électrolyte solide à la place du liquide utilisé actuellement. Les travaux sont en cours dans les laboratoires partout dans le monde. La compétence régionale alpine est forte dans ces domaines. Le CEA à Chambéry et Grenoble emploie 150 chercheurs dédiés à l’électromobilité et Air Liquide a son centre mondial de recherche sur l’hydrogène mobilité à Grenoble.

Enfin, la fin de vie des batteries de traction a fait l’objet de nombreux travaux et investissements industriels. Les batteries peuvent être recyclées par plusieurs processus industriels, maîtrisés, ou utilisées dans d’autres usages que la mobilité comme stockage statique.

  • La pile à combustible

La pile à combustible est un dispositif léger qui utilise comme catalyseur du platine, coûteux et peu abondant, mais recyclable. Le stockage de l’hydrogène à bord se fait dans des réservoirs en composites où l’hydrogène est stocké sous pression à 700 bars. A poids équivalent, l’hydrogène produit dix fois plus d’énergie que l’électricité. L’autonomie des véhicules à hydrogène actuellement disponibles sur le marché (Toyota Mirai, Hyndai Nexo) est supérieure à 600 km pour un temps de recharge de moins de 5 minutes.  C’est encore une solution coûteuse. Il faut 30 g de platine pour une pile à combustible de 100 kW soit 800 €. Une station de recharge d’hydrogène coûte environ un million € et un « plein » d’hydrogène coûte le même prix qu’un plein d’essence.

  • La charge

Pour le véhicule électrique à batteries, la durée de charge, notion beaucoup plus importante en termes d’usage que l'autonomie, est toujours plus lente (même si elle baisse rapidement) que pour l'hydrogène (chargement par pistolet équivalent à l'essence en quelques minutes).

Enfin le rendement global du processus « du puits à la roue » est meilleur pour l’électrique à batteries (95%) que pour l’hydrogène (35%). Enfin, même avec un rendement médiocre, l’utilisation d’hydrogène produit moins de CO2 (110 g de CO2/kWh) que l’essence (300 g CO2 par kWh).

Dans l’état actuel des connaissances et du marché, l’hydrogène ne semble être une solution plus pertinente que la batterie que pour les flottes captives, dont le rayon d’action est limité autour du point de distribution d’hydrogène, et pour les véhicules lourds, ou pour les usages pour lesquels les batteries seraient trop lourdes et encombrantes, comme les avions.

Pour illustrer l'écart dans le coût d'investissement, un bus électrique coûte environ 400 k€, un bus à hydrogène 600 k€. A terme ( dix ans?) cet écart pourra se résorber mais le coût de production du carburant devra également suivre, l'avantage de l'électricité étant considérable car elle est abondante, distribuée par un réseau généraliste et facile à gérer.

Ressources

https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/energies-renouvelables/tout-savoir-lhydrogene

https://liten.cea.fr/cea-tech/liten/Pages/Axes-de-recherche/Solutions-de-flexibilite/Batteries.aspx

https://www.airliquide.com/fr/science-nouvelles-energies/energie-hydrogene

https://www.engie.fr/actualites/mobilite-verte-bus-hydrogene/

 


Esquisses d'un nouveau monde numérique

Ce texte a été publié en 2013 avec ma collègue Isabelle Denervaud, que je remercie à nouveau. Sa nouvelle publication, neuf ans plus tard, illustre deux facteurs clefs à comprendre dans le monde numérique : 1/ contrairement aux images que l'on peut en avoir, c'est un monde stable où les innovations structurantes sont rares 2/ l'informatique est bien entendu indissociable de la couche numérique qui a accompagné le démocratisation des usages et implique de lourds investissements et une technicité croissante, loin des clichés.

1L’apparition de l’écriture, quelque trois mille quatre cents ans avant notre ère, a sonné le glas de la préhistoire. Au-delà des débats d’experts et d’une rationalisation a posteriori à propos d’une période qu’il est encore difficile d’appréhender, l’écriture a en son temps créé une rupture radicale. Première forme matérialisée du langage, elle a permis d’entretenir la mémoire du passé et de la faire vivre. Sa construction fut longue et sa forme a évolué au fil du temps. D’abord cunéiforme (utilisant des formes en coins et clous), l’écriture s’est progressivement dotée d’alphabets, grâce aux Phéniciens.

2Qu’en est-il de l’apparition du numérique au xxe siècle ? Avec lui, l’humanité fait face à une révolution sans précédent dans l’histoire, qui pourrait s’apparenter à celle de l’écriture. Processus de transformation ancré dans la durée, le numérique instille une remise en cause profonde de notre compréhension du monde et de ses mécanismes économiques.

Les catalyseurs de la transformation numérique

3Plusieurs catalyseurs stimulent cette transformation, ancrés dans la durée : l’explosion des performances, la disparition des frontières (ou « mobiquité ») et la démocratisation de l’information. Ces catalyseurs ne sont pas nouveaux mais c’est leur addition progressive, depuis près de trente ans, qui a provoqué un changement en profondeur de la nature de l’informatique et de la fonction associée au sein de l’entreprise. Ils ont impacté par ailleurs les modes de traitement de l’information, dont nous ne percevons encore aujourd’hui que de prometteuses prémices.

Les points forts

L’explosion des performances techniques, le développement de la mobilité, la multiplication des flux de diffusion d’informations et de connaissances sont à l’origine de profondes transformations.
La capacité d’autodétermination des citoyens et consommateurs bouscule les organisations et les modèles de production, et pousse tous les secteurs à redéfinir leurs produits et processus.
Ce foisonnement pose en même temps la question de la protection des informations pour les particuliers comme pour les entreprises. Et la cybercriminalité fait naître de nouvelles craintes.
 

4L’accélération exponentielle des performances. Que ce soit dans la puissance des processeurs, la capacité des mémoires ou encore dans la bande passante des télécommunications, les progressions exponentielles des performances de chaque composant de la chaîne de traitement de l’information ont permis de découvrir et de s’approprier des usages de plus en plus confortables, diversifiés et imaginatifs. La leçon de cet apprentissage est que l’innovation va toujours au-delà de ce qu’imaginaient ses promoteurs dès lors qu’elle répond à un besoin latent. Les sceptiques sont vite débordés par la puissance de la vague d’adoption d’usages nouveaux, tandis que les délais se raccourcissent entre les annonces techniques et la mise en service commerciale.

5La conquête de la « mobiquité ». Pendant près de quarante ans, « l’informatique » a été pour la plupart de ses utilisateurs assimilée au terminal d’accès aux applications, composé du couple écran-clavier qui reproduisait la machine à écrire, et un modèle d’organisation du travail statique, sédentaire et hiérarchique. Parce que la technique a permis d’alléger les machines, de les rendre plus fiables, plus autonomes, désormais l’accès à l’information a pu totalement se dissocier du support physique. Nous avons conquis le droit de travailler, de nous informer, de nous distraire où nous voulons, quand nous voulons, avec n’importe quel objet communiquant. Ainsi l’informatique se dilue dans les usages que nous en faisons, de façon contextuelle. Il suffit de prendre le TGV pour voir que chacun disposemaintenant d’une forme diversifiée de terminal, aux services multiples…

L’évolution exponentielle des performances à travers trois exemples

La téléphonie mobile
Le premier téléphone mobile analogique, 1G, Radio Com 2000, né en 1986, était limité aux véhicules, avec des appareils encombrants : il y eut 60 000 abonnés en France. C’était un produit élitiste. La première génération de téléphones mobiles numériques avec la norme GSM, 2G, adoptée en 1987, a commencé à se diffuser en France à partir de 1991 avec une bande passante de 9,6 kbits/seconde. La troisième génération numérique à haut débit, ou 3G, est annoncée en 2002 et l’offre commerciale démarre dès 2004 avec 384 kilobits par seconde, débit largement suffisant pour commencer à exploiter les services de mobilité astucieux, incarnés dans l’iPhone né seulement en juillet 2008. La 4G avec 1 mégabit par seconde commence à se déployer dans le monde, ouvrant des possibilités nouvelles aux usages mobiles.
La capacité de stockage
Il en est de même avec les capacités de stockage des mémoires flash dont les performances sont à la base des succès que sont les baladeurs numériques, les appareils photos ou encore les outils de stockage mobiles. La première clé USB a été commercialisée en décembre 2000 avec 8 Mo de mémoire, soit cinq fois plus que les disquettes de l’époque. Aujourd’hui les modèles courants de clé USB contiennent 8 Go pour moins de cinq euros, 1 To pour quelques centaines d’euros.
Les micro-ordinateurs portables et l’accès à Internet
Si globalement la micro-informatique, depuis 1981 avec le premier ordinateur IBM, le personal computer ou « PC », a représenté en soi une révolution dans l’accès à l’information numérique, c’est sûrement l’ordinateur mobile qui en a radicalement changé l’usage. Le premier portable, l’Osborne 1, fut créé en 1981 et pesait 11 kilos avec 64 ko de mémoire. Il se vendait 1800 dollars ! Un netbook performant de moins d’un kilo coûte moins de 300 euros. Mais bien évidemment ce sont les tablettes qui marquent une rupture avec le modèle incrémental de miniaturisation du PC. Quelque 190 millions de tablettes devraient être vendues, selon IDC, en 2013 soit une croissance de 50 % par rapport à 2012. Dépassant les ventes d’ordinateurs de bureau (142 millions, en baisse de 4 %), les tablettes réduisent rapidement l’écart pour se rapprocher des ventes d’ordinateurs portables (203 millions).
 

6Les objets communicants se multiplient, sous des formes diverses, et le Web est désormais accessible à partir de plusieurs plates-formes, donnant à chacun le choix des modalités d’accès à des informations et services totalement intégrés dans la vie contemporaine. Il va se vendre en 2013 un milliard de smartphones, ce qui dilue la communication vocale dans une pluralité d’usages. Ces signaux forts indiquent la transition engagée vers l’ère de la « mobiquité », contraction de mobilité et d’ubiquité, donnant un sens tangible et concret au fameux « ATAWAD » (anytime, anywhere, any device) prôné par les constructeurs et les opérateurs télécoms.

7La démocratisation de l’information. Le moteur technologique est tellement puissant que les performances doublent tous les dix-huit mois à prix constant (loi de Moore, toujours valable plus de quarante ans après sa première expression). De plus, la technique facilite l’interface homme/machine, abaissant sans cesse la barrière de l’accès technique qui se banalise. De ce fait, l’accès à la technologie se diffuse dans toutes les couches de la société, permettant des usages inimaginables il y a encore quinze ans.

8Il y a aujourd’hui 62 millions d’abonnés au téléphone portable en France, 6 milliards dans le monde ! Il y a 2,3 milliards d’individus accédant à Internet. Evidemment la démocratisation conduit au développement d’une immense capacité non seulement de « réception » de messages comme ce fut le cas avec la presse écrite, la radio et la télévision, mais surtout d’émission d’information. Cette inversion du flux de diffusion de l’information et de la connaissance a un caractère historique car elle touche profondément la nature de la connaissance et bouleverse les modèles de production et de diffusion. Parce que la technique autorise une vraie démocratisation, on peut concevoir, écrire, diffuser textes, images, vidéos, documents multimédia avec des moyens financiers très limités et un bagage technique minimal.

9Cette capacité de production a également une conséquence majeure : le volume d’informations produit croît aussi de façon exponentielle. Nous sommes en face d’un niveau de connaissances et d’informations jamais atteint dans l’histoire de l’humanité, ce qui représente une formidable opportunité scientifique et technique, mais aussi, plus prosaïquement, de moyens d’amélioration de la vie quotidienne. Les outils pour exploiter cette ressource sont en constant progrès : moteurs de recherche, instruments de conception, de simulation, de modélisation.

10Cette nouvelle situation, qualifiée de « big data », ou mégadonnées, fait de l’information une matière première fondamentale de l’activité. Elle engendre aussi le souci de partager toutes les données publiques afin de renforcer la capacité de compréhension et d’exploitation des ressources collectives, ce qui a donné naissance au mouvement dit open data. Ce sujet, avec de nombreux pilotes locaux, reste encore à écrire et à construire et permettra de donner des lettres de noblesse au terme de « villes intelligentes » tant débattu dans les conférences et dans la presse spécialisée, mais encore si peu tangible aujourd’hui. Les perspectives sont nombreuses. Par exemple, dans le secteur des transports, la diffusion d’information multimodale permet d’optimiser le parcours client dans les citées engorgées. Dans le domaine de l’énergie, l’aide à la gestion des consommations d’eau, de gaz, d’électricité facilite un usage économique et respectueux de notre environnement.

figure im1

Un impact sans précédent

11Cette révolution en cours de construction laisse présager un avenir que nous n’imaginons pas encore pleinement, qui impactera drastiquement l’accès aux données, ouvrira de nouvelles opportunités de modèles économiques, de modes de management et de travail, tout en apportant son lot de risques et d’incertitudes.

12Un terreau d’opportunités. Le numérique bouleverse l’ordre habituel. En effet, il ne s’agit plus seulement de « faire mieux les choses » mais de produire ce que nous étions incapables de réaliser et même d’imaginer dans le système antérieur. En rapprochant des techniques, des métiers, des connaissances qui s’ignoraient, le numérique fait naître d’immenses opportunités nouvelles. Ce sont tous les métiers et tous les secteurs qui doivent redéfinir leurs processus et leurs produits. L’ampleur de cette mutation a été perçue par de nombreux auteurs et artistes. Ainsi, Hervé Fischer, philosophe et artiste franco-canadien, écrit dès 2001 dans son ouvrage Le Choc du numérique (VLB éditeur) : « En ce début du troisième millénaire, l’espèce humaine doit faire face au choc du numérique qui envahit tous les secteurs d’activité. »

13En passant d’une économie qui cherchait à utiliser au mieux la main-d’œuvre en exploitant sans limites les ressources naturelles à une économie qui va exploiter les connaissances de tous, nous entrons dans l’ère du « cerveau d’œuvre ». Nous pouvons qualifier cette transformation d’« iconomie » car elle met l’innovation, l’intelligence collective et Internet au cœur de l’économie du futur. C’est une révolution puissante qui ne laisse à l’écart aucun secteur et provoque des bouleversements difficilement prédictibles. Que dire de l’impact d’un séquencement du génome humain à 400 dollars sur toutes les pratiques médicales ? Que dire des avantages sociétaux d’une gestion optimisée de l’énergie décentralisée ou de systèmes de transports intelligents multimodaux en termes de création de valeur ?

14L’ensemble des secteurs de l’économie est touché. C’est par exemple l’éducation qui va devoir inventer de nouveaux modes d’apprentissage. Les fusions des écoles de commerce ou encore la nouvelle école « 42 » gratuite et on-line pour former les développeurs constituent des signaux faibles d’un secteur qui va progressivement se recomposer de manière à reconstruire une équation économique aujourd’hui défaillante. C’est le secteur de la distribution qui apprend à composer avec le canal Web pour développer de nouveaux modes de relation avec ses clients qui ne passent plus seulement par les réseaux traditionnels de boutiques. En témoigne le développement exponentiel des agences de voyages partiellement ou totalement virtuelles (voyages-sncf.com, capitaine train), ou des sites de réservation de restaurant (tripadvisor, lafourchette.com). De nombreux secteurs utilisent le numérique pour développer de nouveaux modèles économiques focalisés sur « l’essentiel » des attentes du consommateur, dans des approches centrées sur le Web ou encore le low price. C’est Orange avec Sosh, Air France avec Mini, la SNCF avec iDTGV, iDBus ou Ouigo. C’est Axa encore avec Direct Assurance.

15Nous sommes donc à l’aube d’un changement majeur qui est indispensable pour protéger les ressources naturelles et ouvrir des perspectives nouvelles à l’humanité en s’appuyant sur l’intelligence collective.

16Le monde de l’accès. Comme l’avait annoncé dès 2000 Jeremy Rifkin dans son ouvrage prémonitoire L’Age de l’accès (publié en français par La Découverte en 2005), le numérique favorise la mise en relation directe entre le « problème » et la « solution » dans tous les domaines de l’activité humaine. Cette rapidité de diagnostic et la mise en œuvre réactive de remédiation transforme dans la plupart des domaines la relation historique entre les demandeurs de savoir et l’offre institutionnelle. C’est un phénomène massif de « wikipédisation » mais aussi de désintermédiation. L’une des conséquences majeures de cette puissante transformation est la capacité donnée au plus grand nombre d’accéder à des informations et à des processus naguère limités à un petit nombre d’experts ou opérés par des acteurs qui traitaient ces données de façon répétitive et sans valeur ajoutée.

De nouveaux modes de travail

Le numérique permet de revisiter les modèles classiques de collaboration. L’information devient multicanal et multimédia et se diffuse en temps réel. L’entreprise étendue compose avec le monde extérieur et se maille avec ses clients, partenaires et fournisseurs. Ses processus auparavant prédictibles et standardisés prennent un caractère informel, laissant de l’espace au hasard, et deviennent plus agiles, évolutifs. Ces évolutions vont de pair avec les communautés professionnelles qui voient leur frontières se déplacer, deviennent plus ouvertes et reconfigurables. La structure même de l’entreprise est touchée, elle devient plus horizontale, donnant plus de marge à l’expression individuelle, à l’autonomie, et développant des mécanismes de reconnaissance et de confiance.
tableau im2
Source : « La transformation de l’IT à l’ère du digital », HETIC, conférence Sia Partners.
 

17Cette capacité d’autodétermination du consommateur, du citoyen, du patient, de « l’apprenant » est un défi pour les structures en place qui doivent ou monter en excellence ou simplement laisser la place à l’utilisateur comme le guichetier de banque a été partout supplanté par les distributeurs automatiques. Cette érosion des tâches administratives subalternes et la montée en performance de la qualité d’information transforme la plupart des métiers tertiaires qui n’avaient que marginalement été engagés dans la révolution de l’informatique : santé, transports, éducation…

18Cette remise en cause des rôles institutionnels ne peut laisser à l’écart le cœur des systèmes modernes, en l’occurrence la régulation par l’Etat et son contrôle démocratique. L’Etat tend à devenir une plateforme d’interopérabilité entre entreprises, citoyens et acteurs publics. De nombreux pays avancés en matière de numérisation de l’information publique et e-administration ont largement engagé cette mutation, tels le Royaume-Uni, l’Australie, la Suède.

19Mais la libéralisation de l’accès implique également un contrôle de l’accès. Il est évident que la sécurité et la protection du patrimoine informationnel de la personne, de l’entreprise et de la communauté a commencé à prendre une place majeure dans les politiques de numérisation de l’information et de la connaissance. Toutefois, c’est un sujet souvent mal posé. Faute de diagnostic fin, on applique sans nuance le principe de précaution : tout doit faire l’objet du même degré de protection. Et pour y parvenir on impose une protection péri-métrique étanche, partant du principe que les « bad guys » sont nécessairement à l’extérieur et que, si on leur oppose un mur d’enceinte efficace, la vie à l’intérieur sera protégée. Cette vision, acceptable dans un monde figé, n’est plus opératoire dans un monde ouvert où précisément les flux internes et externes sont constamment mélangés.

20Enfin, l’entreprise doit piloter ses multiples contributeurs. La question pratique qui est posée aux nomades est bien d’accéder aux informations des entreprises où ils opèrent comme à celles de leur propre entreprise à partir de l’extérieur. La mobilité des personnes entraîne la nécessité de maîtriser ce qui se connecte sur le réseau de l’entreprise, quelle que soit la méthode d’accès. Accéder au Web, partager des ressources collaboratives, utiliser des flux vidéo pose constamment des problèmes pratiques frustrants. Or l’entreprise étendue impose ce mode de fonctionnement. L’efficacité qui en résulte ne peut être compromise par des mesures de sécurité trop générales et trop contraignantes.

21Le changement des modèles de production. Voilà bien la question ultime que cette analyse des transformations de la société numérique doit poser. Pourquoi et comment travaillera-t-on dans un monde numérisé ? L’ère du numérique dans laquelle nous sommes entrés depuis les débuts du Web – il y a maintenant plus de quinze ans – bouleverse le modèle de production. Donc les mesures de la productivité. Nous sommes entrés dans une logique de rendements linéaires. Plus on produit, plus il y a à produire. Les tâches ne sont jamais épuisées. Pour les métiers modernes de l’entreprise (conception, coordination, commercialisation, communication), la lumière ne s’éteint jamais… La mondialisation numérique s’affranchit des fuseaux horaires et des distances, du jour et de la nuit. L’immensité du potentiel du Web conduit à n’en jamais toucher les limites. Nous nous situons à présent dans un monde infini de « manipulations de symboles », selon la formule du chercheur et homme politique américain Robert Reich. Au siècle des réseaux et du cerveau d’œuvre, alors que la dématérialisation multiplie à l’infini idées, sons et images, produire du sens devient aussi important que produire des biens. L’intelligence collective en réseau peut réduire les dommages collatéraux d’une croissance qui ne s’est pas préoccupée des équilibres naturels de long terme.

22Composer avec de nouvelles incertitudes. Au-delà du champ d’opportunités immense qu’augure l’avènement du monde numérique, s’ouvrent de nouvelles craintes liées au cyberterrorisme ou encore au développement de nouveaux totalitarismes. Il convient alors de se préparer à des renoncements et des deuils pour mieux aborder ce rivage inconnu, cette transformation que va catalyser le numérique. Hervé Fischer nous avertit : « Certes, la révolution technologique n’est pas sanglante. Elle ne tue pas. Elle paraît même douce et rationnelle. Mais elle s’installe et s’étend à toutes les activités humaines de façon si rapide qu’elle en devient violente. Sa puissance même est telle, dans tous les domaines, de la guerre, de la science, des industries, du commerce, de l’art, de l’imaginaire, de la politique, de la vie privée, etc., qu’il n’est pas exagéré d’affirmer qu’elle transforme profondément le monde à jamais. » Les Etats doivent défendre les intérêts de leurs citoyens et la souveraineté nationale et s’équiper face aux menaces réelles de cybercriminalité et de cyberguerre qui vont prendre une place majeure dans le futur. Il faut donc organiser cet accès aux données et à l’information en gérant la qualité du service fourni comme la maîtrise de la sécurité à chaque étape, pour chaque usage et pour chaque acteur.

23Le monde numérique du xxie siècle nous apparaît rempli de promesses et d’incertitudes. Alors que la puissance des outils croît de façon exponentielle, il est difficile de faire des prévisions par extrapolation linéaire de ce que nous observons. Il faut admettre que nous allons encore vivre dans les prochaines années de grandes mutations techniques qui, bouleversant les équilibres historiques, vont mettre à l’épreuve notre capacité d’adaptation et d’intelligence face à un monde bruissant d’innovations.