Previous month:
décembre 2017
Next month:
mars 2018

Penser 2050

Ce texte a été écrit le 14 juillet 2011. Il a été publié dans les Annales des Mines. Il est toujours intéressant de faire le point sur l'évolution de ses analyses en se calant périodiquement sur l'échelle du temps. Regarder en 2018 ce qu'on écrivait en 2011 pour parler de 2050 ne peut qu'être un exercice stimulant. Un simple commentaire s'impose : les révolutions techniques ne se font pas tous les matins... La métabolisation des changements est beaucoup plus lente que ce que l'on pense généralement. D'où l'intérêt de publier et de soumettre au contrôle des faits.

Janvier 2018

 

Boule_cristal

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions. Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même l’électricité - n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines. Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre. Echapper à la malédiction méthodologique de la prédiction La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate. Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

  • l’avenir est domaine de liberté
  • l’avenir est domaine de pouvoir 
  • l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire. Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

  • la puissance des processeurs
  • la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés 
  • la simplification et la diversification de l’interface homme/machine -
  • la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

  • l’accélération exponentielle des capacités des outils actuels
  • des ruptures technologiques majeures
  • des ruptures sociales autour de l’acceptabilité des technologies
  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme. Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore. Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines. Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière. Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans la décennie 2010 sans problème… Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

  1. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un. L’objectif est de tirer parti de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils. Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

  1. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique? Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe. La perspective ouverte par Ray Kurzweil de ce moment où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique. La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.

La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance. Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux. De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.

Eléments de référence (de l'époque) : Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000 Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables http://www.media.mit.edu/ http://techresearch.intel.com/


Au CES 2018, la donnée est au coeur de la révolution numérique

Rendre compte simplement du CES devient une tâche impossible tant cet événement mondial couvre désormais tous les aspects de la vie contemporaine. Y détecter les innovations les plus frappantes est complexe car l’évolution de la société numérique ne se fait plus par des percées sur les objets, mais par nappes d’interactions. On peut aussi tenter d’appréhender l’ampleur du CES par des chiffres sur des paramètres physiques : probablement cette année, autour de 180 000 visiteurs, 250 000 m2 de surfaces d’exposition, 4 000 produits nouveaux, 7 000 journalistes, des centaines de conférences. Mais cette abondance de chiffres impressionnants ne suffit pas à illustrer ce qu’est vraiment devenu le CES. A l’origine marché consacré à l’électronique grand public aux Etats-Unis, le CES, qui a perdu en 2016 l’appellation « consumer », est en effet devenu au fil des ans la plus grande manifestation mondiale dédiée au cœur de l’économie du XXIe siècle, c’est-à-dire la production et l’exploitation des données.

Capture d’écran 2018-01-15 à 10.40.25

D’année en année, l’organisation des stands des exposants, comme les thématiques des conférences et fameux keynotes, délaissent le strict champ du produit pour se concentrer sur l’analyse et les conséquences de la généralisation du traitement des données. Certes, on peut encore voir des produits spectaculaires qui dans 5 ans seront largement diffusés, comme les écrans 8K. Ou échouer comme la télévision en 3D. Mais si le CTA, qui organise le CES, a choisi comme thème fédérateur « Let’s go humans », c’est pour tenter d’apporter une réponse à la question de la place de l’humain dans un avenir où tout ce que nous produisons, pensons et vivons génère une empreinte numérique. Homo sapiens a vécu depuis ses origines dans un univers physique qu’il cherchait à comprendre avec ses moyens limités. Il en construit désormais une image numérique, un double de plus en plus fidèle, sur lequel il peut agir.  La cohabitation entre la réalité physique perceptible et son double numérique interroge sur la nature du système socio-technique que cette hybridation entre le physique et le virtuel va produire. La modélisation numérique de la vie appartient à l’homme qui l’a construite progressivement depuis les débuts de l’informatisation. Mais les risques de dépassement de l’homme par des machines devenant progressivement « intelligentes » doivent être analysés avec lucidité et sans sensationnalisme.

Au début de l’ère du web, on se plaisait à dire que chaque année on avait produit plus de données que depuis le début de la civilisation. On ne compte plus désormais tant les chiffres sont vertigineux et deviennent insaisissables.  En effet, l’accélération apportée par la généralisation du smartphone dont maintenant plus de trois milliards de terriens sont équipés est elle-même amplifiée par la production de données par les milliards d’objets connectés implantés chaque année dans les entreprises, les foyers, la cité.  Chaque activité humaine produit des informations qui couvrent un spectre de plus en plus large de paramètres physiques. La démocratisation des capteurs rend facile la saisie d’informations sur la température, la pression, le niveau sonore, le poids, la vitesse, l’accélération, la composition physico-chimique, la localisation de tout, personnes, biens, phénomènes physiques et biologiques. La capacité à saisir, analyser et restituer ces données est désormais sans limite. Les capteurs, les réseaux de télécommunication, les serveurs, les algorithmes de traitement et les interface homme/machine variées constituent un système puissant et global dont les capacités s’étendent constamment. Seules les odeurs restent, pour l’instant, à l’écart de cette démarche de transformation de toute chose en données numériques.

Ces données élémentaires servent à construire des modèles qui restituent aux acteurs, quels que soient leur rôle, une image de l’environnement qui les entoure pour le mettre en mesure de le comprendre et prendre de meilleures décisions que celles induites par l’expérience, la culture, l’instinct ou le réflexe. Le stand de Dassault Systems illustre parfaitement cette aptitude nouvelle que nous avons à modéliser tout phénomène et toute structure complexe pour comprendre et agir, que ce soit le cœur humain ou la ville de Singapour.

Ce processus de rationalisation a plusieurs conséquences directes. Il permet de mieux analyser les interactions qui régissent les phénomènes complexes et donc d’être en situation d’anticiper pour être plus efficient. Il offre aussi la possibilité de confier la responsabilité de prendre certaines décisions à des programmes informatiques pilotant directement des automates, robots et actionneurs divers pour libérer l’homme de tâches répétitives et sans valeur ajoutée. Mais aussi, progressivement, la connaissance approfondie que les programmes tireront des données qu’ils accumulent et analysent leur permettra de prendre des décisions dans des domaines plus complexes sans que l’intervention humaine ne soit plus nécessaire.

Parmi les évolutions les plus spectaculaires visibles au CES 2018,  les avancées du véhicule autonome  confirment la capacité de plus en plus complète de confier au seul véhicule le processus de conduite. Certes, il y a encore beaucoup de travail pour doter un véhicule de tous les composants - capteurs, logiciels, moyens de communication - capables en toutes circonstances de pleinement se substituer à ce que l’homme est capable de faire. Mais, de façon méthodique, on repousse sans cesse les limites des capacités d’autonomie des machines et on estime qu’il faudra moins de dix ans pour lancer dans le trafic des véhicules véritablement autonomes, c’est dire de niveau 5, sans intervention humaine. Les problèmes se situent d’ailleurs aujourd’hui d’abord dans la capacité des automobilistes à accepter cette évolution qui les exclut du poste de conduite, en supprimant ce qui a été un des moteurs marketing de cette industrie, le plaisir de conduire. L’acceptabilité est beaucoup plus forte en Chine qu’en Europe ou aux Etats-Unis, pays où la voiture est encore associée à une forte aspiration de liberté. Il faut aussi résoudre de problème complexe de l’organisation de la responsabilité. Il est impératif de codifier de façon précise, à travers des scénarios de conduite, ce que tout conducteur est en mesure de faire instinctivement, et la tâche se révèle fort complexe.

L’exemple de l’automobile et de la mobilité, ceux de la santé, de la gestion de la ville, du libre choix du mode de vie à travers la consommation et la vie privée ont explorés au cours des conférences. A un modèle libéral fondé sur un équilibre « naturel » entre la capture des informations privées et les bénéfices que les personnes en retirent, s’oppose un modèle européen de réglementation publique qui s’incarne dans le RGPD (Réglement général sur la protection des données) qui va s’appliquer à partir de 2018 en Europe, mais aussi partout où des citoyens européens sont impliqués. La Chine, pressée d’affirmer son leadership technique avec une population avide de technologies nouvelles avance sans inhibition avec ses géants comme Baidu et Ali Baba.

Présentes dans chacune des révolutions techniques antérieures, les interrogations sur la capacité de l’homme à maîtriser cette création prennent désormais une dimension particulière. Il ne s’agit plus de se doter d’une prothèse musculaire, mais d’entrer dans le domaine dont l’homme conservait l’exclusivité, la réflexion et la décision. Le passage de l’ère de la main-d’œuvre à celle du cerveau-d’œuvre qui ouvre des potentiels considérables à la capacité d’action de l’homme sur son avenir ne peut pas laisser indifférent tant les risques de manipulation de la conscience et de contrôle des choix sont réels.

Pour les entreprises et organisations publiques, les conséquences sont capitales.

Le CES n’a fait que renforcer les convictions acquises par les modèles offerts désormais par les performances techniques des grands acteurs. Il n’y a plus de place pour une informatique émiettée, balkanisée et tout aujourd’hui doit s’orchestrer autour d’une vision homogène, une infrastructure unique, souple et capacitaire, un traitement des données performant et une capacité à distribuer l’information à tous les acteurs en temps réel et de façon contextuelle dans le format requis pour la meilleure prise de décision. Mais plus encore, la réflexion doit porter sur le sens du traitement de l’information au service des entreprises et des communautés. Quel impact sur les libertés publiques, quel impact sur la liberté de choix et de conscience, entre personnalisation qui isole, recommandation qui limite, organisation de la cité qui anonymise et contrôle ? Le débat qui a eu lieu dans chaque conférence au CES est un bon signal de cette prise de conscience. Mais on sent bien que le cœur de la société de la donnée mérite encore beaucoup d’attention, individuelle et collective, dans les entreprises et les Etats, mais aussi au plan international. Les bénéfices de cette transformation sont immenses et il serait absurde de s’en priver. Nous ne pouvons prendre ce risque face aux défis de notre planète. Les compromettre par un manque de discernement, de pédagogie et de lucidité serait encore plus nocif.