Penser les technologies de l'information en 2050, pari impossible ?
15 août 2011
Ce document est une réflexion préparatoire à l'émission de Daniel Fiévet sur France Inter le samedi 20 août 2011, http://www.franceinter.fr/emission-on-verra-ca-demain, "Internet, toujours plus connectés ?"
Le lien avec la rediffusion de l'émission : http://www.franceinter.fr/reecouter-diffusions/601
Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix. Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions.
Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.
Le premier piège est la tentation du prolongement des courbes. Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Ce que nous connaissons aujourd'hui a très peu de chances de subsister à cet horizon...
Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même si l’électricité a aussi joué un rôle fédérateur pluridisciplinaire- n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines.
Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre à leur tour.
Echapper à la malédiction méthodologique de la prédiction
La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos » tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses ! Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...
Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles » ne peut aisément s’arracher aux contraintes de la vie immédiate.
Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :
- l’avenir est domaine de liberté
- l’avenir est domaine de pouvoir
- l’avenir est domaine de volonté
Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire.
Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :
- la puissance des processeurs
- la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés
- la simplification et la diversification de l’interface homme/machine
- la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément
En quarante ans, les transformations concommitantes de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons grâce à internet et au web. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders technologiques du XXe siècle qui a su capter l'essence de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.
Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :
- l’accélération exponentielle des capacités des outils actuels
- des ruptures technologiques majeures
- des ruptures sociales autour de l’acceptabilité des technologies
- Le modèle exponentiel
Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004, grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins de consommation d’énergie - que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme.
Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore.
Cette certitude est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines.
Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière.
Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6) qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans al décennie 2010 sans problème… Au delà on imagine déjà de
Au-delà de 2025, le modèle exponentiel échappe à l’analyse.
2. Des ruptures technologiques majeures
Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un.
L’objectif est de tirer partie de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils.
Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ». Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.
3. Des ruptures politiques et sociales
La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique ? Les questions classiques d'éthique pernent unt toute autre dimension car "l'homme connectable" est véritablement une possibilité scientifique proche.
Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe.
La perspective ouverte par Ray Kurzweil de ce moment, imaginaire, où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde. Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Pour Kurzweil, qui est un scientifique sérieux, cette évolution est inéluctable et... positive !
Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique.
La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée. Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine. La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance.
Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux.
De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il n'est pas sûr que de ce chaos naîtra une gouvernance mondiale crédible...
Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique que technologique est arrivé à bout de souffle. Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique.
La promesse technologique s’inscrit dans ce contexte turbulent. Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles. Demain, comme hier, la technique n’est que secondaire.
Eléments de référence
Kurzweil, Ray, The Age of Spiritual Machines, Penguin Books,2000
Broderick, Damien, The Spike, Forge, 2001
Quelques sites incontournables
http://www.media.mit.edu/
http://techresearch.intel.com/