Penser les technologies de l'information en 2050, pari impossible ?

Ce document est une réflexion préparatoire à l'émission de Daniel Fiévet sur France Inter le samedi 20 août 2011, http://www.franceinter.fr/emission-on-verra-ca-demain, "Internet, toujours plus connectés ?"

Le lien avec la rediffusion de l'émission : http://www.franceinter.fr/reecouter-diffusions/601

Un exercice de réflexion à long terme est toujours stimulant mais terriblement dangereux ! Penser les technologies de l’information et se propulser en 2050 est encore plus aléatoire. Il suffit en effet de faire un pas en arrière et lire ce qu’on pensait du futur en 1970 : une pure catastrophe prospective. Simplement, personne ne parlait d’internet, dont les travaux venaient juste de commencer dans un obscur projet militaire. Aucun des produits que nous utilisons aujourd’hui n’existait et n’était imaginé. L’informatique était cantonnée à quelques très grandes entreprises ou laboratoires, gérée par une poignée de spécialistes, et personne n’était réellement en contact avec les outils informatiques. En France, le téléphone fixe était rare et cher et ne s’est réellement développé qu’à partir du milieu des années soixante-dix.  Aussi la principale innovation qui était dans les cartons était de passer de quelques centaines de milliers de lignes téléphonique à plusieurs millions.

Aussi, se projeter dans un futur assez proche puisqu’il se situe dans la perspective de la vie humaine, mais suffisamment lointain pour subir toutes les déformations est un exercice aléatoire.

Le premier piège est la tentation du prolongement des courbes.  Sur dix ans, c’est encore possible mais sur quarante franchement suicidaire ! La logique des cycles technologiques permet de penser qu’il y aura d’ici 2050 plusieurs ruptures majeures. Ce que nous connaissons aujourd'hui a très peu de chances de subsister à cet horizon...

Le second est de raisonner « toutes choses égales par ailleurs ». C’est bien évidemment faux d’autant plus que les technologies de l’information innervent toutes les autres disciplines et vont donc contribuer à transformer radicalement le niveau des autres sciences et techniques. Jamais un ensemble de techniques - même si l’électricité a aussi joué un rôle fédérateur pluridisciplinaire- n’a autant envahi les autres. La perspective systémique implique donc qu’on imagine les progrès des technologies de l’information non seulement dans leurs capacités propres mais surtout dans la façon dont elles vont transformer tous les autres domaines.

Le piège le plus évident est de tenter de résoudre dans le futur tous les problèmes que le présent distille. On aimerait bien en effet que la technologie réduise l’écart entre le désirable et le possible. Il est clair qu’il n’y a pas de baguette magique et que les technologies de l’information vont également créer de multiples problèmes nouveaux qu’il faudra résoudre à leur tour.

Echapper à la malédiction méthodologique de la prédiction

La lecture du 500e numéro de Science & Vie, daté de mai 1959, et consacré à la vie en l’an 2000 démontre cruellement le caractère parfois totalement irréaliste de certains scénarios prospectifs de long terme. Si, vu de 1959, , tout le monde s’habille en 2000 en combinaisons isolantes et insalissables, absorbe des pilules de « catalyseur d’acides aminés » pour transformer les graisses en muscles, les «dactylos »  tapent toujours sur un clavier de téléscripteur qui imprime directement chez les destinataires. Le téléphone télévision, appelé « télécom », le téléscripteur individuel et l’enregistrement de messages à domicile sur des « bandes magnétiques » permettent le travail à domicile et les relations avec les parents et amis lointains… Seuls les savants peuvent rechercher par des mécanismes automatiques un dossier dans un institut éloigné et peuvent parler à leurs correspondants avec des téléphones à traduction automatique. Détail intéressant, les centrales nucléaires à fusion ont disparu car… trop dangereuses. Et chacun a droit à la semaine de douze heures et trois mois de congés payés. Et bien sûr, les voitures sont volantes et silencieuses !  Il faut noter que les journalistes croient savoir que Renault travaille sur les plans d’un véhicule électrique...

Si de tels rêves ont bercé la littérature de science fiction, ils traduisent surtout les croyances de chaque époque qui fabrique un futur répondant à ses obsessions du moment. La « production de futurs possibles »  ne peut aisément s’arracher aux contraintes de la vie immédiate.

Il faut donc en revenir aux fondamentaux de la méthode autour des trois postulats de la démarche prospective rappelés par Hughes de Jouvenel :

-       l’avenir  est domaine de liberté

-       l’avenir est domaine de pouvoir

-       l’avenir est domaine de volonté

Se projeter dans les futurs possibles de 2050 dans un domaine aussi mouvant, aussi peu stabilisé que les technologies de l’information implique donc de résister à la tentation de la dérive techniciste pour ancrer fortement la technologie dans le champ de la politique et du vécu social. Aux capacités infinies des outils, quelles seront les réponses des individus et des communautés ? Aussi le travail de prospective ne consiste pas à prédire l’avenir, mais à le construire.

Dans le domaine des technologies de l’information, quatre facteurs ont par leur évolution propre et la combinaison de leurs performances ouvert le champ des possibles depuis les années soixante-dix :

-       la puissance des processeurs

-       la disponibilité de bande passante permettant des télécommunications rapides et abordables entre des milliards d’objets connectés

-       la simplification et la diversification de l’interface homme/machine

-       la capacité de développer des programmes complexes par l’ingénierie logicielle et de les distribuer aisément

En quarante ans, les transformations concommitantes de ces quatre vecteurs ont doté la planète d’une infrastructure mondiale et de moyens individuels d’accès à l’information qui n’a jamais été imaginée. En 2011, quatre terriens sur cinq utilisent un moyen de communication individuel  et mobile, deux terriens sur sept peuvent librement produire, échanger, rechercher et stocker des informations sous forme d’images fixes et animées, de textes et de sons grâce à internet et au web. En 2000, personne n’avait envisagé un tel développement. Personne ne pouvait imaginer qu’Apple, un des leaders technologiques du XXe siècle qui a su capter l'essence de cette transformation, deviendrait en 2011 la première capitalisation boursière mondiale.

Prenant pour acquis cette base réelle, trois scénarios peuvent être travaillés :

-       l’accélération exponentielle des capacités des outils actuels

-       des ruptures technologiques majeures  

-       des ruptures sociales autour de l’acceptabilité des technologies

 

  1. Le modèle exponentiel

Il est tout à fait crédible : c’est celui que nous vivons depuis quarante ans, 1972 précisément avec l’Intel 4004,  grâce à la capacité des concepteurs et des fondeurs de micro-processeurs de doubler leurs capacités tous les 18 mois, processus que l’on appelle la loi de Moore. Le micro-processeur fournit la puissance brute du système informatique. C’est grâce aux progrès des micro-processeurs - plus de puissance, pour une taille réduite et moins  de consommation d’énergie -  que l’ont doit la sophistication des logiciels et la diversité des supports et des interfaces, et pour un prix stable sur le long terme.

Les progrès ultérieurs sont donc conditionnés par la capacité de l’industrie des micro-processeurs à trouver les solutions pour prolonger la loi de Moore.

Cette certitude  est à peu près acquise pour les dix prochaines années. Intel travaille sur son architecture « Tera-scale » qui apportera une capacité 1000 fois supérieure à celle des plus puissants micro-processeurs, en multipliant le nombre de cœurs jusqu’à plusieurs centaines.

Ces micro-processeurs seront capables de traiter des images animées en 3D en temps réel, à effectivement produire des traductions réalistes en temps réel, à traiter en quelques minutes les tera-données produites par un scanner de l’ensemble du corps humain, à mieux modéliser les phénomènes météorologiques… Les usages dans la vie quotidienne sont multiples et les outils qui supporteront l’homme dans ses tâches élémentaires – se déplacer, produire, consommer, gérer l’énergie et les matières premières, se soigner – apporteront des réponses enrichies aux problèmes actuels de congestion urbaine, d’optimisation de la logistique, de la production d’énergie, de gestion rationnelle de la santé… Mais ceci est d’ores et déjà programmé pour la décennie 2010-2020. Les outils quotidiens que nous utiliseront de façon banale en 2020 n’existent pas encore, et ne ressembleront pas à ceux que nous connaissons mais devraient demeurer dans une enveloppe conceptuelle familière.

Le futur immédiat du réseau internet est aussi garanti avec le passage du mode d’adressage IP dans sa version 4, limité à quelques milliards d’adresses possibles, limite dont nous rapprochons en 2012, à sa version 6 (IPV.6)  qui permet de connecter des milliards de milliards d’objets ( 2128 pour être précis…). Internet et le web peuvent se développer dans al décennie 2010 sans problème… Au delà on imagine déjà de

Au-delà de 2025, le modèle exponentiel échappe à l’analyse.

2. Des ruptures technologiques majeures

Au de là de cet horizon perceptible, il faut admettre que nos outils de réflexion sont inopérants. Tout au plus pouvons nous admettre que les représentations conceptuelles et matérielles sur lesquelles l’industrie informatique s’est construite vont voler en éclats. En effet, l’industrie s’est appuyée sur un modèle stabilisé depuis plus de soixante ans : le modèle de Von Neumann. Von Neumann avait formalisé dès 1945 le principe de la séparation dans un ordinateur des éléments de traitement, les opérateurs, qui assurent les calculs, et des éléments de mémorisation. Ces deux entités physiques opèrent en série. Une des ambitions des ingénieurs est de mettre fin à cette dissociation pour gagner en vitesse globale de traitement. Plus encore, l’informatique s’est édifiée autour du modèle binaire qui a permis la représentation de toute information sous un forme maîtrisable par la machine, c’est à dire une suite de zéros et de uns  représentant la fermeture et l’ouverture d’un circuit électrique. Cette logique binaire est remise en question par les travaux sur l’informatique quantique qui permet une multiplicité d’états entre zéro ou un.

L’objectif est de tirer partie de l’ensemble des informations qui commencent à s’accumuler de façon exponentielle, nous menaçant « d’infobésité », si nous ne disposons pas rapidement des moyens de traiter ces informations pour en extraire celles qui nous intéressent et nous permettent de progresser dans nos réflexions et nos connaissances. Il est bien évident que pour trier parmi les milliards de documents produits, le simple moteur de recherche n’est plus adapté. La recherche d’outils performants pour établir des relations entre informations et prendre des décisions rapides sera donc un des facteurs de progrès les plus intéressants des prochaines années. Le but est de se passer d’une interface lente, même tactile ou gestuelle, pour connecter directement notre cerveau avec ces futurs outils.

Ces ruptures technologiques qui devraient apparaître entre 2025 et 2035 nous feront sortir du modèle de von Neuman et de la logique binaire qui ont marqué la conception des ordinateurs actuels. Elles s’appellent, provisoirement, informatique quantique ou neuronale… Elle s’inspirent de toutes les réflexions sur l’intelligence artificielle qui depuis cinquante ans animent la « cyberscience ».  Dans tous les cas, la puissance des machines, considérable, s’intégrera de façon intime avec la vie des hommes. Ce qu’on appelle aujourd’hui « ordinateur », avec son clavier et son écran et son unité centrale sera absorbé, digéré par l’environnement, dans tous les objets, les produits et… le corps.

3. Des ruptures politiques et sociales

La peur de Big Brother est très vive dans la société au fur et à mesure des progrès de performance de l’informatique et du web. Plus encore, le rapprochement entre informatique et biologie, dans un continuum entre la personne physique, sa conscience individuelle et les outils qui l’entourent pose d’ores et déjà des questions éthiques. Nous sommes passés de la machine, prothèse musculaire, à l’ordinateur, prothèse cérébrale. Si décupler notre force physique n’a guère posé de problèmes éthiques, il n’en est pas de même pour notre cerveau ! Or il est sûr que cette coexistence intime entre la machine et la personne va s’accroître avec la miniaturisation des processeurs et la capacité des systèmes à amplifier les fonctions cérébrales. On commence ainsi à voir émerger une nouvelle discipline, les NBIC, résultat de la convergence entre les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives. Les perspectives ouvertes par ces technologies sont considérables mais invasives. Permettre à un aveugle de voir est de toute évidence socialement souhaitable, mais où et comment définir des limites de l’usage de la bio-électronique ? Les questions classiques d'éthique pernent unt toute autre dimension car "l'homme connectable" est véritablement une possibilité scientifique proche.

Quelle va être la capacité de la société à établir des règles et à les faire respecter ? Le droit à la maîtrise de son identité numérique commence à émerger comme revendication légitime, mais ce n’est qu’un aspect fractal d’une réalité complexe.

La perspective ouverte par Ray Kurzweil de ce moment, imaginaire, où les machines auront une capacité d’analyse et de décision supérieure au cerveau humain n’inquiète pas véritablement aujourd’hui tant elle paraît à la plupart des analystes improbable, voire absurde.  Néanmoins, cette hypothèse – identifiée sous le terme « Singularité » - ne peut être rejetée. Elle est envisagée par les spécialistes entre 2030 et 2040. A ce moment, les machines pourraient, seules, concevoir des machines qui leur seraient supérieures. Pour Kurzweil, qui est un scientifique sérieux, cette évolution est inéluctable et... positive !

Le contrôle des machines pose des problèmes redoutables qui mettent en cause le système démocratique.

La capacité du corps politique à comprendre et anticiper ces évolutions lourdes est aujourd’hui encore très limitée.  Confrontés à la dictature du court terme, les dirigeants politiques ne peuvent spontanément faire confiance à la démocratie pour arbitrer dans ces choix technologiques qui interfèrent avec la nature même de la vie humaine.  La vitesse exponentielle de développement de la technologie n’est pas compatible avec le temps démocratique qui implique échanges, débats, pour produire une maturation raisonnable des avis et des consciences. Le bouleversement sociotechnique en cours, symbolisé par la rupture dans les modèles de contrôle de l’information et de l’opinion qu’apportent internet et la mobilité, a surpris les Etats. Cette supra-territorialité subie de l’internet n’est pas le résultat d’une volonté politique consciente, mais une fracture autorisée par la technologie qui n’a pas trouvé son modèle de gouvernance.

Aussi les risques de régression sont bien réels. Rien ne permet d’évacuer l’hypothèse de la fin de l’universalité de l’internet, sa fragmentation en sous-ensembles étanches selon des critères régionaux, linguistiques, ethniques ou religieux.

De plus la période de bouleversements que nous avons abordée avec la fin de l’Empire soviétique, les perturbations économiques et sociales qui mettent durement à mal le « welfare model » occidental, les ruptures démographiques, climatiques, sont autant de facteurs d’incertitudes et d’instabilités qui s’ajoutent à la déformation permanente due à la poussée inexorable de la technologie. Nous sommes dans une ère totalement désaccordée, sans vision d’ensemble, sans mécanismes de décision cohérents et stables. Il n'est pas sûr que de ce chaos naîtra une gouvernance mondiale crédible...

Il va de soi que la technologie peut apporter des solutions stimulantes, y compris pour faire avancer de nouveaux modèles de décision démocratique. Mais il faut avoir le courage de reconnaître que le système global d’équilibre mondial des pouvoirs issu du XVIIIe siècle tant dans sa dimension politique  que technologique est arrivé à bout de souffle.  Les phases d’agonie des systèmes anciens sont toujours douloureuses. L’émergence d’une pensée nouvelle est toujours chaotique. 

La promesse technologique s’inscrit dans ce contexte turbulent.  Il est évident qu’au delà de la loi de Moore, c’est bien la capacité de l’humanité à se forger un destin qui est en jeu. Mais seule la qualité du débat, ouvert, documenté et controversé, permettra de défricher le meilleur chemin à travers les futurs possibles.  Demain, comme hier, la technique n’est que secondaire.

 

Eléments de référence

Kurzweil, Ray, The Age of Spiritual Machines,  Penguin Books,2000

Broderick, Damien, The Spike, Forge, 2001

Quelques sites incontournables

http://www.media.mit.edu/

http://techresearch.intel.com/

 


La transformation numérique au service de la croissance

Jean-Pierre-Corniou-150x230
Fondapol, fondation pour l'innovation politique dirigée par Dominique Reynié, vient de publier une étude sur "La transformation numérique au service de la croissance" dont j'ai assuré la rédaction. Le document intégral de 45 pages est accessible en ligne sur le site de Fondapol;

http://www.fondapol.org/debats/colloque-small-2-0-is-beautiful-comment-internet-peut-doper-la-croissance/

Vous trouverez dans ce document le développement de thèmes familiers aux lecteurs de ce site. Un travail particulier est consacré au rôle de l'Etat, démuni devant l'ampleur des bouleversements technologiques qui vont beaucoup plus vite que la loi et les pratiques politiques. Le traitement de la protection des doits d'auteur est un exemple du débordement du droit par la technique, et de l'absence de solution simple et efficace pour rémunérer les créateurs. Le rôle du web et des réseaux sociaux dans les révolutions arabes, leur irruption dans les codes comportementaux de la démocratie démontrent que les pratiques sociales bousculent la vie publique de façon puissante et inattendue.

Loin de se réduire à un ensemble de technologies, Internet est un facteur d’importantes transformations dans les relations sociales et produit une véritable rupture dans le monde économique.

Si plusieurs rapports ont montré que les TIC et Internet jouent un rôle fondamental pour la  croissance, l’enjeu de la transformation interne des entreprises reste en suspens. Les clients communiquent de plus en plus souvent en réseau. Les frontières de l’entreprise sont devenues poreuses. La structure traditionnelle des organisations, très hiérarchisées, s’avère peu adaptée à l’ère de l’interactivité. Des transformations dans les process doivent donc être privilégiées pour augmenter la productivité, l’intelligence collective et le travail collaboratif.

Comment dès lors concilier ouverture et sécurité ? Afin d’optimiser les coûts, comment reconfigurer l’entreprise pour dynamiser ses forces ? En France, quels sont les principaux freins au développement des entreprises par le numérique ? L’entreprise, qui le plus souvent privilégie le secret, la compétition interne et le contrôle, avec un risque de perte de compétitivité, peut-elle se transformer afin de consolider sa croissance ?

Une web-conférence le 23 juin à 9h30 permettra d'approfondir ces questions. France Info consacrera quelques minutes à ce document et à cette conférence.

 


Quelques entrepreneurs innovants réaniment l'industrie électronique en France

Entreprises, numériques et... françaises ? Quel espoir en France pour ce secteur d'avenir... en Asie ? Le MEDEF a accueilli le 10 juin quatre entreprises innovantes pour montrer qu'on pouvait encore innover et réussir en France dans ce domaine. C'est réconfortant et méritait d'être souligné !

La désindustrialisation, un mal français

La France n’a plus d’industrie, constate-t-on souvent amèrement, et encore moins d’industrie numérique. L’industrie française a perdu 36% de ses effectifs en 30 ans, soit près de deux millions d’emplois, dont 1,5 million de destructions nettes, pour se situer fin 2007 à 3,4 millions. Avec la crise, ce phénomène structurel s’est accéléré. 200000 emplois ont été perdus pour la seule année 2009. L’emploi industriel tangente actuellement 3 millions. L’industrie ne représente plus que 14% de la richesse nationale. Notre balance commerciale est structurellement déficitaire dans le domaine des produits informatiques, électroniques et optiques et ne conserve qu’une taille mondiale dans les marchés professionnels.

La désindustrialisation française est le résultat d’une funeste combinaison de facteurs politiques, économiques et sociaux. Bien que pays leader industriel au début du XXe siècle dans tous les domaines, la France, après le bénéfique sursaut gaullien des années soixante, s’est détournée de l’industrie. C’est un mouvement complexe, qui résulte à la fois d’une volonté d’embrasser la modernité postindustrielle et du refus tacite de faire les transformations nécessaires pour perpétuer une tradition d’entrepreneurs dynamiques et innovants, tant sur le plan fiscal que sur le plan de la formation. Cette voie de la désindustrialisation a également été choisie avec enthousiasme par des décideurs séduit par le « tout-services » prometteur d’une fumeuse économie quaternaire. Car l'industrie dans les années quatre-vingt inquiétait, avec ses contraintes sociales et environnementales. Pour beaucoup, l'industrie reste toujours noyée dans les fumées du XIXe siècle et les revendications d’une classe ouvrière menaçante.

Mais la désindustrialisation a été aussi subie sous couvert d’une mondialisation réduite à la recherche de profits apparemment plus faciles grâce au seul critère de la réduction du coût de main-d’œuvre. Pour beaucoup d'entreprises, comme dans le secteur textile, fermer les usines en France pour en ouvrir en Tunisie ou au Maroc était la solution de survie à court terme. L'automobile devenue importatrice nette en France en 2006 voyait dans la construction de ses plus petits véhicules dans l'est de l'Europe le moyen de conserver une entrée de gammes compétitive. Cette désindustrialisation défensive, si l'on peut dire, conduit au final à de nombreux échecs. Elle a été alimentée par un débat permanent sur la fiscalité du patrimoine, le niveau des charges sociales sur les bas salaires et les contraintes réglementaires dont aucun gouvernement n'a réussi à se jour à se dégager positivement, contrairement à l'Allemagne qui a su entraîner ses entrepreneurs dans une stratégie globale offensive. Les tentatives pour déclencher un sursaut industriel n'ont toutefois pas manqué, comme les Etats Généraux de l'Industrie en 2009-2010.

Or l’industrie, on le constate dans les comparaisons avec l’Allemagne, reste le moteur de l’économie avec 30% du PIB. Or un emploi industriel génère trois à six emplois dans les services associés. Concevoir et produire des « objets » pour le consommateur final ou pour d’autres industriels implique une capacité d’innovation et de maîtrise des processus qui absorbe et nourrit des compétences multiples que la production finale reste entièrement locale ou implique des acteurs plus lointains. Cette entreprise étendue, ouverte aux partenariats multiples, implique imagination, sens de l’innovation, capacité de coordination des compétences et opiniâtreté. Car dans tous les cas de combinaison de facteurs, la maîtrise complète de la production d’objets industriels est un accélérateur de talents. Les secteurs industriels clefs pour le futur sont ceux de l’efficacité énergétique, de la sécurité, de la télésanté, comme l’immense champ de l’optimisation logistique, la régulation des circulations. L’industrie électronique est un des composants essentiels d’une croissance découplée de la consommation de ressources naturelles. Il n'est pas envisageable de se départir de ces actifs fondamentaux dans une compétition mondiale si nous voulons conserver notre indépendance économique et alimenter une prospérité durable.

La FIEEC, Fédération  des Industries Electriques, Electroniques et de Communication rassemble 2300 entreprises et 400000 salariés, dont 200000 personnes dans des usines et des centres de R&D. Ceci constitue un tissu industriel de plus en plus fragile dont la consolidation est vitale pour notre avenir. Si l’on parle régulièrement des grandes entreprises emblématiques du savoir-faire industriel français, à l'empreinte mondiale, mais de moins en moins présente sur le territoire national, on évoque peu les petites et moyennes entreprises qui se créent dans l’innovation et incarnent le renouveau de notre tissu industriel sur les thématiques du XXIe siècle. Car c'est là le seul sujet majeur. On sait que les grandes entreprises suivront massivement leurs marchés  vers les pays nouveaux consommateurs. Et sur le fond, ce n'est pas choquant. mais la régénérescence du tissu industriel passe par l'entreprenariat et la construction d'entreprises d'un nouveau type issu de la culture du web : ouverture, partenariat, flexibilité, réactivité, circuits courts. Tous les innovateurs français ne sont pas dans la Silicon Valley. Il est réconfortant de constater que des entrepreneurs français ont décidé de résister à des dogmes désormais surannés en produisant des objets numériques à la fois performants et porteurs d’utilité. La liste en est finalement assez bien fournie.

Dans le cadre de  ses travaux sur l’économie numérique, le MEDEF a donné la parole le 10 juin à quatre entreprises qui méritent amplement d’être identifiées parmi ces jeunes pousses actives.

Taz Tag est une entreprise installée en Bretagne à Rennes depuis sa création en 2008. Elle a développé ses compétences dans le domaine du RFID et porté cette expertise dans le monde du sans contact en concevant des produits et solutions basées sur les normes NFC (quelques centimètres de portée)  et Zigbee (quelques mètres). Son champ d’activité central est la création de produits hautement sécurisés par puce biométrique et  multi-applications. La TazCard est une carte électronique pluri-usages, un « portefeuille électronique » qui permet de regrouper au sein d'un même objet communicant toute une série d'usages, de l’accès à des services, au paiement comme au couponing et aux outils de fidélisation. TazBox and TazKiosk sont des bornes de communication et des outils d’information et d’accès à des services, et le récent TazPad, la première tablette mondiale NFC (Near Field Communication) , tournant sous l’OS Android. Le champ d’usage de ces outils qui vont s’imposer dans le paysage est immense.

  Tazpad

 



 

 

HPC-project, crée en 2007, propose des solutions de calcul à hautes performances et fabrique un objet industriel dont on avait oublié qu’il pouvait être produit par une entreprise française, un ordinateur. Il ne s’agit certes pas d’un PC bureautique standard mais d’un ordinateur à très haute performance, sous la marque Wild Systems, exploité pour les applications critiques exigeant capacité de calcul et vitesse d’exécution plus de cent fois supérieures aux configurations classiques. Mais surtout HPC-project développe les outils permettant d’exploiter toutes les capacités du calcul massivement parallèle dans un format compact et économique qui rend accessible « l’extreme computing » aux applications courantes.

Withings

Withings a la particularité d’avoir réinventé un objet familier, le pèse-personnes, en lui donnant des caractéristiques numériques innovantes. Passé entre les mains des ingénieurs de Withings le pèse-personnes est devenu un bel objet connecté au réseau, d’une facilité d’usage totale, sans manuel complexe ni apprentissage, ni bouton. La ressemblance avec l’approche d’Apple n’est pas fortuite, mais voulue. Design et simplicité sont pour le créateur de l’entreprise, Eric Carreel, les clefs du succès: "L’Internet des Objets est aujourd’hui une réalité concrète et les objets communicants démontrent leur supériorité par rapport aux objets électroniques classiques : à la fois plus simples d’utilisation et plus riches dans leurs services. "

 
Unknown La balance Withings est le premier pèse personne Wifi connecté qui enregistre automatiquement poids et impédance. Elle construit les courbes complètes de poids, masse graisseuse et masse maigre et calcule l’indice de masse corporelle IMC que l’on peut consulter à tout moment sur son espace en ligne sécurisé ou via  l’application iPhone, iPad gratuite ou sur plate-forme Android. L’utilisateur peut par ailleurs s’il le décide, tweeter son poids, se fixer des objectifs et bénéficier de la motivation de ses amis, et accéder à de multiples services de coaching proposés par les acteurs qui ont perçu le potentiel de ce pèse-personnes.

Withings commercialise désormais un tensiomètre et à partir de septembre une caméra pour suivre les bébés qui répondent aux mêmes caractéristiques de connectivité et de design. .

 

Alioscopy

Alioscopy est un cas encore plus singulier car c’est une firme qui produit des téléviseurs en relief 3D sans lunette (“autostéréoscopie”) à partir de brevets deposes depuis 1986 par son fondateur visionaire Pierre Allio, En 2007, le Groupe Tranchant s’est engagé dans son enterprise pour lui donner des perspectives de développemnt international qui se sont traduites par la création d'un bureau à Singapour et un autre à San Diego. Les téléviseurs sont fabriqués à Paris où se trouve le siège.

Alisocopy a développé la chaîne complète de valeur qui permet de donner à l’image 3D une attractivité particulière, notamment en travaillant sur les contenus, ce qui est souvent une faiblesse qui justifie le décollage timide de cette technique pourtant exceptionnelle. Destinés  surtout aux applications 3D qui ne permettent pas l’usage de lunettes, notamment la publicité sur les lieux de vente, les informations dans les musées, les presentations de produits ou d’entreprises, les produits Alioscopy atteignent un niveau de qualité remarquable grâce à la technologie qui traite huit images simultanément.

Alioscopy3DHD24

Ces exemples démontrent qu’il est possible d’imaginer et de produire en France des objets industriels innovants, répondant à des besoins nouveaux, insérés dans les nouveaux écosystème ouverts qui caractérisent l’économie numérique. Que ces industriels soient soutenus et réussissent !

 


CES 2011 : les frontières s'estompent

Le Consumer Electronic Show est devenu le rendez-vous obligé de toute la communauté numérique mondiale. Chaque première semaine de janvier, il dessine les perspectives économiques et technologiques de l’année  et préfigure l’évolution des années suivantes même si le rythme de changement est devenu désormais si rapide que, comme l’a dit John Chambers, président de Cisco, « deux années dans le monde numérique, c’est déjà de l’histoire ». C’est cette histoire qui s’écrit au CES d’année en année, offrant dans une arène unique, l’ensemble des produits et services qui marquent la montée triomphale de la numérisation.

Le CES 2011, après un moindre succès en 2009 et surtout 2010 en réaction à la crise, ce sont plus de 140 000 visiteurs, dont 30 000 venus de l'extérieur des Etats-Unis, 2700 exposants, 2000 nouveaux produits. Ce sont les fameux key notes où s’expriment les leaders des entreprises numériques(Cisco, Xerox, Verizon, Samsung), mais aussi ceux de l’industrie (General Electric) comme l’automobile (Ford, Audi), ainsi que  de nombreuses conférences thématiques qui couvrent le champ des technologies et des usages.

Car le CES ne cesse d’élargir ses limites. Historiquement consacré aux biens de consommation électronique grand public sur le premier marché du monde – il fut le lieu où les innovations comme la cassette audio, la cassette vidéo, la télévision haute définition – ont pris leur essor, il englobe désormais un vaste champ technique et industriel qui a été transformé par le déploiement mondial de la téléphonie mobile et de l’internet. Depuis quelques années, avec la grande convergence images/voix/données, le CES a mis en scène la disparition progressive des frontières entre l’électronique grand public, consacrée au son et à l’image, et l’informatique professionnelle, celle des données et des traitements,  La connectivité universelle grâce à TCP-IP a fourni cette "atmosphère IP" indispensable au rapprochement de ces mondes naguère étanches. L’invention des « apps », ces applications informatiques téléchargeables à faible prix a donné à ces machines fermées une capacité de créativité considérable qui a ouvert la voie à une vague d’innovations que l’informatique n’avait jamais su susciter avec son modèle rigide de développement. 

Plus encore, la miniaturisation des composants et la généralisation de l’accès aux réseaux a ouvert la voie à de nouveaux et immenses champs d’applications. Il en est ainsi de l’énergie, qui d’année en année est de plus en plus présente grâce aux réseaux intelligents (« smart grids ») qu’ils soient domestiques ou publics, de toutes les applications de sécurité, pour les biens avec une renaissance de la domotique, les personnes avec l’essor des applications de santé, et les transports. Cette année, les conférences consacrées à la santé numérique ont à nouveau fait salles combles. On sent bien que pour répondre à l'infinie demande de bien-être et de santé, les objets numériques connectés, qui permettent de capter en continu des informations précieuses pour le diagnostic, mais aussi d'aider au monitoring des patients, vont devenir incontournables. 

L’évolution de la place de l’automobile est la plus spectaculaire. Il y a quelques  années une grande partie du Hall Nord du centre de convention de Las Vegas était occupé  par des véhicules improbables gavés d’amplificateurs et d’enceintes monstrueuses délivrant un son apocalyptique. Aujourd’hui ce folklore de bikers et de pin-up de calendrier a quasiment disparu au profit des marques automobiles réputées comme Ford, GM, Hyundai, Toyota, et cette année pour le première fois Audi qui démontrent la convergence de l’électronique embarquée, de la géolocalisation et de la révolution du véhicule hybride et électrique. Alan Mullaly, président de Ford,  est venu pour la troisième fois consécutive expliquer sa stratégie de développement d’une connectivité illimitée de ses véhicules - Ford Touch, Ford Mobile - qui trouve tout son sens dans le véhicule électrique dont il a annoncé le lancement mondial d’une gamme complète. Audi expose son somptueux spider électrique e-tron, et uneTesla trône sur le stand Panasonic, qui assure la production de ses batteries... Quelques jours avant le salon de Detroit, le CES est devenu une sorte d'avant-première de l'innovation automobile.

Ceci porte plusieurs conséquences. Les informaticiens classiques ne peuvent plus ignorer la puissance de cette convergence qui fait naître dans le monde grand public des innovations qui s’imposent par l’usage et pénétrent de façon inéluctable les entreprises. Cette mutation concerne tant leurs clients, qui veulent utiliser leur outil de travail et de communication personnel dans tous les contextes, que  leur personnel devenu exigeant en matière de qualité des outils qui sont proposés par l’entreprise.

Ensuite, le marché se transforme. Le monde de l’entreprise devient un cas particulier du marché grand public en terme de volume, de prix, d’innovation. Les ventes de PC classiques déclinent au profit de la multiplication des supports d’accès à l’information. Aujourd’hui il n’y a plus que quatre constructeurs de PC - HP, Lenovo, Dell, Acer – qui ne font pas d’efforts particuliers pour le marché des entreprises. Il faut noter d’ailleurs que cette situation profite à Apple dont l’offre alternative est de plus en plus acceptée en milieu professionnel.

Comme on a pu voir sombrer l'écran cathodique au fil des CES, peut-on penser que la multiplication des outils de production et de diffusion d'information en réseau annonce la fin du "personal computer" tel qu'il a été façonné par le couple Microsoft Intel pendant trente ans ? Les deux partenaires historiques du couple Wintel donnent le sentiment que leur destin se dissocie désormais. Intel mesure le risque de ne produire que des processeurs coûteux et gourmands en énergie pour le marché des PC alors que l'explosion de coutils mobiles exige des processeurs optimises sur le plan énergétique. Le processeur Atom  est la réponse technique et équipe toute une gamme de produits mobiles, mais aussi des PC traditionnels. Microsoft annonce que Windows 8 tournera sur les processeurs du britannique ARM. Motorola dont le CES 2011 annonce le retour  installe un processeur puissant dans son téléphone. Par une interface "plug in" c'est ce "téléphone" qui va fournir la puissance de calcul et les applications à un PC dépouillé de son moteur mais qui se limite à une fonction s'affichera grâce à un écran confortable et surtout une alimentation généreuse. Motorola présente aussi une tablette surpuissante de 10", utilisant la dernière version d'Android (3.0), Honeycomb, compatible Flash, et un processeur à deux coeurs Tegra 2. Mais il faut aussi souligner que sur les dizaines de tablettes présentées, toutes aussi attractives et innovantes, seul la Samsung Galaxy Pad était réellement en vente depuis octobre 2010, et l'iPad, non présenté officiellement, Apple étant absent, mais omniprésent est la seule tablette a déjà avoir été vendue à plus de onze millions d'exemplaires.

Motorola_Xoom_02
Motorola Xoom

La télévision connectée devient légalement un nouveau concurrent du PC. Avec la taille et le confort de son écran haute définition et 3D, la télévision devient un support idéal de navigation sur internet, de consultation d'images et  une console de jeux performante que les interfaces nouvelles comme Kinnect valorisent. La télévision 3D présente depuis 2008 continue son essor. Avec des appareils de plus en plus performant, des programmes de plus en plus nombreux, films mais surtout sport, la  télévision 3D qui n'a pas encore pleinement convaincu les consommateurs, dispose d'atouts essentiels pour un succès durable, d'autant plus que la 3D se développe également en photo et vidéo domestiques, Kodak présentant même une imprimante photo 3D.

Toutes les études convergent sur le fait que 70% des "devices" seront connectés en 2014 à l'Internet, soit en Wifi, soit en 3G ou 4G, soit en CPL.

Quant au marché des télécommunications, il semble également évoluer vers une répartition nouvelle des canaux d’accès. Pour Verizon, deux types d’accès vont se compléter.
La  4G mobile LTE, dix fois plus rapide que la 3G, va rapidement innerver un écosystème de services mulitples. En revanche, les applications et services très gourmands en bande passante – films 3D, holographique - vont utiliser  la réseau de fibre optique dont la vitesse commerciale va passer en 2011 à un Gbit/sec et à 100 Gbit/sec en moins de cinq ans.

Le CES 2011 offre l'accès sous un format compact - même s'il est épuisant de parcourir ces allées interminables et de courir de conférence en conférence - qui seul permet d'embrasser facilement toutes les tendances du marché. A l'ère de l'omniprésence de l'information sur le web, ce type de manifestation physique, à tous les sens du terme, conserve tout son sens mais nécessite de bons outils de communication et d'analyse pour ne  pas s'y diluer.

 


Publicité, publications...

Quelques media m'ont demandé récemment de m'exprimer sur des sujets de réflexion quant au développement de la société de l'information et des outils informatiques. Il est toujours utile de sortir du cadre quotidien, rendu un peu sombre par les contraintes du court terme, pour se projeter dans une réflexion moins immédiate. Mes convictions restent entières : les technologies de l'information, de la communication et de la connaissance n'en sont encore qu'à l'aube de leur développement. 

Au moment où les entreprises s'ingénient à baisser le coût de leur informatique, ce qui n'est pas malsain en soi dès lors qu'il ne s'agit que de bonne gestion et pas d'acharnement, elles doivent aussi considérer que le monde de web est un environnement d'une toute autre nature que l'informatique classiques des années soixante dix qui a atteint son asymptote. il ne s'agit plus d'automatiser des processus qui pourraient être exécutés manuellement. Il s'agit maintenant d'inventer des produits et services qui ne pourraient en aucun manière être conçus, réalisés, distribués sans des moyens puissants de traitement de l'information. Il ne s'agit plus du tout de mieux faire les choses, mais de faire des choses totalement différentes. Or, au terme d'un cycle long de croissance fondé sur la technologie pétrole/automobile/informatisation centralisée, nous sommes en panne d'innovation pour résoudre les problèmes complexes de notre époque. Selon la belle formule de Joël de Rosnay, nous allons passer du prolétaire au pronétaire*. Investir dans le traitement de l'information est donc un impératif dès lors que l'on considère que l'avenir est aux entreprises et aux pays qui entreront de plain pied dans la société de la connaissance. La frilosité actuelle des dirigeants, d'une autre génération, ne peut servir de politique à long terme. 

C'est pourquoi j'ai accepté avec entrain de relever le défi que m'a lancé Pierre Couveinhes, rédacteur en chef d'une des plus anciennes revues françaises, les Annales des Mines, créée en 1794, de  tenter de décrire ce que serait l'informatique dans vingt ans. Cet article a été publié dans le numéro de mai 2009 de Réalités industrielles entièrement consacré aux technologies de l'information et de la communication... L'exercice est aussi périlleux qu'excitant. Si le résultat n'est pas à la hauteur de mes espérances, les pistes à suivre étant si nombreuses et leurs ramifications si complexes, il marque une étape qu'il sera toujours amusant de vérifier dans quelques années. 
01 informatique l'a publié dans son édition en ligne :
http://www.01informatique.fr/infrastructures-stockage-serveurs-116/Information-connaissance-et-informatique-en-2028/
Il est tout aussi intéressant de se procurer la version intégrale du numéro de mai qui contient des analyses percutantes. Au moment où les TIC semblent susciter moins d'attention de la part des décideurs, l'initiative des Annales des Mines représente un effort salutaire de réflexion sur ce domaine qui demeure plus que jamais un vecteur majeur de transformation de l'économie et de la société.

Du papier à la télévision, il n'y a qu'un pas, numérique, à franchir. La jeune web TV Omega TV m'a demandé de commenter l'évolution technique et sociétale du web à partir des réflexions de "Le Web, 15 ans déjà... Et après ?". Cet exercice prend la forme de  cinq séquences vidéo didactiques :
http://www.omegatv.tv/video/27680297001/societe/medias/Internet--les-2-risques-.php

Enfin pour compléter cette panoplie des media, je suis sollicité par BFM radio pour une émission d'une heure qui passera le 14 juillet sur les promesses de l'internet et du web. 

La société de l'internet est plus que jamais la société de la complémentarité des médias. Livres, revues, vidéos et radios, ainsi que le blog, permettent, chacun avec leur spécificité, de développer une vision à 360°. Il s'agit sans relâche de comprendre que nous abordons un monde nouveau qui ne ressemblera pas vraiment au monde que nous sommes en train de quitter dans la crise. Le web n'est pas simplement un outil de plus, c'est une plate-forme d'énergie cognitive diversifiée aussi puissante que l'écriture ou l'imprimerie en leurs temps. 

* http://www.pronetariat.com/