Previous month:
février 2010
Next month:
avril 2010

Critiques du web : désenchantement ou attaque en règle ?

On perçoit, depuis peu, ici et là, un parfum de rébellion contre internet et le web. Les articles et déclarations se succèdent pour en remettre en cause les vertus. Ces attaques ont des sources multiples et renvoient à des préoccupations de nature différente. Mais leur convergence est troublante et force à s’interroger sur la pertinence de cette mise en garde contre la montée du « péril web ».

En fait, toutes ces analyses s’appuient sur le fait que le web qui s’est insinué dans nos vies depuis une quinzaine d’années est devenu totalement incontournable La prise de conscience soudaine de cette oppressive omniprésence inquiète ! Google, Facebook, Twitter, mais aussi l’iPhone incarnent ce web 2.0la fois adulé et honni et concentrent les flèches des critiques, dont l’aptitude à se muer  rapidement en apprentis censeurs est étonnante.

Trop puissant, trop rapide, trop global, trop instantané, trop incisif, trop anonyme, trop bavard, trop indiscret, le web exacerbe tout, et devient un « amplificateur de vie »  bien bruyant. Quelles sont les fronts critiques les plus récents ?

Trop de transparence

Le web étant un outil de transparence, on s’interroge sur les risques que ferait courir à la communauté « trop » de transparence, sachant qu’en toute chose le poison, c’est la dose… Les hommes politiques se déchaînent contre la capacité du « web », sorte de monstre abstrait sans conscience, à rendre compte de leurs moindres faits et gestes, en temps réel  et à grande échelle… L’agacement de la classe politique envers la liberté de ton du web s’amplifie et on a vu un ministre français attaquer Facebook et DailyMotion. On s’inquiète de la puissance de Facebook  qui relate la vie intime de ses 350 millions d’abonnés, ou plus exactement restitue ce qu’on lui a confié. On a peur de l’immense mémoire de Google qui exhume, tel un glacier,  des informations anciennes que l’on voudrait définitivement recouvrir du linceul de l’oubli.

Il est certain que l’insulte, l’injure et les propos raciaux ne datent pas du web, mais que le confort de l’anonymat autorise de s'affranchir de beaucoup de tabous.  Là encore cette expression n'est pas la conséquence du web. Mais le web n’est pas une terre de non-droit car les mêmes règles que celles en matière de presse s’y appliquent. Un vigilance critique doit s'y exercer, l'anonymat doit y être limité, car il n'y a pas de liberté sans responsabilité. Revenons à la Déclaration universelle des droits de l’homme de 1789, décidemment source inépuisable de référence de ce blog…

Article X

Nul ne doit être inquiété pour ses opinions, même religieuses, pourvu que leur manifestation ne trouble pas l’ordre public établi par la Loi.

Article XI

La libre communication des pensées et des opinions est un des droits les plus précieux de l’Homme : tout Citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté, dans les cas déterminés par la Loi.

Trop d’information

Le seconde ligne de critiques contre le web  est l’excès d’information… Trop d’information tue l’information, dit-on, et on peine à se retrouver dans les milliards de pages que contient aujourd’hui le réseau mondial. Depuis l’origine du web, la recherche d’information dans cette masse virtuelle de savoirs comme de données dispersés a fait l’objet de critiques multiples. Non seulement on peinerait  à y trouver une information pertinente, mais de plus on ne sait pas si elle est digne de confiance.  Wikipédia fait ainsi partie des bêtes noires d’une partie de l’intelligentsia qui n’arrive pas à comprendre qu’un savoir à la fois rigoureux et mis à disposition gratuitement puisse être élaboré collectivement sans ordre structuré par des titulaires officiels du droit de savoir.

Bien sûr cette immense facilité à produire et échanger des informations pose le problème de leur authenticité et de leur profondeur. mais la question n'est pas nouvelle. Or "media des media", le web ne fait que véhiculer tout ce que l'on peut trouver par ailleurs. La différence n'est pas de nature, mais de rapidité d'accès et d'exhaustivité. Pour qui s'en donne la peine on peut de même sans difficulté croiser des informations sur le web, accéder aux sources les plus autorisées, traquer les bruits, les rumeurs, la désinformation avec un peu de jugement, croiser et décortiquer les informations, les données et les commentaires, sans sortir de chez soi... En utilisant plusieurs moteurs de recherche, on peut aussi échapper aux biais de méthode... et d'intérêt. Le web permet à chacun d'émettre et de recevoir données informations et connaissances. Ce sont des matières premières qu'il exploiter avec discernement. Rien n'a changé sur ce plan ! 

Trop d’énergie

Le web consomme trop d’énergie, et on entend à l’envi qu’un clic de souris consomme l’équivalent d’une ampoule électrique pendant une heure, sans bien comprendre l’alchimie de ce calcul qui frappe les esprits. Il est évident qu’un ordinateur individuel consomme de l’énergie électrique et que les millions de serveurs nécessaires à l’infrastructure mondiale de l’internet contribuent pour une part à l’augmentation de la consommation énergétique. Donc, compte tenu de la place largement majoritaires des carburants fossiles dans la production d’énergie internet contribue effectivement à la production de gaz à effet de serre. Google nécessite un million de serveurs, et l’ensemble des centres de données consomme 3% de la  consommations d’électricité des Etats-Unis . Aussi  Google a depuis longtemps pris une position de pointe dans l’optimisation de la gestion de ces centres serveurs qui consommeraient, selon  eux, cinq fois moins que les data centers conventionnels.

La multiplication des « objets électroniques » dans notre environnement  représente à la fois une dépense d’énergie, et donc un risque, mais aussi une opportunité pour substituer aux déplacements physiques, eux-mêmes consommateurs d’énergie et générateurs de CO2, les échanges électroniques. La vidéo-communication, que ce soit Skype ou des moyens plus sophistiqués comme la télé-présence, épargnent des kilomètres de déplacement physique et  leus conséquences environnementales. L’électronique est également le seul moyen de gérer efficacement les consommations en assurant la mesure et l’optimisation du pilotage des appareils. Cette rationalisation s’insère dans une démarche globale de « smart grid », ou grille intelligente où la première sources d’économie d’électricité sera la gestion électronique de l’électricité… Les premiers consommateurs d'énergie, comme Google ou IBM, ont d'ailleurs engagé une véritable démarche de réduction de leur consommation et de recherche de solutions alternatives.

Trop de bande passante

Et puis la dernière estocade ne manque pas d’originalité ; elle provient des opérateurs de télécommunications qui découvrent que le web consomme trop… de bande passante. Le succès des smartphones, qu’ils subventionnent généreusement, n’est pas compensé par une augmentation marginale suffisante des recettes alors que la consommation de bande passante est importante et menace de saturer les réseaux. Les trois millions de possesseurs d’iPhone en France consommeraient 25% de bande passante de plus que les autres uitlisateurs de 3G, notamment à cause des vidéos sur YouTube. L’objet est si facile d’emploi que, curieusement, les utilisateurs en exploitent les possibilités.

Aussi, il paraît difficile d’en endiguer l’usage par le prix ou le blocage de l’usage au-delà d’un certain seuil de consommation. Le problème de fond n’est pas de brider l’appétit des internautes mobiles pour l’échange d’information, mais de savoir qui doit payer les infrastructures supplémentaires pour faire face à cette augmentation massive des volumes. Or les opérateurs de télécommunications ont le sentiment de payer sans contre-partie des bénéficiaires directs de ces infrastructures que sont les opérateurs de contenu, voire les acteurs « hybrides » comme Apple à la fois présents dans le contenant come dans le contenu.

Trop peu de démocratie

Trop de liberté et trop de complaisance pour les régimes  totalitaires, dit-on... Croire qu'internet peut être un vigoureux accélérateur de démocratie, en partageant le savoir, en traquant l'obscurantisme et en rendant chacun capable d'émettre des commentaires et de participer aux débats sans avoir nécessairement une "habilitation" préalable constituent le vecteurs le plus persistant de la "culture internet", le ciment de la communauté des internautes qui ont la conviction d'oeuvre pour plus de démocratie.  Or cette philosophie est de plus en plus remise en question. 

Ainsi, le magazine Books titre son éditorial « Pour en finir avec le cyberoptimisme »  et écrit, sous la plume d’Olivier Postel-Vinay,  « Croire que le web apporte obligatoirement un plus en termes de libertés ou de qualité de la gestion publique est une illusion. Comme toutes les illusions collectives, elle présente un danger ». Bien entendu, la lucidité est indissociable pour séparer le bon grain de l’ivraie. Il en a toujours été ainsi. Ces arguments ont été entendus à chaque tournant de société, quand l’ordre ancien subit les coups de boutoir de la technologie pour faire émerger de nouvelles formes d’organisation sociale. 

Le livre n’a-t-il pas été accusé de tous les maux ? Léon X promulga la bulle «Inter sollicitudines» en 1515 pour établir les règles nécessaires à l’encadrement de l’imprimerie. Cette Bulle incluait certes un éloge de «l’art d’imprimer, qui, grâce à la faveur divine, a été inventé, ou plutôt amélioré et perfectionné, surtout à notre époque» mais organisait et justifiait l’extension de la censure, qui s’est développée en suite sous l’Inquisition,  «(...) afin que ce qui a été sainement inventé pour la gloire de Dieu, le progrès de la foi et la propagation des vertus ne soit pas utilisé à des fins contraires, et ne soit pas préjudiciable au salut des fidèles de Christ ». La Bulle précise qu’il « fallait (se) soucier de l’imprimerie des livres, pour qu’à l’avenir les épines ne croissent pas avec le bon plant, ou que les poisons ne soient pas mélangés aux médicaments ». Ces dispositions ont été sans cesse réaffirmées par tous les régimes totalitaires.

Rappelons aussi que la principe de la liberté d’expression n’a vraiment été exprimé que dans la déclaration universelle des droits de l’homme de 1789 et que c’était à l’époque une conquête fondatrice dont l’ampleur reste totalement contemporaine. Victor Hugo écrivit : « L’invention de l’imprimerie est le plus événement de l’histoire. C’est la révolution-mère »[1]. D’ailleurs tout ce texte mériterait d’être cité, tant il est proche de nous : « Sous le forme imprimerie, la pensée est plus impérissable que jamais ; elle est volatile, insaisissable, indestructible. Elle se mêle à l’air... Maintenant (la pensée) se fait troupe d’oiseaux, s’éparpille aux quatre vents, et occupe à la fois tous les points de l’air et de l’espace’’. On croit entendre Tim Berners-Lee !

Il en fut de même pour la radio et la télévision, jusqu’à l’ORTF en France, et partout dans le monde en fonction des circonstances politiques. Jamais aucun pouvoir ne renonce à l’exercice de la censure sur les medias pour servir ses fins.

Si le web est encore plus universel que l’imprimerie, si le coût d’accès est encore plus faible, il n’en est que plus dangereux car il autorise chacun, sans filtre, à recourir aux sources et à en donner sa propre interprétation. On disait bien au XVIe siècle que tout homme était pape avec une bible en mains.

La majeure différence est qu’est le web se développe avec une vitesse jamais connue jusqu’alors, est par nature a-national, échappe aux logiques habituelles d’influence et de pression sur la presse et de l’édition. Les problèmes y naissent plus rapidement que les solutions

Enfin, le web serait liberticide car libertaire ou à l’inverse inféodé aux plus totalitaires des régimes. Il est évident que le totalitarisme va employer le web comme technologie efficace comme Hitler était maître dans l’utilisation de la radio. Dès le Sommet mondial de la société de l’information à Tunis en novembre 2005 l’Iran affichait sur son stand son intention d’exploiter pleinement internet. Si Twitter a pu permettre de rendre compte des événements de novembre 2009, la riposte du pouvoir dans le blocage des accès à internet et des fréquences des téléphones portables a été immédiate. Comment empêcher les Etats totalitaires de détourner les medias sociaux à leur profit ? Il est quand même choquant de considérer que le web fait le jeu du totalitarisme en permettant précisément aux ennemis de la liberté d’en exploiter le support le plus moderne. C’est un très vieux combat qui dépasse le champ technologique…

Attention encore aux risques d’amalgame : le libéralisme n’est pas la démocratie. Un web libertaire serait le plus sûr allié du totalitarisme, qui puise justement dans cette absence de règles, la justification de toutes les répressions.

Si on suit Paul Valéry, qui écrivait en 1945, «  En somme, à l’idole du progrès répondit l’idole de la malédiction du progrès ; ce qui fit deux lieux communs », on pourrait se réfugier dans la posture confortable du « balancement circonspect » qui permet d’observer en chroniqueur neutre le déroulement chaotique de l’histoire. On peut compter les points ce qui finalement préserve le statu qo. On peut à l’inverse penser que, sans esprit de recul, l’éducation critique, l’enseignement de l’histoire, la pratique de l’éthique et une confiance raisonnée dans la science peuvent développer la pratique du discernement par le plus grand nombre. Nul doute que pour ceux-là le web est un outil précieux.

Pour en savoir plus :

- Books, numéro de mars-avril 2010, publie un dossier « Internet contre la démocratie »

- Le Monde diplomatique publie dans « Manière de voir », daté février-mars 2010, un numéro complet sur « Internet, révolution culturelle »

- Une réflexion intéressante sur la radio au sortir de la seconde guerre mondiale : Radio, culture et démocratie en France : une ambition mort-née (1944-1949) [article] Helene Eck Vingtième Siècle. Revue d'histoire   Année   1991    Volume   30

Et relire 

- « Critique de la modernité » d’Alain Touraine, 1992, 

- "Le sens du progrès", Pierre-André Taguieff, 2004

Et bien sûr, autopromotion,   « Le web, quinze ans déjà… Et après ? » où le problème de la démocratie et de la «République » sur le web est au cœur de la réflexion…



[1] J’accède au texte source de Notre-Dame de Paris grâce à Google livres en français. C’est sûrement hérétique !


L'économie numérique, un nouveau modèle global

"Une culture de l’innovation et de la créativité insuffisamment développée

Cette insuffisance se traduit par la difficulté de transformer les idées en produits ou services puis en succès commerciaux : la rencontre se fait difficilement entre les idées d’innovation, émanant d’un chercheur public, d'un salarié de grande entreprise ou d'un patron de PME, et les compétences, notamment dans les domaines du design, de la connaissance du consommateur, du marketing ou du management de projet, nécessaires pour transformer ces idées en nouveaux produits ou services. Trop d'équipes entrepreneuriales restent mono- disciplinaires.

Contrairement à des pays comme la Grande-Bretagne ou les Pays scandinaves, la France accuse un retard dans la prise de conscience de l’importance de l’innovation au sens large. Aucune entreprise française n’est présente dans le classement des 50 entreprises mondiales les plus innovantes proposé par BusinessWeek/BCG. 23 % des entreprises françaises seulement réalisent des innovations non technologiques contre 51 % dans l’OCDE2"

Extrait du rapport des Etats généraux de l'industrie http://www.etatsgeneraux.industrie.gouv.fr/

Le numérique peut-il relancer l’économie française qui souffre d'une si persistante incapacité structurelle à innover? La question, lancinante, a donné lieu à de multiples rapports de grande qualité depuis quelques années et à quelques plans gouvernementaux centrés sur le numérique. Le rapport des Etats généraux de l'industrie, en mars 2010, décrit de façon objective et précise la situation de l'économie française. Il doit être lu par tous les décideurs, car la transformation de l'économie relève d'une responsabilité collective et n'appartient pas aux seuls pouvoirs publics.  Car il s’avère délicat de ne penser que numérique sans prendre en compte l’ensemble des facteurs qui déterminent la compétitivité. Quand toute l’économie devient numérique, il ne s’agit plus d’agir sur ce seul facteur pour relancer la croissance et l’emploi.

La transformation numérique ne se limite plus au monde de l’entreprise, elle couvre tous les usages de toute la population planétaire. Elle n’est pas vertueuse en soi ni naturellement facteur de compétitivité. Elle fait naître de nouveaux acteurs mais en détruit d’autres, et transforme aussi bien la vie quotidienne que le monde des institutions, celui des affaires, de la vie publique, des structures comme l’enseignement et la santé. Elle bouleverse les avantages concurrentiels classiques en accélérant les transformations et en donnant à tous les mêmes armes pour comprendre et agir sur le monde.

Nous sommes désormais entrés dans l’ère de la globalisation numérique, qui tourne la page de l’ère informatique de 1945 à 2000. La donne a changé, les problèmes et les solutions aussi. Il ne s'agit plus de baisser le coût du budget informatique mais d'accroître la puissance de la transformation numérique en développant nouveaux services et nouveaux produits et en inventant des processus nouveaux de conception, de production et de distribution.

De façon très concrète, la transformation numérique imprime ses nouveaux modes de fonctionnement dans toutes les phases de la vie des entreprises. Il ne s’agit plus de mécaniser des processus opérationnels classiques. On peut considérer que ce cycle s'est achevé avec le traitement du bug de l'an 2000 et la vague de déploiement des ERP. Actant la transformation du web, il s'agit maintenant  de transcender les organisations et les rôles des acteurs de l’entreprise pour porter l’information pertinente, en temps réel, sous forme numérique, là et quand se prennent les décisions, et donc à tous les niveaux de l'entreprise.

Concevoir

La conception des produits répond à une évolution des logiques économiques fortes. En période de rareté relative, c’est la capacité technique qui va pousser les produits vers le marché. En période d’abondance, toujours relative, ce sont la reconnaissance, la connivence, les valeurs qui vont emporter la décision du client. Nous passons des modèles classiques du techno-push et du marketing-pull au co-design. Dans le techno- push, l’entreprise produit ce qu’elle sait fabriquer, issu de ses compétences techniques et de ses laboratoires de recherche-développement et sans vraiment se soucier de la demande du client final. La plupart des innovations sont nées par ce puissant mécanisme qui a su faire pénétrer des produits de plus en plus performants dans les entreprises et auprès des ménages. Les trente glorieuses ont été alimentées en mode techno-push, la population absorbant avec délice les innovations qui lui changeait la vie.

Lorsque la demande se ralentit, que les besoins primaires sont satisfaits c’est le département marketing qui prend le relais en affinant la demande, en segmentant les attentes des consommateurs, en diversifiant les emballages et la communication.  Ce « marketing pull » est à l’origine de la diversification extrême des gammes de voitures ou de yaourts… L’offre devient tellement fragmentée qu’elle en est souvent illisible et on pratique alors par essai/erreur en saturant le marché et en abandonnant les références inactives. Cette complexité n’est pas sans conséquence industrielle et logistiques.

Dans les deux modèles l’entreprise pilote le processus de conception  à son propre rythme et en fonction de ses propres impératifs de calendrier.

Le co-design, ou ingénierie  concourante,  est un processus directement issu de la nouvelle capacité des clients et fournisseurs à communiquer de façon numérique sur une base continue. Le co-design permet de collaborer en temps réel sur les spécifications et le design de l’objet à concevoir -produit ou service- en accélérant par le parallélisme les phases classiques du mode projet, traditionnellement séquentiel. Les arbitrages se font à partir de l’image du produit final qui s’affine tout au long du processus, la communication entre les acteurs, souvent distants, se faisant par des outils de management collaboratif. La maquette numérique est au cœur de ce mécanisme, chaque acteur se voyant attribuer une responsabilité dans la conception de sous-ensembles qui s’intègrent au fur et à mesure dans le produit final. La démonstration de l’efficacité de ce processus a été prouvée par la brillante conception du triréacteur d’affaires de Dassault Aviation, le Falcon 7X. 

P3070017_200 Immersion dans la maquette du cockpit du Falcon 7X image Dassault Aviation


Non seulement les délais de conception ont été réduits à quatre ans pour un appareil entièrement nouveau, mais le premier appareil produit a pu être livré à un client avec des spécifications de qualité nominales.

Produire

Produire dans l’ère numérique c’est bien évidemment s’adapter en temps réel à la  demande par une analyse continue de l’évolution de la demande finale, des stocks et des encours de production. Cet exercice est sous-tendu par la capacité de gérer les approvisionnements en flux tendu grâce à une logistique précise. Passer de la conception numérique à la maquette numérique puis au  process numérique devient naturel grâce aux outils de PLM (« product life management ») qui permet de rassembler dans un référentiel unique l’ensemble des informations nécessaires à la conception, à l’évolution et à la production. Selon Dassault pour son 7X la conception entièrement numérique  a permis des gains considérables dans les phases d'industrialisation et de production : élimination des retouches et problèmes de fabrication, qualité maximale atteinte dès le premier appareil, temps d'assemblage divisé par deux, outillage de production réduit de plus de 50%.

Dans l'automobile, l'utilisation de la maquette numérique tout au long de la vie du produit permet par exemple de produire tous les documents marketing et de mettre en ligne sur les sites des constructeurs l'image numérique des "vrais" véhicules choisis par le client.

Cette logique s’applique également aux produits dont toute la chaîne de conception est numérique, qu’ils adoptent une forme matérielle (le journal papier) ou immatérielle (l’image du même journal sur internet). Cette continuité protéiforme qui conduit d’ailleurs à remettre en cause l’opposition duale matériel/immatériel s’applique à de nombreux produits comme par exemple un prêt bancaire ou un voyage où la chaîne de conception et de décision purement numérique s’incarne dans une réalité physique. L'utilisation tout au long de la chaîne de valeur de messages électroniques standards adaptés au monde de l'internet apporte une efficacité considérable dans le traitement des informations de commande, de gestion, d'approvisionnement. Le programme TIC & PME 2010, lancé en 2005, a ainsi permis a plusieurs filières professionnelles de repenser leur mode de fonctionnement de façon efficace et cohérente et en allégeant leurs coûts d'intermédiation. Ces outils permettent un gain de temps et d’efficacité considérables par rapport aux circuits fragmentés de décision. Leur mise en œuvre est de plus en plus simple et accessible, même aux petites entreprises.

Distribuer

Le monde de la distribution est régulièrement transformé par les innovations techniques. Rassembler en un lieu unique le maximum de références a été le long cheminement du progrès de la distribution destinée au consommateur final.  L’hypermarché et le centre commercial marquent l’apogée de cette révolution de la distribution. Mais ce modèle est rendu vulnérable par le développement du commerce en ligne qui apporte un choix infini, beaucoup plus large que n’importe quelle structure physique. Le commerce électronique rend également l’acte d’achat mieux maîtrisé par le consommateur qui dispose de toutes les informations qui lui paraissent nécessaires pour effectuer un choix informé mais également du temps et du recul nécessaire pour prendre la meilleure décision. Le phénomène dit de « longue traîne » permet d’accéder à une offre très large collant aux attentes les plus spécifiques avec un coût de recherche minimale. Ceci offre aussi la possibilité à des producteurs pointus de mettre en marché leurs produits à l’échelle planétaire en limitant leurs frais commerciaux. eBay est devenu ainsi un canal commercial à part entière.  La progression continue du commerce en ligne touche désormais toutes les catégories de la population. Selon le dernier rapport de la FEVAD (février 2010), le commerce en ligne a continué de progresser  en 2009 pour atteindre 25 milliards d’euros dépensés sur le net soit une hausse de 26%. Plus de 24 millions de Français achètent sur internet  et 64 000 sites marchands sont disponibles, soit: + 35% en un an. 28% des entreprises françaises achètent en ligne pour leurs besoins propres.

Longtemps handicapées par une moindre propension que leurs compétiteurs à maîtriser l’exportation lointaine, les PME françaises ont en mains avec le commerce électronique sur le web un outil à la fois accessible et surpuissant qui leur permet de rivaliser sans complexe. Il ne s'agit plus aujourd'hui dans la compétition numérique mondiale de délocaliser le coût de main-d'oeuvre mais de relocaliser le cerveau-d'oeuvre.

La numérisation ne consiste plus à plaquer des solutions nouvelles sur des situations anciennes, mais à repenser l’ensemble du cycle de vie des produits à partir des processus numériques. Cette réflexion doit conduire à redonner à tous les acteurs, internes et externes, une responsabilité réelle sur la production et la livraison des services et le contact client. Pour cela, le management nouveau doit s’appuyer sur la compétence de chacun dans une logique de confiance dans le cadre d’une cohérence globale contrôlée de façon pertinente, c’est à dire non intrusive et non réductrice. 

Il est temps de comprendre que l'économie numérique n'est pas une économie classique, avec ses cycles, ses modèles de management et sa culture du temps, sur laquelle on a greffé quelques ordinateurs et quelques processus informatisés. C'est une économie qui fait de l'information et de la connaissance les matières premières de l'innovation.

A lire une brève et brillante synthèse : "Wired for innovation : how information technology is reshaping the economy", Erik Brynjolfsson, Adam Saunders, MIT Press,, 2010


L'accélération de la numérisation de la société

Il est souvent difficile de mesurer concrètement la vitesse de transformation de notre vie quotidienne à travers les usages des technologies de l'information. Toute innovation, dès lors qu'elle est plébiscitée par le public - et c'est bien le seul critère qui permet de déterminer qu'il s'agit  d'une innovation - s'intègre naturellement dans le corps social et ne devient plus sujet ni d'émerveillement ni d'interrogation. 

La loi de Moore nous a conduit ainsi au cours des quarante dernières années à absorber dans notre environnement familier des objets dont la baisse de prix et la facilité d'usage ont totalement dissipé les barrières d'adoption par le plus grand nombre. 

Deux puissants vecteurs ont ainsi récemment façonné la transformation numérique de la société : la téléphonie mobile et le web. Ils ont encore pendant la décennie 2000 opéré séparément. Ils se confondent désormais rendant la transformation encore plus profonde et plus rapide. Ce qui frappe dans cette phase de mutation numérique de notre société n'est plus tant la vitesse d'intégration et de baisse de prix que le caractère cumulatif, additif, des innovations qui transforment les objets par une sophistication croissante des fonctionnalités mais surtout refaçonnent en continu les usages. Ce n'est plus la sphère professionnelle qui est le cadre naturel de cette évolution comme aux débuts de l'informatisation, mais la sphère privée où se développent les innovations qui ensuite vont se propager dans le monde professionnel.

Teppaz_ballad                                        Teppaz Ballad, fin des années soixante
 

La transformation s’accélère

Pour les sceptiques, dont nombre d'informaticiens, qui pouvaient juger ces évolutions marginales car elles semblaient se cantonner au monde de la consommation,  il faut se replonger dans l’histoire de la dernière décennie pour mesurer à quel point notre environnement quotidien a été transformé de façon continue par ces objets. 

La plupart des outils et services  que nous utilisons maintenant ont moins de dix ans. Notre perception du monde et notre capacité d’interaction ont été transformés par l’omniprésence de ces outils. Or la décennie 2010 sera encore plus féconde en bouleversements sur les marchés et les comportements.

La téléphonie mobile n’existe que depuis  le milieu des années quatre vingt-dix. En 1991 le ratio du nombre de  lignes téléphoniques fixes par rapport aux abonnements mobiles était de 34 pour 1. C’est en  2003 que le nombre d’abonnements mobiles a dépassé celui des lignes fixes. En 2009, le ratio est de 3 pour un. Il y a actuellement 4,6 milliards d’utilisateurs de téléphones mobiles dans le monde. Ce qui était un objet réservé à une minorité de privilégiés à la fin des années quatre vingt est devenu l’objet industriel  le plus banal de la planète faisant ainsi de la mobilité le moteur de la transformation de la société.

029052009123448000000cell_africa
Photo : Jeune Afrique 550 millions de téléphones mobiles en Afrique en 2013

Divers smartphones ont été proposés au marché sans grand succès à partir de 2002 mais c’est l’iPhone introduit le 29 juin 2007 qui a déclenché le développement du marché et accéléré le rythme d’innovations de l’industrie. En 2009, l’iPhone est à l’origine de 55% de l’ensemble du  trafic mobile sur internet aux Etats-Unis. Les lecteurs MP3 existent depuis 1998; l’iPod a été introduit en Octobre 2001 et 220 millions ont été vendus, soit 70% du marché. 54% des téléphones des européens sont connectés au réseau 3G. On estime que près de 250 millions de smartphones seront vendus dans le monde en 2010 pour un chiffre d’affaires égal en valeur aux 800 millions de téléphones mobiles classiques.

Le DVD est apparu en 1997 rapidement  relayé en 2002 par  la haute définition sous deux formats concurrents ( HD-DVD et Blu-ray), l‘industrie choisissant Blu-ray en 2008 et ouvrant la voie à l’essor mondial de ce standard.

Le premier téléviseur à écran plat a été lancé aux USA par Philips en 1997 pour 15000 $ pour 42  pouces. Le prix actuel est de 1000 $.  A partir de 2004, les prix ont été divisés par deux chaque année supprimant totalement du marché les écrans cathodiques. mais plus encore dédier un grand écran de salon à la seule télévision n'apparaît plus suffisant comme motivation d'achat. L'écran de salon devient "hub" d'images numériques en se connectant directement au web.

Le système de GPS (Global Positionning Satellite) date de trente ans, mais c’est à partir de 2004 que les PND (personal navigation device) ont commencé à se démocratiser après que le gouvernement fédéral américain ait décidé de ramener la précision de localisation à 15 mètres en 2000,  puis à 3 mètres grâce à une innovation technique (WAAS).

Même le plus ancien et le plus abouti des objets de savoir, le livre, est après beaucoup de tentatives infructueuses gagné par la numérisation. Le premier eBook doté  d’encre électronique ( e-ink) est apparu en 2004 (Sony Librié) mais c’est le Kindle d’Amazon grâce à sa bibliothèque qui a fait réellement naître le marché  fin 2007. Il est vraisembable que l’iPad d’Apple  amplifiera le phénomène et déjà Amazon a ouvert sa bibliothèque numérique à l'iPad.

Et déjà, au cours de cette décennie, un cycle complet d'émergence de nouveaux produits et d'érosion rapide de part de marché s'est engagé pour les outils de géo-localisation. Cette fonctionnalité s'est facilement intégrée dans les smartphones, Nokia, maintenant propriétaire de Navtek en faisant un élément majeur de son offre OVI, et disposer d'un outil dédié n'apparaît plus, dans la majorité des usages, justifié. Bien entendu Google, fort de son avance, en fait également un point fort d'Android... Aussi les fabricants de systèmes dédiés à la seule géo-localisation (Garmin, Tom-Tom...), qui ont connu une croissance exceptionnelle entre 2005 et 2008, font face à la chute des prix et des volumes et doivent innover rapidement pour apporter un avantage concurrentiel majeur.

Que réservent les prochaines années ?

090103071841512102947053Il est clair que l'innovation va continuer à se déchaîner parce que les prix des composants vont continuer à baisser et que l'appétit des consommateurs de la planète pour des outils simples, efficaces, ludiques n'est pas prêt de se ralentir. Un des moteurs majeurs de transformation viendra des progrès des logiciels, dans la brèche ouverte par les Apps d'Apple, modèle maintenant imité par tous. 

Nous aurons à notre portée et pour un faible coût plus d'outils pratiques (et moins d'objets différents) pour gérer efficacement tous les éléments de la vie quotidienne. C'est probablement dans les systèmes de paiement que se développeront de nouvelles applications à l'instar du Japon et de la Corée, mais aussi de l'Afrique, où le téléphone est devenu le porte-monnaie courant. Bien entendu c'est le couplage des applications et des potentiels techniques qui fera naître de nouveaux usages. Ainsi le couplage "géolocalisation + réalité augmentée + reconnaissance d'images + paiement en ligne + identification forte" offre un potentiel d'usages tout à fait ouvert.


Genève 2010, une floraison de véhicules aux motorisations innovantes

Genève marque le début de la saison printanière propice au renouvellement des véhicules. C’est un salon prisé, car les grands constructeurs mondiaux s’y retrouvent à armes égales sur un marché sans producteur local et exigeant en termes de prestations.

La quatre-vingtième édition du Salon de Genève est comme d’habitude riche en premières mondiales. Car cette édition marque la volonté de l’industrie automobile mondiale de se renouveler pour séduire à nouveau une clientèle rétive face à l’achat automobile car soucieuse  au moins autant de son budget que de respect de l’environnement.  On y trouve des voitures d’exception, mais surtout une gamme très étendue de véhicules aux modes de propulsions alternatives, électrique et hybride.

Paris Austerlitz Mars 2007 22  La présence majestueuse d’une Hispano Suiza 1928 sur le stand de la marque qui tente son renouveau avec une supercar, la Granturismo, rappelle à quel point le monde automobile a changé et s’apprête à nouveau à vivre une profonde mutation. Mais, au cœur de la tourmente qui la frappe depuis plusieurs années, l’industrie automobile ne peut oublier qu’elle doit répondre à des motivations profondément contradictoires. Cette injonction paradoxale du marché touche toutes les marques, même les plus populaires, au risque de les conduire au grand écart.

L’automobile est avant tout un outil pratique et efficace pour se déplacer, encore sans concurrence dans les zones mal desservies par les  transports collectifs. Elle doit alors se faire oublier par sa fiabilité, la modicité de son budget d’entretien et de fonctionnement et sa valeur de revente.  Le rapport prix/prestation est un juge de paix rendu encore plus exigeant à l’ère du web où toutes les informations sont facilement accessibles pour faire, comme défaire, les réputations.

Mais la voiture est aussi le plus accessible des objets de rêve pour lesquels les considérations pratiques comme le budget se  retrouvent relégués au dernier rang des motivations. Elitiste, rare et extrêmement chère comme cette magnifique Hispano,  la voiture  d’exception survit à toutes les crises et fait encore rêver comme en témoigne la foule compacte qui entourait les stands voisins de Ferrari et de Maserati.  Bugatti, et Koenigsegg exhibent leurs supercars, la Veyron pour la filiale de Volkswagen et son moteur 16 cylindres en W de 1001 cv, et l’Agera, plus « modeste » avec son V8  de 910 cv, aux puissances exotiques en période de restriction budgétaire.  

Paris Austerlitz Mars 2007 72
Paris Austerlitz Mars 2007 74
  

Genève accueille aussi les préparateurs qui adorent retravailler les voitures de haut de gamme pour les rendre encore plus exceptionnelles, le superlatif n’ayant pas de limite dans le monde des passionnés fortunés. Une « simple » Porsche Panamera se retrouve ainsi méconnaissable après être passée entre les mains de ces spécialistes de body building parfois plus soucieux de l’effet que de l’esthétique. Le capot plongeant et démesuré de l’Aston Martin Rapide fait à côté figure de sculpture minimaliste… Plus modestement, l’automobile plaisir se décline en coupés sportifs chez Renault avec la Wind, sur base Twingo, deux places sympathique mais pas destinée à accumuler volumes et marges dont a besoin la marque, ou la Megane coupé, de même que des Renault Gordini bleu et blanches  un peu décalées dans l’humeur actuelle.  La réussie Laguna coupé n’a été vendue en 2009 qu’à quelques milliers d'exemplaires. En revanche le 4x4 Dacia Duster risque de trouver grâce à son esthétique avenante, à son caractère pratique et à son prix très compétitif un vrai succès populaire dans le monde. 

Les constructeurs veulent aussi montrer à Genève dans un pays sensible à l’environnement qu’ils prennent très au sérieux le message du réchauffement climatique.  Chacun travaille à sa manière à  la réduction de l’impact de l’automobile sur l’environnement. Plus  légères, plus compactes, les voitures modernes quelque soit leur mode de propulsion se veulent moins agressive envers la planète. Depuis deux ans chacun a eu le temps de revoir sa copie. 

Toujours plus de modèles électriques

L’électrique reste très attendu, mais l’impatience de voir ses véhicules de rupture vraiment disponibles commence à indisposer. Il n’est plus sûr que le désir s’accroisse au cours de cette longue attente. La Bolloré est encore là comme en 2009, et on ne prend plus les  commandes sur le stand cette fois. Renault continue à montrer ses concepts cars et à illustrer  son système de remplacement rapide de batteries, mais on aimerait en voir plus que ces promesses qui commencent à dater. Ce sera sûrement pour le Mondial de l’automobile à Paris en octobre. Le groupe PSA a joué à son éternel rival de Boulogne le bon tour de mettre sur le marché ses deux voitures électriques dès l’automne 2010…  en les empruntant à son allié Mitsubishi. Smart présente à nouveau sa Smart électrique, prête à être lancée officiellement en 2010.

Pour ces pionniers, la bonne nouvelle est probablement le ralliement  de plusieurs constructeurs majeurs au véhicule électrique. Ainsi Audi et BMW entrent dans le camp des constructeurs électriques. La nouvelle A1 est présentée en version e-tron avec un moteur électrique de 102 cv, doté de 50 km d’autonomie, auquel est associé un moteur thermique rotatif Wankel de 254 cm3 destiné à recharger les batteries, système de prolongation d’autonomie qui permet de simplifier l’architecture du véhicule par rapport à la solution hybride. BMW présente son concept de Serie 1 ActiveE, de 170cv et 160 km d’autonomie, et Ford la BEV électrique. Volkswagen a annoncé son intention d’être présent sur ce marché en 2013 et présente sous la marque Seat son concept IBe, proche de l’Audi A1.

Nissan, partenaire de Renault, présente sa Leaf qui va être commercialisée au Japon dès la mi-2010. Ce véhicule illustre également la capacité de connectivité qui va être une des caractéristiques des véhicules électriques.

Paris Austerlitz Mars 2007 40
Nissan Leaf 

Paris Austerlitz Mars 2007 37
 

Un nouveau venu, issu d’Afrique du Sud, Optimal Energy, propose sa Joule pour 2012 alors que BYD fait sa première apparition à Genève avec plusieurs véhicules dont l’électrique E6 et un modèle hybride la F3 DM (pour Dual Mode). On peut également voir sur ce salon très attentif aux nouvelles motorisations une série de petits véhicules : la Think électrique de 3,14 m et 34 kW, une Subaru micro-car plug-in, la Stella, la Heuliez Mia, 3 places et  2,8 m aux batteries Lithium Phosphate de fer vendue 13000 € ainsi que la Lumeneo Smera, quatre roues qui avec une suspension originale permettant au véhicule de s'incliner dans les virages,  semble prête à la commercialisation.

Paris Austerlitz Mars 2007 76
 

La contre-offensive des hybrides

S’il fallait désigner l’Oscar du Salon de Genève 2010, il irait sans aucun doute à la motorisation hybride, omniprésente du très haut de gamme aux voitures moyennes. Tous les constructeurs intègrent cette solution à leur offre. Toyota et Honda, les pionniers, font aujourd’hui face à une concurrence très active notamment des constructeurs allemands, pressés par la réglementation européenne d’atteindre le taux moyen d’émission de GES sur l’ensemble de leur gamme de 130 g/km CO2 en 2015. Si Toyota fait descendre en gamme son système hybride en l’installant sur la Auris et sur la Lexus CT 200h, compact de 4,32 m. Honda propose un séduisant coupé hybride, le CR-Z. Porsche annonce un spider hybride novateur, la Porsche 918 Spyder, et installe cette motorisation sur son légendaire Cayenne. Audi annonce son Q5 hybride pour la fin 2010. Volkswagen se convertit également à l’hybride sur son Touareg. BMW installe cette solution, dite Active Hybrid, sur son X6, sa série 7 et maintenant la série 5, annoncée pour 2011. Daimler présente un très intéressant concept, la F800, hybride et à l’électronique très développée dans la droite ligne de la S et de la E actuelles.

Paris Austerlitz Mars 2007 1
La Mercedes E 300 hybride, disponible en 2011, affiche le très impressionnant score de 109 g/km CO2 et vient épauler la classe S 400 Hybrid. L’Audi A8 Hybrid est la réponse d’Audi aux motorisations hybrides plus puissantes de ses rivaux dans ce segment. Elle propose un simple quatre cylindres de 211 cv à injection directe et un moteur électrique de 45 cv permettant 144 g/km CO2.

Si Renault s’en tient encore officiellement à son credo du tout-électrique, on note assez discrètement sur le stand Infiniti, la marque de luxe de son allié Nissan, un intéressant groupe moto-propulseur hybride à double embrayage qui sera installé sur l’Infiniti M en 2011. En revanche le pari de l’hybride est très ouvertement présent dans le groupe PSA qui annonce son 3008 Hybrid4 et son coupé SR1 hybride.

Le moteur thermique classique faite de la résistance

Enfin, le moteur à combustion interne n’a pas dit son dernier mot. Dans la droite ligne des travaux de BMW sur l’optimisation de toute sa gamme avec le concept Efficient Dynamics, Daimler présente sa réponse Blue Efficiency et Volkswagen BlueMotion. Le but tous les cas est de réduire la consommation sans dégrader les performances en travaillant l’aérodynamisme, les frottements, le roulement et l’optimisation du GMP. Ce travail donne des résultats remarquables chez BMW avec une gamme, siglée Efficient Dynamics qui sait se cantonner dans la zone des 5 l/100. Chaque constructeur explore des voies nouvelles pour optimiser le fonctionnement du moteur thermique, notamment l'injection directe essence, et réduire les émissions pour préparer la prochaine norme Euro 6 comme Renault qui présente un piège à NOX. Le but de chaque constructeur est d'inscrire dans sa gamme des véhicules à motorisation classique qui présente des émissions de CO2 inférieures au seuil symbolique de 100g/km ce qu'atteignent aujourd'hui les voitures les plus courantes comme les Clio ou Golf.