Previous month:
février 2009
Next month:
avril 2009

Genève en berne

Le salon de Genève qui se tient à la fin de l’hiver, au moment où se réveille l’envie de nouvelle voiture,  a la réputation d’être un salon joyeux apprécié des professionnels comme du grand public. Les lieux y concourent. La vaste halle de Palexpo offre un cadre commode et très lisible où se concentre toute la production mondiale accessible sur le marché suisse. C’est dire qu’il n’y manque pas beaucoup de constructeurs, car même ceux qui ont boudé Detroit en janvier seront là. Pays non producteur d’automobile, la Suisse jouit d’un niveau de vie élevé associé à un goût prononcé pour les belles voitures.  Le marché y est donc très actif, la concurrence intense et sans a priori national, contrairement aux autres grands salons, et les annonces mondiales fréquentes. C’est dire que le salon de Genève est une fête pour l’automobile et ses amateurs. Doit-on dire « était » ?

Le marché continue à se dérober

Au moment où l’industrie mondiale se prépare à l’inimaginable, un marché en baisse de 20%, passant de 70 millions de véhicules à 55 millions en 2009, le cœur n’est pas à la fête chez les constructeurs qui ont perdu leurs repères, abandonné leurs plans et n’osent même plus s’avancer à émettre des prévisions. La baisse des volumes est confirmée de mois en mois et les chiffres de février annoncent des baisses spectaculaires. Le marché américain enregistre le 16e mois consécutif de baisse avec 41% ce qui représente le plus bas volume de voitures vendues depuis 1981. GM chute de 52%. Alors que ses concurrents japonais pourraient se satisfaire d’une baisse de 35% en moyenne. En Europe, l’effondrement du marché espagnol de près de 50 % et du marché britannique de 25% font presque envier la situation de la France qui ne recule que de 13%. Seule l’Allemagne qui a mis en place une prime à la casse affiche une croissance dopée à 22%. Néanmoins les curieux étaient nombreux à arpenter en famille les allées du Salon. Ils n’avaient aucune raison d’être déçus. L’abondance de nouveautés, la présence de voitures d’exception génèrent toujours autant d’intérêt. Mais de là à passer à l’acte d’achat il y a un pas critique que même les suisses ont de la peine à franchir.

Pourtant les constructeurs n’ont pas lésiné sur les moyens pour ce salon qui de prime abord sauvait les apparences. Le théâtre de l’automobile répétait encore ses classiques thermiques. Mais le off alternatif commence, timidement, à exister…

Le classicisme éprouvé

Les grands stands étaient là et déployaient leurs attraits. Il faut accorder une mention spéciale pour le groupe Volkswagen qui,  il est vrai, joue sur la diversité de ses marques qui  arboraient toute pour l’occasion la même livrée blanche. Audi, un des seuls constructeurs mondiaux à encore croître et  gagner sérieusement de l’argent, déclinait se nouvelle A4 en break et en version Allroad quatro, mais aussi ses classiques A6 et A8 dont le succès agace ses concurrents allemands.

Volkswagen présente sa Polo, cinquième opus, mini Golf réussie, et les petites marques du Groupe, jouent sur leur spécificité à partir des mêmes bases roulantes et des mêmes mécaniques, Skoda avec ses prix compétitifs et Seat avec sa sportivité agressive toute latine. Sur chaque stand on insiste, avec plus ou moins de conviction, sur les efforts réalisés en matière de consommation grâce à l’optimisation des techniques classiques, turbo diesels ou injection directe essence, allégement, améliorations du Cx, recherche de l’efficacité  des pneumatiques…

Renault avance une gamme jeune en continuant à décliner son cœur historique, la Mégane, désormais livrée en version break, l’Estate, et rejointe par le nouveau Scenic d’emblée présenté en versions 5 et 7 places. La Clio, autre modèle phare, prend un coup de jeune et Kangoo reçoit une version ludique, et créative avec une large porte arrière et quatre sièges,  le BeBop dont les couleurs gaies, ne devraient pas toutefois suffire à faire de grands volumes en tant de crise,  à l’instar de la très belle et ingénieuse Coupé Laguna avec ses quatre roues directrices. La gamme de motorisations n’est pas révolutionnaire mais le constructeur a en revanche annoncé un effort massif de réduction des consommations avec une gamme de nouveaux moteurs et donc de l’émission de CO2. Renault vise une réduction moyenne de 20 g/km d'émission de CO2 en 2012 et même passer au dessous de 100g pour ses petits modèles avec des moteurs de 0,9 l à 1,2 l de cylindrée.

PSA poursuit une offensive engagée il y a plusieurs années avec un grand nombre de modèles qui comblent toutes les niches du marché, tant chez Peugeot avec le crossover 3008,  que chez Citröen avec la gamme plus luxueuse DS, et la déclinaison du succès Picasso dans un C3 résolument « fun ». Mais les innovations de motorisation se font attendre, ces modèles ayant été lancés bien avant la crise il y au moins 3 ans. La solution hybride diesel à laquelle croit PSA sera disponible sur la 3008 en 2011.

Le groupe Toyota exhibait l’installation hybride qui propulse son 4x4 Lexus 450h,lequel totalise 295 ch de puissance entre son moteur essence V6 et son moteur électrique. La machine est impressionnante et parvient à descendre à 148 g de CO2. Enfin BMW continue l’expansion de sa gamme avec de troublants mélanges de style inaugurés avec la X6, cette fois sous la forme d’une Serie 5. Mercedes continue imperturbablement à décliner des véhicules classiques, nourris de technologie, aux lignes un peu plus agressives comme la nouvelle serie E, et annonce fièrement engager une révision de ses consommations avec son approche Blue Line dont les résultats sont encore bien loin des 130 g de CO2 au km prévus pour 2015…

Ma supercar ne connaît pas la crise, vraiment ?

Alors que les milliardaires de la planète ont perdu 50 % de leur fortune selon le dernier classement de Forbes, il reste quelques véhicules d’exception qui se présentent sans complexe. Certes la Porsche Panamera n’était pas visible, et le Cayenne se démocratise en osant le diesel, mais Mercedes présentait sa gigantesque Maybach Zeppelin, dont le nom évoquant les années trente est déjà un symbole inquiétant. Animée par un V12 bi-turbo qui délivre un couple de 1000 Nm, la voiture est commercialisée pour un peu moins de 500000 €.  Aston Martin présente son concept  4x4 Lagonda et sa sculpturale One-77 (77 exemplaires seront produits ce qui sera suffisant pour satisfaire au moins 7 équipes de football) , avec son V12 de 700 cv, mise à prix à 2 millions$, et Lamborghini sa LP 670-4 SV avec ses 670 ch et 342 km/h... Rêves provocateurs en ces temps de crise climatique et de crise financière, ces objets roulants attiraient sûrement plus les curieux que les clients, car même le marché très haut de gamme est en crise. C’est peut-être pour cela que BMW ose présenter une mini-Rolls Royce de seulement 5,4 m de long, encore sous forme de concept car « 200EX », mais destinée à être vendue en 2010? Comme la haute couture, ces voitures d’exception ont un marché, même limité qui suffit pour incarner dans l’inconscient l’automobile mythique.

Quelles vraies innovations ?

Il faut admettre que si le stand de l’association suisse pour les éco-voitures occupait une place centrale, l’offre est encore pauvre mais les annonces abondantes. Il fallait chercher du côté d’Opel qui présentait pour la première fois en Europe la déclinaison du modèle de véhicule électrique sur lequel mise tant la maison mère GM, la Volt. La voiture, de taille respectable (4,4m), est belle, au capot plongeant, et bien dessinée, comme sa planche de bord entièrement numérique. Ampera La motorisation est originale puisqu’au moteur électrique de 110 kW et ses batteries installées en T dans le châssis, lui conférant une autonomie annoncée de 60 km,  est associé un moteur, essence ou éthanol, de 1,4 l,  qui joue le rôle de générateur et permet de délivrer le conducteur de l’angoisse de la panne de charge en offrant une autonomie de 500 km. Cette Opel  Ampera devrait, si tout va bien, être disponible en 2011 sur le marché européen. Néanmoins la presse suisse pouvait qualifier cette voiture de « chef d’œuvre en péril » compte tenu des incertitudes qui entourent le sort de GM comme d’Opel.

Honda présentait pour la première fois son anti-Prius, l’Insight, voiture hybride quatre places conçue pour être moins chère que la Prius sans sacrifier l’essentiel pour démocratiser le marché. Plutôt réussie avec sa ligne plongeante et son arrière presque vertical, qui améliorant le Cx semble devoir être la marque visuelle des éco-cars, l’Insight devrait être vendue moins de 20000 € sur le marché français cet été. L’Insight était présentée aux côtés de la mythique Clarity, voiture électrique alimentée par une pile à combustible à hydrogène. Elle sera disponible  en Californie pour 600$ pour trois ans.

Clarity

Mitsubishi comme Toyota annoncent des mini-voitures qui pourront être électrifiées, la Mitsubishi MiEV et l’ingénieuse Toyota iQ qui même en version essence n’émet que 99 g de CO2 avec ses trois vraies places sur moins de 3 m de long. La MIEV électrique, iMiEV sera vendue au japon  cet été avec des batteris lithium ion et une autonomie de 160 km. Elle pourrait être vendue en Europe sous la arque Peugeot ; Citons, pour l’anecdote, le travail effectué par le préparateur  allemand Brabus sur le coupé sportif électrique Tesla, doté d’un générateur de sons pour cacher, comble d’ironie, le silence de son moteur électrique mais qui pourrait se révéler une solution intéressante pour la sécurité des piétons en milieu urbain.

Renault qui s’est engagé résolument dans le développement de la voiture électrique montrait dans une présentation très pédagogique son concept car ZE, pour zéro émission, voiture entièrement électrique dotée d’un moteur de 70 kW, et conçue pour économiser la consommation de courant par une isolation poussée, climatisation ou chauffage consommant jusqu’à 40% de la capacité embarquée et diminuant d’autant l’autonomie.

RenaultBranché

Mais ces annonces de grands groupes ne doivent pas dissimuler la pauvreté de l’offre réelle de voiture en rupture. C’est du côté de Bolloré Pininfarina qu’il faut aller chercher une solution réelle que l’on peut d’ores et déjà  réserver sur internet. Cette jolie berline de quatre places, bien conçue, distinctive et bien finie, sera louée 330 € par mois à partir de 2010. Elle est équipée de batteries originales, conçues par Bolloré avec la technologie solide LMP (lithium metal polymère). Une cadence de 10000 véhicules/an est envisagée. Il s’agit de la vraie première offre d’une voiture électrique répondant aux normes habituelles de l’automobile. Sa carrière commerciale sera pour les grands constructeurs un banc d’essai intéressant.

La bataille de la voiture électrique s’engage

Si le salon de Genève est pauvre en offre réelle, les annonces laissent augurer de violentes batailles sur ce marché émergent. D’ores et déjà la bataille de la voiture électrique s’engage sur la maîtrise des nouveaux éléments clefs de la valeur ajoutée que sont les batteries et les moteurs. Les constructeurs qui ne maîtrisent pas la nouvelle chaîne de traction doivent rapidement investir , à un moment particulièrement difficile pour eux, pour ne pas voir la valeur ajoutée leur échapper. Ils sont contraints de le faire en partenariat.

Volkswagen vient de conclure, le 12 février, un accord avec Toshiba portant sur le développement de moteurs électriques, d’équipements électroniques et de batteries à haute densité pour équiper ses futures voitures électriques appelées la New Small Family. VW entend devenir « le premier constructeur à proposer des solutions en série pour les véhicules électriques à zéro émission ». Toshiba a développé pour les batteries une technologie novatrice, la Super Charge Ion Battery, qui se recharge en quelques minutes. Aux Etats-Unis GM produira ses propres batteries lithium-ion avec une filiale du groupe coréen LG Chem. Le groupe Renault Nissan produira sa propre gamme de moteurs électriques et Nissan travaille intensément sur son projet de pile à combustible. Mais pour produire des batteries c’est avec NEC que Nissan s’est engagé en créant une filiale commune, Automotive Energy Supply ( AESC)  et Nissan va produire ses batteries dans ses propres usines au Japon et peut-être au Portugal.

Acheter maintenant ?

Que conclure ?  Le temps presse. Le marché mondial est dans l’attente de réponses nouvelles et séduisantes, mais aussi rassurantes, dont on observe quelques prémices. Mais il faut être lucide. On peut aujourd’hui sans risque ne pas différer indéfiniment le renouvèlement de son véhicule ancien en puisant dans une offre pléthorique et, il faut l’admettre, séduisante dans sa fidélité au moteur thermique qui rassure par ses performances éprouvées. Et en net progrès car les moteurs modernes peuvent propulser une berline moyenne pour moins de 5 l/100 soit environ 120 CO2/km. Les autres solutions, en dehors de quelques véhicules hybrides dont deux seulement réellement accessibles, restent encore aléatoires. On parle de 2011, voire 2012 pour voir sur le marché une offre significative de véhicules alternatifs, ce qui rend encore plus courageuse et louable l’ambition de Bolloré Pinifarina.Bolloré

 Mais le mouvement est en marche. Les sceptiques restent nombreux. Cela ne marchera jamais… autonomie trop faible, coûts trop élevés, infrastructure inexistante, les voitures électriques ou à hydrogène soulèvent auprès des professionnels plus de question que d’enthousiasme, ce qui est le propre des grandes ruptures technologiques plus subies que désirées. Le double effet de la crise économique et de la confirmation par les scientifiques des scénarios de réchauffement climatique les plus pessimistes ne peut qu’accélérer les réactions des constructeurs même s’il est très difficile de changer de modèle d’affaires et de cadre technique.

Aussi l’enjeu est politique : il est indispensable que soit formalisé un nouveau cadre d’action, stable, sur le plan des normes, de la fiscalité automobile, de l’utilisation en ville, du régime des assurances, des péages urbains, de la recyclabilité des nouvelles solutions. Ces mesures sont indispensables pour créer un climat de confiance pour les acheteurs. Beaucoup de questions sont ouvertes, beaucoup d’acteurs impliqués : ce nouveau monde est à inventer. Mais il reste à frapper l'imagination : quand l’inventif Bernie Ecclestone, qui cherche à innover comme à faire des économies, lancera son premier Grand Prix de Formule 1 réservé aux voitures électriques ou aux voitures à motorisation innovante, le scepticisme changera de camp. 


L’informatique du nuage : volatile ou solide ?

Il n’est pas de semaine où les medias n’évoquent, avec une certaine gourmandise, les pannes informatiques des grands réseaux.  Décidemment le web ne serait qu’un vaste coupe-gorge!  Les deux récentes défaillances de Google ont ainsi suscité quelques commentaires sarcastiques soulignant le fait que si le premier opérateur, et promoteur, mondial de l’informatique en réseau, ne parvenait  pas à obtenir une qualité de service irréprochable, on se demande bien qui pourrait atteindre l’objectif d’un service fiable et  continu. Même si la réalité de ces défaillances se révèle moins dramatique que ces annonces,  leur caractère planétaire frappe plus les esprits que les défaillances non moins réelles observées dans des informatiques internes.

Opportunité réelle ou marketing ?

Néanmoins la question de la fiabilité de l’informatique du nuage est pertinente au moment où toute l’industrie mondiale de l’informatique se demande si l’informatique du futur ne sera pas opérée dans des centres informatiques dédiés débitant « au compteur » les seules applications dont les entreprises ont besoin.

En effet, le modèle qui avait conduit dans les années soixante-dix  les industriels à équiper leurs clients de matériels et logiciels a été remis en cause de façon directe par internet. Avec le web, on dispose de toute l’information voulue en se branchant sur une simple prise ! Cette facilité, apparente, peut séduire plus d’un dirigeant qui s’interroge encore sur la nature des coûts de « son » informatique. Avoir un centre informatique propre, placé sous sa responsabilité soit directement, soit par contrat d’infogérance, semble donc aujourd’hui un modèle remis en question.  Disposer d’une « énergie informationnelle » livrée à la demande  sous forme de service intégrant logiciel et capacité flexible de traitement et de stockage répond mieux aux exigences de l’époque : se concentrer sur son métier, disposer d’un plus grande flexibilité, alléger ses couts en capital, ne conserver que les effectifs critiques qui correspondent à des compétences qui ne se trouvent pas aisément sur le marché …  Ce modèle qui a pris  le nom de « Cloud computing », informatique du nuage englobe le Saas (« Software as a Service »), qui est ce que voit l’utilisateur final lorsqu’il utilise un logiciel,  et l’exploitation proprement dite du matériel et des systèmes techniques.

S’il est acquis aujourd’hui que  les objets informatiques de l’internet des objets, nomades et furtifs, vont se dissoudre dans l’environnement, il ne faut pas croire que cette transformation peut aujourd’hui se faire sans centres informatiques. Les grands « ordinateurs », ou plus exactement les ensembles de processeurs et d’unités de stockage, qui assurent les traitements et le stockage de l’information conserveront une existence physique bien réelle même s’ils ont vocation à être mutualisés, délocalisés et à se fondre dans ce mystérieux nuage.

Certes cette évolution n’en est pour l’informatique des entreprises qu’à son origine. Certains pensent même que l’informatique du nuage[i] est un concept marketing de plus dans cette industrie connue pour  lancer régulièrement de nouveaux thèmes sur la scène médiatique avec inventivité et parfois peu de suite opérationnelle.

Quelle est la vérité de cette tendance ? Il n’y a pas encore consensus sur la pertinence du nuage. Il y a ceux qui considèrent que c’est un retour à la case départ du « service bureau » de la préhistoire de l’informatique où les ressources étaient si coûteuses qu’il fallait les partager en « time sharing ». Ce modèle remettrait les utilisateurs entre les mains des fournisseurs. Derrière le bruit, et la fureur de beaucoup d’acteurs, sont dénoncés une mystification habile des éditeurs de logiciels qui y trouveraient  une parade absolue contre la montée du logiciel libre aussi bien qu’une menace contre les libertés et la propriété des données. Richard Stallman dénonce ainsi dans l’informatique du nuage « une totale stupidité, une monstruosité marketing ».

Des promesses attractives

Toutefois, derrière les arguments habituels au microcosme informatique, il faut s’interroger sans préjugé sur la capacité de ce modèle à répondre au besoin infini d’information des entreprises . Or ce qui compte est bien l’aval, ce que l’utilisateur voit, et non l’amont. On ne vend pas la centrale électrique, mais l’usage que l’on fait du courant. Aussi, la structuration de la distribution de puissance informatique en « centrales informationnelles », sur le modèle énergétique, associées à la diversité et à la créativité des éditeurs de logiciels, apparaît fortement probable. L’informatique du nuage semble répondre à trois aspirations fondamentales jusqu’alors considérées comme utopiques :

- Exploiter la ressource informatique comme une source infinie ne nécessitant pas de délai, et par conséquent pas d’injection préalable de capital ni de compétences, et toujours parfaitement à jour, sans devoir organiser des montées de version ni des changements de matériels toujours complexes

- Eliminer le fastidieux et aléatoire travail initial de définition de besoins en mode projet, ces grands « projets informatiques » ayant  laissé une trace souvent douloureuse dans l’histoire de l’informatique d’entreprise comme dans la mémoire des dirigeants

- Disposer de la possibilité de ne payer que ce qu’on utilise vraiment, sur une base tarifaire claire, au moment où les coûts sont âprement discutés.

Cette approche implique une révision profonde des modèles de conception et de tarification aussi bien du matériel que du logiciel. Elle s’inscrit néanmoins dans l’évolution à long terme de l’informatique. Chaque étape du développement de l’informatique a en effet conduit à s’affranchir des contraintes matérielles et de développement de logiciel pour se concentrer sur l’usage en confiant à des acteurs spécialisés le soin de résoudre les problèmes complexes et sans valeur ajoutée pour l’utilisateur final. Cette lente marche en avant depuis les prouesses des pionniers, artisans passionnés  des premières applications, jusqu’au web actuel n’est pas un phénomène isolé dans l’histoire industrielle. Elle implique à terme une totale virtualisation de la ressource informationnelle. Et donc la disparition des informaticiens d’entreprise et de leurs machines tels qu’on les a connus jusqu’alors au profit d’opérateurs spécialisés, optimisant les ressources pour baisser les coûts et l’empreinte environnementale. Cette mutation n’est pas nouvelle et les informaticiens sauront orienter leurs talents vers la satisfaction d’autres besoins moins utilitaires.

Des changements rapides ?

Le changement peut en effet venir rapidement. L’offre est aujourd’hui de plus en plus abondante et compétitive. Elle touche toutes les fonctions facilement mutualisables, comme la messagerie, les outils de management matures comme la paye ou la comptabilité, mais aussi des outils nouveaux comme le CRM. Elle concerne bien entendu les petites entreprises nouvelles qui s’engagent d’emblée sur ce modèle, mais aussi les fonctions les plus courantes des entreprises de grande taille. Les acteurs issus de l’internet, comme Amazon, eBay, et bien sûr Google ont ouverts la voie d’abord pour faire face à leurs besoins propres avant de mettre leurs capacités et leurs compétences sur le marché. Les grands acteurs classiques comme Microsoft et IBM  sont également résolument engagés dans cette voie et investissent massivement dans leurs propres centres de données. Le ticket d’entrée pour un centre de cette dimension est de l’ordre de 100 millions $, ce qui impose une certaine surface financière et des capacités de commercialisation significatives.

L’argument économique paraît décisif dans un secteur industriel où les économies d’échelle  sont obtenues par la mise en commun de ressources - matériel, logiciel, bande passante, énergie –qui sont rarement optimisées à une échelle moindre. Si cette idée révulse encore beaucoup d’informaticiens, c’est qu’une grande part de leur talent réside dans l’utilisation optimale des capacités et qu’ils sont convaincus pouvoir mieux faire, à leur échelle, qu’un opérateur spécialisé, en collant strictement aux besoins de leur entreprise. Les leçons tirées de l’histoire industrielle, qui a toujours exploité les économies d’échelle dans les fonctions intenses en capital, ne leur laissent que peu de chances de poursuivre la démonstration de ce postulat. Il est clair que la crise financière va également inciter les entreprises a migrer leurs dépenses de capital vers les dépenses de fonctionnement. L’informatique du nuage représente une excellente opportunité, plus facile à actionner que le transfert d’actifs industriels par exemple.

Il faut aussi mentionner l’argument sécurité, largement mis en avant. Est-ce que confier ses données à un opérateur représente un risque de perte de disponibilité, et donc de fragilisation de l’exploitation, et de confidentialité, et donc, potentiellement, de compétitivité si des informations sont divulguées à un concurrent ? Par construction,  on peut imaginer qu’un professionnel qui construit un centre de traitement de données et d’applications  pour en faire commerce mettra un soin particulier à protéger cet actif contre les risques de panne comme de pénétration frauduleuse. Le client devra se prémunir de ces risques comme il le fait aujourd’hui en interne, notamment par le cryptage de ses données les plus sensibles et une politique de sécurité robuste, mais aussi par la voie contractuelle. La quête de la fiabilité dans l’industrie informatique est loin d’avoir atteint la rigueur aéronautique et il est certain que cette industrialisation ne peut que renforcer le caractère incontournable  des mesures de fiabilisation.

 

Néanmoins, si on se projette à plus long terme,  on peut également imaginer que la puissance de traitement des outils et des réseaux sera telle que cette concentration physique de moyens pourrait devenir inutile. En exploitant les surcapacités que cette puissance libérera dans chaque installation unitaire, on peut imaginer que la distribution de l’information puisse se faire avec un modèle massivement parallèle, le réseau exploitant de façon dynamique  toutes les capacités disponibles avec  les outils logiciels appropriés.

L’évolution de l’informatique se nourrit de mouvements contradictoires dans un ballet incessant entre centralisation et décentralisation. Il semble bien que la tendance naturelle des dix prochaines années au moins ne conduise à la  concentration de l’énergie informationnelle bouleversant de façon majeure le modèle encore artisanal qui prévaut depuis les années quatre-vingts.

 



[i][i] http://berkeleyclouds.blogspot.com/