Previous month:
novembre 2010
Next month:
février 2011

La fin du modèle unique de "Personal Computer"

Avec la brillante consécration des tablettes, dont plus de quatre-vingt modèles étaient présentés au Consumer Electronic  Show de Las Vegas, du 6 au 9 janvier 2011, le cauchemar des DSI confronté à la multiplication des plate-formes d’accès à l’information ne fait que s’amplifier. Naguère – et comme disait John Chambers, président de Cisco lors d’une table ronde du CES, « dans notre métier, deux ans c’est déjà de l’histoire » - le paysage était simple. Le choix des utilisateurs se limitait entre un PC fixe et un PC portable, et il fallait déjà effectuer des arbitrages parfois douloureux.

Les téléphones intelligents qui ont fait leur apparition avec le Blackberry ont déjà crée une brèche dans les politiques de standardisation des parcs  de PC et de téléphones des entreprises. Comme le Blackberry est entré dans l’entreprise par le haut, le comité de direction, le DSI a eu quelque peine à en proscrire, puis à en cantonner l’usage à une population privilégiée. L’émergence de l’iPhone en 2007 a accéléré le phénomène en ouvrant un nouveau front dans la guerre PC/Mac, celui de l’affrontement Blackberry/iPhone, en général  arbitré par l’acceptation de la coexistence des deux plate-formes aux mérites similaires.

Mais au-delà des flottes officielles de ces machines, dont il est difficile de cantonner l’usage à une population bien ciblée, les DSI ont dû se résoudre à accepter les pénétrations sauvages initiées par les utilisateurs se dotant eux-mêmes de ces objets, désormais abordables, et désireux de les connecter aux systèmes internes de l’entreprise. Puis, pour corser la difficulté,  est apparu Google et son ambitieux système Android poussé par plusieurs acteurs innovants comme Samsung et HTC, sans négliger la contre-offensive de Microsoft avec Windows Mobile 6.5.

L’apparition de la tablette d’Apple, en mai 2010, seulement, a de nouveau bousculé les lignes à peine stabilisées des responsables de parc informatique. Cette fois ce sont les directions métier qui ont rapidement compris l’intérêt de ces machines dans de nombreux usages  et l’ont rapidement imposé. Le nombre de tablettes offertes sur le marché va se multiplier, avec des sous-segments dans cette offre qui couvre déjà une large gamme de taille, de système d’exploitation (RIM vient d’y entrer avec sa Playbook) et donc d’usages.

Cette rapide transformation du paysage conduit aujourd’hui, à leur corps défendant, les DSI à devoir sinon intégrer, tout au moins prendre sérieusement en considération la coexistence de trois plate-formes distinctes, l’ordinateur personnel, le téléphone intelligent et la tablette, chacune pouvant fonctionner avec plusieurs systèmes d’exploitation, Windows, MacOS ou iOS, RIM, Android 3.0… Face à l’inventivité des industriels et aux désirs des utilisateurs, le rêve de la normalisation des systèmes d’exploitation et des matériels s’éloigne définitivement.

CES2011_TV Yahoo

D’autant plus que vient s’inviter à ce modèle une quatrième couche, le « grand écran » haute définition, naguère appelé téléviseur, dont l’usage en entreprise est appelé à se développer  à la fois pour projeter devant des auditoires élargis les informations et présentations, mais aussi pour servir de support à la visio-conférence de plus en plus exigeante en qualité d’image et de son, ou encore de point de contact client pour l’e-commerce et la publicité personnalisée. Le CES 2011 a consacré l’avènement de la télévision connectée à internet dont les usages sont multiples dans les salons domestiques comme en entreprise et qui va s’imposer comme solution de continuité entre le monde des « vieux médias » et celui du web.

Trois nouveaux écrans viennent donc, en quelques trimestres, s’imposer dans le paysage professionnel. Tous permettent de produire et d’échanger des données, du son et des contenus multimédia. Tous sont connectés au réseau internet. Face à cette offre, le traditionnel PC, lourd et pataud, perd de son attractivité dans tous les usages de consultation et d’échanges. Il demeure encore incontournable pour des tâches de saisies lourdes ou de calcul complexe, lui-même ayant remplacé les stations dédiées au calcul ou à la CAO. Mais l’émergence des « apps », la puissance de l’informatique en nuage vont rapidement donner aux autres plate-formes des caractéristiques similaires à celles du PC.

Le DSI doit donc repenser la stratégie de « poste de travail » pour raisonner sous un triple éclairage : taille et portabilité de l’écran, nature de l’interface homme/machine (clavier, écran tactile…), fonction. La politique du poste de travail doit devenir ouverte, flexible et très appropriée aux usages des différentes communautés. Elle doit non plus intégrer par défaut la mobilité mais servir avec conviction une politique de mobiquité des compétences et des acteurs.

Bien naturellement se posent les problèmes classiques qui freinent la pénétration en entreprise des innovations issues du grand public : la sécurité et le coût. Là aussi, la solution n’est certainement pas l’interdiction peu réaliste mais la pédagogie, l’incitation à la maîtrise des coûts, qui peuvent être partagés entre le salarié et l’entreprise et la recherche systématique et partagée de l’efficacité opérationnelle. Des salariés participant à la dynamique de l’aventure numérique seront reconnaissants à leur employeur, plus motivés et certainement enclins à moins mesurer leur amplitude de travail.

C’est d’ailleurs pourquoi de nombreuses entreprises se sont récemment engagées dans une politique totalement en rupture par rapport aux visions antérieures. Plutôt que de mettre en place un catalogue toujours dépassé par l’innovation, elles proposent le BYOD. Comprenez « Bring Your Own Device », apportez l’outil de votre choix. Après tout personne naguère ne nous a imposé de choisir entre Waterman et Parker ! Pour promouvoir cette continuité numérique qui est de toute évidence la nouvelle manière de travailler de la génération Y, et maintenant Z, de grandes entreprises donnent le choix à leurs salariés d’apporter au travail leur propre machine. Il ne s’agit pas de PME aventuristes, mais de firmes établies comme Kraft Foods avec 97000 salariés ou Procter&Gamble. De façon plus limitée, Cisco offre à ses salariés le choix entre PC et Mac. Ceci implique de fournir une infrastructure de réseau robuste, de gérer la sécurité de façon dynamique en responsabilisant les acteurs, car c’est plus une affaire de management que de technique, et de trouver une base économique équitable.

Pour démentir Alan Carr, il faut ouvrir l’entreprise au monde foisonnant de la technologie. L’ère des mainframes est définitivement achevée, inventons les stratégies qui permettront à tous les collaborateurs d’être moteurs de cette nouvelle ère, celle de la connaissance numérique.

Article également publié sur 01 Business


L'automobile américaine en pleine convalescence cherche à se réinventer

Detroit a ouvert l’année automobile 2011 dans un contexte économique à nouveau transformé. La crise de 2008 a profondément ébranlé la structure de l’automobile américaine et 2010 a permis de reconstruire des bases économiques apparemment plus robustes. Néanmoins l’avenir à long terme de la construction automobile américaine, dans un marché mondial totalement redistribué,  reste subordonné à sa transformation technique pour répondre à un marché intérieur resté conservateur et retrouver son rang mondial.

MVI_8665
                                     Ford, comme GM, mise sur l'électrification de sa gamme

Un nouveau paysage capitalistique

Ave un niveau de ventes de 11,6 millions de véhicules en 2010, le marché américain est  encore loin de retrouver son niveau moyen antérieur, de l’ordre de 15 millions de véhicules, mais échappe à la malédiction de l’année noire 2009 avec 10,4 millions de véhicules. Aussi les constructeurs se remettent à espérer et attendent, en 2011, 14 millions de véhicules.

Les trois constructeurs américains ont vu en 2010  leurs performances de vente s’améliorer  aux Etats-Unis : GM a progressé de 6,6%, Chrysler de 17% et Ford de 19%.

GM is back… Les difficultés de General Motors datent d’avant la crise puis que le groupe a perdu 43 milliards $ en 2007, et « seulement » 31 milliards en 2009. Déclaré en faillite le 1er juin 2009, le groupe  a lancé un plan de suppression de 10000 postes administratifs et un plan de départ volontaire portant sur 62000 personnes. 14 usines ont été fermées.  Le 19 novembre 2010 GM a été réintroduit en bourse après avoir accumulé 86 milliards de dettes de 2005 à 2008, et bénéficié de 50 milliards de fonds fédéraux, 30 milliards dans le cadre du plan Obama mais aussi 19 milliards sous le président Bush, infusion de fonds publics sévèrement critiquée aux Etats-Unis. Ainsi GM  a été nationalisé de fait avec 61% de parts publiques dans son capital, qui devraient revenir vers 31% en 2011. GM a enregistré trois trimestres de profit consécutifs en 2010

Chrysler a été repris par Fiat à hauteur de 20% et va monter sa participation à 51%.  Mais le problème de gamme de Chrysler , marquée par les SUV et les petits camions, comme le fameux Dodge Ram, reste entier. La nouvelle Chrysler 300 présentée à Detroit, plus consensuelle et mieux  finie,  n’apporte toutefois pas de nouveauté significative même si elle est destinée à être également vendue sous la marque Lancia. Sergio Marchionne a d’ailleurs récemment insisté sur le fait que l’avenir de Chrysler passait par les petites voitures.

Ford est l’entreprise qui a le mieux traversé la crise, et ceci sans aide gouvernementale, ce qui est très apprécié aux Etats-Unis où les milieux libéraux n’auraient pas été fâchés de voir disparaître GM. Le refinancement du groupe s’est fait en hypothéquant ses actifs à hauteur de 23,6 milliards $. Le plan piloté par Alan Mullaly a visé une refonte totale de la gamme pour produire des véhicules de qualité, économes en carburant et respectueux de l’environnement. Mais Ford qui a supprimé 30000 emplois depuis 2006, fermé 12 usines,  a indiqué son intention de réembaucher 7000 personnes d’ici 2012 notamment pour accompagner l’électrification de sa gamme. Ces efforts payent  et Ford, qui a vendu Volvo en 2010 au chinois Geely pour 1,8 milliard $,  a enregistré quatre trimestres positifs , augmenté sa part du marché américain de 2,2 points depuis 2008.

Le paysage industriel a été profondément remanié, de nombreuses usines fermées, les conditions salariales revues, des marques supprimées.  Ainsi, pour le groupe GM  Saturn, mais aussi la vénérable marque Pontiac  ont disparu, Hummer et Saab ont été vendues, Opel a finalement été conservée pour préserver la marque en Europe mais l’usine d’Anvers a été fermée.

IMG_8557                                     Beaucoup de chemin à parcourir pour changer les références !


Une nouvelle donne technique encore timide

Pays des grosses voitures, des trucks démesurés et des gros moteurs, les Etats-Unis  amorcent encore dans le doute une transformation de leurs habitudes automobiles. La part des moteurs 4 cylindres est passée de 29,9% en 2000 à 43% en 2009. Toutefois l’échec actuel de Smart (5200 voitures vendues en 2010, soit -60%, après -41% en 2009) est révélateur des résistances du consommateur américain face aux petites voitures et de l’extrême sensibilité de leurs ventes aux fluctuations du prix de l’essence.  Les ventes de Fiat 500, qui a fait impression,  par le réseau Chrysler seront un indicateur intéressant à suivre. Même si les distances parcourues  sont en moyenne légèrement supérieures à l’Europe les véhicules circulent majoritairement dans les zones urbaines et péri-urbaines.  Les résistances ne sont donc pas fonctionnelles mais psychologiques. Ensuite le marché américain est très contrasté entre les zones urbaines déjà sensibilisées et le centre rural du pays, et on voit mal le fermier du Middle West  troquer son truck Ford  F 150 6,2 l V8 contre une Smart ou une Fiat 500. L’endettement des ménages et la persistance d’un taux de chômage élevé renforcent l’incertitude sur ce qui fut le premier marché de la planète, désormais relégué au second plan par le marché chinois.

Néanmoins les menaces sur le prix de l’essence contribuent à faire bouger les consommateurs plus que les considérations environnementales.  L’économie de consommation est devenue un critère de choix déterminant  passant du 14e rang des critères de sélection d’un véhicule en 2003 au 5e rang en 2010. Aussi  les constructeurs américains commencent à voir dans l’innovation une opportunité pour retrouver sur le plan du marché intérieur leur leadership et reconstruire une image plus flatteuse sur le plan mondial. Ford met l’accent sur la dimension environnementale en proposant une gamme de véhicules électriques zéro-émission, dont la Focus est appelée à être le modèle phare, intégrant également une utilisation extensive de matériaux recyclés et renouvelables.  Cet engagement écologique  couvre aussi  les processus industriels dans l’usine de Wayne (Michigan) qui sera équipée d’un système solaire de production électrique et de recharge de véhicules électriques.

La Volt incarne parfaitement la complexité de la position des constructeurs.  Véhicule innovant, coûteux à produire, la Volt démontrait le savoir-faire de General Motors sur les salons automobiles alors même que l’entreprise était en plein tourmente. Son élection comme « voiture de l’année 2011 », face à la Nissan Leaf, autre voiture électrique,  récompense cet effort et marque le début d’une nouvelle époque pour l’entreprise.

Moins spectaculaire, la Chevrolet Sonic, équipée d’un moteur 1,4 l turbocompressé délivre 138 chevaux et parcourt 40 Miles pour un gallon, soit 5,8 l au 100, illustre aussi la volonté des constructeurs américains d’améliorer les performances de leurs moteurs et de réduire la consommation. Ford s’engage aussi dans une campagne de réduction de taille de ses moteurs thermiques, en plus de l'électrification de sa gamme, hybride ou électrique.

La sécurité et la qualité de vie à bord bénéficient également des investissements technologiques des constructeurs, GM avec son offre télématique OnStar et Ford avec Sync et Ford Touch en coopération avec Microsoft.

MVI_8707 Il est évident que l’économie américaine a été durement touchée par la crise et qu’au-delà des 7,3 millions de suppressions d’emploi, c’est le modèle américain qui a été ébranlé. L’industrie automobile qui en est le symbole et le cœur ne sort pas indemne de cette transformation. Néanmoins elle démontre une capacité de réinvention qui devrait lui permettre de retrouver une dynamique forte. Et n’oublions pas que le premier marché de GM est… la Chine !

 

Ford mise sur l'innovation dans ses véhicules électriques à charge rapide


CES 2011 : les frontières s'estompent

Le Consumer Electronic Show est devenu le rendez-vous obligé de toute la communauté numérique mondiale. Chaque première semaine de janvier, il dessine les perspectives économiques et technologiques de l’année  et préfigure l’évolution des années suivantes même si le rythme de changement est devenu désormais si rapide que, comme l’a dit John Chambers, président de Cisco, « deux années dans le monde numérique, c’est déjà de l’histoire ». C’est cette histoire qui s’écrit au CES d’année en année, offrant dans une arène unique, l’ensemble des produits et services qui marquent la montée triomphale de la numérisation.

Le CES 2011, après un moindre succès en 2009 et surtout 2010 en réaction à la crise, ce sont plus de 140 000 visiteurs, dont 30 000 venus de l'extérieur des Etats-Unis, 2700 exposants, 2000 nouveaux produits. Ce sont les fameux key notes où s’expriment les leaders des entreprises numériques(Cisco, Xerox, Verizon, Samsung), mais aussi ceux de l’industrie (General Electric) comme l’automobile (Ford, Audi), ainsi que  de nombreuses conférences thématiques qui couvrent le champ des technologies et des usages.

Car le CES ne cesse d’élargir ses limites. Historiquement consacré aux biens de consommation électronique grand public sur le premier marché du monde – il fut le lieu où les innovations comme la cassette audio, la cassette vidéo, la télévision haute définition – ont pris leur essor, il englobe désormais un vaste champ technique et industriel qui a été transformé par le déploiement mondial de la téléphonie mobile et de l’internet. Depuis quelques années, avec la grande convergence images/voix/données, le CES a mis en scène la disparition progressive des frontières entre l’électronique grand public, consacrée au son et à l’image, et l’informatique professionnelle, celle des données et des traitements,  La connectivité universelle grâce à TCP-IP a fourni cette "atmosphère IP" indispensable au rapprochement de ces mondes naguère étanches. L’invention des « apps », ces applications informatiques téléchargeables à faible prix a donné à ces machines fermées une capacité de créativité considérable qui a ouvert la voie à une vague d’innovations que l’informatique n’avait jamais su susciter avec son modèle rigide de développement. 

Plus encore, la miniaturisation des composants et la généralisation de l’accès aux réseaux a ouvert la voie à de nouveaux et immenses champs d’applications. Il en est ainsi de l’énergie, qui d’année en année est de plus en plus présente grâce aux réseaux intelligents (« smart grids ») qu’ils soient domestiques ou publics, de toutes les applications de sécurité, pour les biens avec une renaissance de la domotique, les personnes avec l’essor des applications de santé, et les transports. Cette année, les conférences consacrées à la santé numérique ont à nouveau fait salles combles. On sent bien que pour répondre à l'infinie demande de bien-être et de santé, les objets numériques connectés, qui permettent de capter en continu des informations précieuses pour le diagnostic, mais aussi d'aider au monitoring des patients, vont devenir incontournables. 

L’évolution de la place de l’automobile est la plus spectaculaire. Il y a quelques  années une grande partie du Hall Nord du centre de convention de Las Vegas était occupé  par des véhicules improbables gavés d’amplificateurs et d’enceintes monstrueuses délivrant un son apocalyptique. Aujourd’hui ce folklore de bikers et de pin-up de calendrier a quasiment disparu au profit des marques automobiles réputées comme Ford, GM, Hyundai, Toyota, et cette année pour le première fois Audi qui démontrent la convergence de l’électronique embarquée, de la géolocalisation et de la révolution du véhicule hybride et électrique. Alan Mullaly, président de Ford,  est venu pour la troisième fois consécutive expliquer sa stratégie de développement d’une connectivité illimitée de ses véhicules - Ford Touch, Ford Mobile - qui trouve tout son sens dans le véhicule électrique dont il a annoncé le lancement mondial d’une gamme complète. Audi expose son somptueux spider électrique e-tron, et uneTesla trône sur le stand Panasonic, qui assure la production de ses batteries... Quelques jours avant le salon de Detroit, le CES est devenu une sorte d'avant-première de l'innovation automobile.

Ceci porte plusieurs conséquences. Les informaticiens classiques ne peuvent plus ignorer la puissance de cette convergence qui fait naître dans le monde grand public des innovations qui s’imposent par l’usage et pénétrent de façon inéluctable les entreprises. Cette mutation concerne tant leurs clients, qui veulent utiliser leur outil de travail et de communication personnel dans tous les contextes, que  leur personnel devenu exigeant en matière de qualité des outils qui sont proposés par l’entreprise.

Ensuite, le marché se transforme. Le monde de l’entreprise devient un cas particulier du marché grand public en terme de volume, de prix, d’innovation. Les ventes de PC classiques déclinent au profit de la multiplication des supports d’accès à l’information. Aujourd’hui il n’y a plus que quatre constructeurs de PC - HP, Lenovo, Dell, Acer – qui ne font pas d’efforts particuliers pour le marché des entreprises. Il faut noter d’ailleurs que cette situation profite à Apple dont l’offre alternative est de plus en plus acceptée en milieu professionnel.

Comme on a pu voir sombrer l'écran cathodique au fil des CES, peut-on penser que la multiplication des outils de production et de diffusion d'information en réseau annonce la fin du "personal computer" tel qu'il a été façonné par le couple Microsoft Intel pendant trente ans ? Les deux partenaires historiques du couple Wintel donnent le sentiment que leur destin se dissocie désormais. Intel mesure le risque de ne produire que des processeurs coûteux et gourmands en énergie pour le marché des PC alors que l'explosion de coutils mobiles exige des processeurs optimises sur le plan énergétique. Le processeur Atom  est la réponse technique et équipe toute une gamme de produits mobiles, mais aussi des PC traditionnels. Microsoft annonce que Windows 8 tournera sur les processeurs du britannique ARM. Motorola dont le CES 2011 annonce le retour  installe un processeur puissant dans son téléphone. Par une interface "plug in" c'est ce "téléphone" qui va fournir la puissance de calcul et les applications à un PC dépouillé de son moteur mais qui se limite à une fonction s'affichera grâce à un écran confortable et surtout une alimentation généreuse. Motorola présente aussi une tablette surpuissante de 10", utilisant la dernière version d'Android (3.0), Honeycomb, compatible Flash, et un processeur à deux coeurs Tegra 2. Mais il faut aussi souligner que sur les dizaines de tablettes présentées, toutes aussi attractives et innovantes, seul la Samsung Galaxy Pad était réellement en vente depuis octobre 2010, et l'iPad, non présenté officiellement, Apple étant absent, mais omniprésent est la seule tablette a déjà avoir été vendue à plus de onze millions d'exemplaires.

Motorola_Xoom_02
Motorola Xoom

La télévision connectée devient légalement un nouveau concurrent du PC. Avec la taille et le confort de son écran haute définition et 3D, la télévision devient un support idéal de navigation sur internet, de consultation d'images et  une console de jeux performante que les interfaces nouvelles comme Kinnect valorisent. La télévision 3D présente depuis 2008 continue son essor. Avec des appareils de plus en plus performant, des programmes de plus en plus nombreux, films mais surtout sport, la  télévision 3D qui n'a pas encore pleinement convaincu les consommateurs, dispose d'atouts essentiels pour un succès durable, d'autant plus que la 3D se développe également en photo et vidéo domestiques, Kodak présentant même une imprimante photo 3D.

Toutes les études convergent sur le fait que 70% des "devices" seront connectés en 2014 à l'Internet, soit en Wifi, soit en 3G ou 4G, soit en CPL.

Quant au marché des télécommunications, il semble également évoluer vers une répartition nouvelle des canaux d’accès. Pour Verizon, deux types d’accès vont se compléter.
La  4G mobile LTE, dix fois plus rapide que la 3G, va rapidement innerver un écosystème de services mulitples. En revanche, les applications et services très gourmands en bande passante – films 3D, holographique - vont utiliser  la réseau de fibre optique dont la vitesse commerciale va passer en 2011 à un Gbit/sec et à 100 Gbit/sec en moins de cinq ans.

Le CES 2011 offre l'accès sous un format compact - même s'il est épuisant de parcourir ces allées interminables et de courir de conférence en conférence - qui seul permet d'embrasser facilement toutes les tendances du marché. A l'ère de l'omniprésence de l'information sur le web, ce type de manifestation physique, à tous les sens du terme, conserve tout son sens mais nécessite de bons outils de communication et d'analyse pour ne  pas s'y diluer.

 


2011, reconstruire le lien social pour une société efficiente et équitable

La période des voeux permet à tous les responsables de "souhaiter"  réaliser tout ce qu'ils omettent de faire pendant le reste de l'année. Cet exorcisme rituel devient lassant car à force de considérer que le résultat positif souhaité pour chacun comme pour tous serait le fruit d'une quelconque exo-machinerie qui échappe à notre sphère d'action exonère en fait de toute responsabilité individuelle. Donc je n'émettrai pas ici de voeu, exercice aussi futile qu'hypocrite. En revanche, j'essaierai avec modestie de rappeler quelques principes qui pourraient nous permettre de sortir de l'impasse dans laquelle les visions à court terme, l'abus de dogmatisme, l'égoïsme et l'appât du gain immédiat ont enfoncé notre société occidentale, et au-delà l'économie mondiale devenue dangereusement asymétrique. 

Sévère correction macroéconomique

En premier lieu, rappelons qu'une société peut difficilement consommer durablement plus de ressources qu'elle n'en produit, ou en dispose lorsqu'il s'agit de ressources naturelles. Puiser dans les réserves, tirer des chèques en bois sur l'avenir, mentir sur la réalité d'une situation économique et sociale peuvent éventuellement permettre de gagner quelque élection ou d'accroître la valeur de l'action - la fameuse "création de valeur" - mais ne font que différer la cruelle confrontation avec le réel. Or une crise est précisément un violent processus de rééquilibrage entre une dérive onirique, alimentée par les dogmes, et les contraintes de la réalité. On ne répétera jamais assez que les arbres ne montent pas jusqu'au ciel et que les cygnes noirs abondent ! La crise financière, économique, sociale, politique que nous vivons maintenant depuis plusieurs années sous un forme latente ou exacerbée n'est "que" le mécanisme pour revenir à un état structurel plus efficient de répartition des richesses entre pays, acteurs, catégories sociales. C'est aussi le moyen, coûteux, de redonner tout son sens au long terme, à la solidarité dans le temps entre générations, et au maintien à un niveau acceptable des ressources naturelles pour le futur.

Car fondamentalement la mise sous tension extrême de l'économie, l'exacerbation des déséquilibres spéculatifs,  se sont révélés le plus inefficace des systèmes de production de richesse contrairement aux dogmes péremptoires affichés depuis deux décennies. Le déficit de crédibilité des Etats qui a été exploité par les marchés pour casser les mécanismes régulateurs publics se révèle le plus pernicieux des facteurs de déséquilibre structurel de l'économie mondiale dans une économie fondée sur la confiance. Or le système financier s'est révélé incapable d'allouer le capital et de gérer le risque à un niveau de coût acceptable. Les Etats enivrés par le culte du marché tout puissant, de la concurrence libre et non faussée, ont oublié le sens de leur mission fondamentale, protéger les peuples et les territoires. Chacun, dans son domaine, a failli...

Aussi, sur le plan macro-économique, cette accumulation d'échecs a maintenant conduit  au niveau mondial à une prise de conscience qu'un rééquilibrage entre le marché et le rôle de l'Etat était (re)devenu indispensable*. Le G20 pourrait s'il en a le courage en tirer les leçons et mettre en pratique tant de résolutions sur cette apparente volonté de rendre au marché tout son rôle et sa responsabilité tout en assurant une régulation maîtrisée et lucide dans la but d'éviter de nouveaux dérapages catastrophiques.

L'entreprise n'échappe pas à une révision de ses modèles de management

Il ne faudrait pas non plus rejeter sur le seul plan macroéconomique et politique toute la responsabilité des dysfonctionnements répétés de notre économie. Il y a une réelle responsabilité des dirigeants d'entreprise, de l'encadrement mais aussi de tous les acteurs individuels qui ont cru pouvoir se réfugier dans la passivité. La fixation d'objectifs déraisonnnables et le management par le stress ont détruit la cohésion des entreprises, cassé l'initiative individuelle et le sens critique, facilité le décrochage des salariés qui démontrent, sondage après sondage, qu'ils ne croient plus dans leur propre entreprise, ou organisation publique.

Or le bon fonctionnement de l'entreprise  est un élément clef du corps social. Si l'entreprise devient globalement un système inefficace de production de richesse, c'est toute la société qui en subit les conséquences dramatiques. Son mode de fonctionnement a fait l’objet de multiples réflexions pour définir la meilleure organisation des ressources humaines et des compétences qui lui donnent vie et conditionnent le rythme de son développement. Dans cette recherche d’efficacité,  plusieurs vagues de modèles se sont succédées depuis la fin du XIXe siècle. Tour à tour centralisée, bureaucratique, matricielle, participative, l’entreprise est restée longtemps autocentrée. Ce modèle a été bousculé par le développement du traitement de l’information comme par le changement des comportements.

Depuis l’émergence du web au milieu des années quatre vingt-dix, l’entreprise s’est rapidement ouverte vers l’extérieur par la généralisation du courrier électronique et l’utilisation de l’internet comme vecteur de promotion, support commercial et outil de veille économique. Le traitement du courrier électronique, la gestion des appels mobiles, représentent aujourd’hui la tâche quotidienne majeure de la plupart des collaborateurs. L'impact sur la performance collective de cette sommes d'activités individuelles souvent opaques a été mal analysé. A ces fonctions désormais classiques, est venu  s’ajouter le développement des réseaux dits sociaux qui s’est imposé en quelques années comme une nouvelle réalité mondiale. Plus de cinq cents millions de personnes dans le monde échangent quotidiennement grâce à Facebook, inventé « seulement » en 2004. Chacun aujourd’hui reprend contact avec des amis et relations professionnelles, génère de nouveaux échanges avec des outils comme Video, LinkedIn qui échappent totalement à l'intégration dans le modèle de management de l'entreprise

Cette multiplicité de contacts et d’échanges libérée par la puissance d’internet et du web pose de multiples questions au chef d’entreprise. Comment protéger l’entreprise des diverses formes de déstabilisation  qu’une hyper-exposition numérique pourrait susciter ?  Comment garantir la cohérence des équipes de plus en plus tournées vers l’extérieur dans leurs activités quotidiennes et maintenir le cap opérationnel ? Comment fidéliser fournisseurs, clients et personnels tiraillés entre des opportunités multiples et peu enclins à se sacrifier dans la durée ?

Le système hiérarchique pyramidal, autoritaire ou paternaliste, qui a dominé pendant des siècles le fonctionnement des organisations est bien évidemment remis en cause depuis les années soixante-dix sous l’évolution des marchés, des contraintes économiques et des pratiques sociales comme sous la poussée des technologies.  Mais s'il n'est plus le modèle dominant dans les processus quotidiens, il ne cède pas encore de terrain dans le domaine des représentations sociales où les signes hiérarchiques jouent encore un rôle majeur de discrimination des statuts et des trajectoires personnelles.

Il est encore lent et difficile de comprendre que l’entreprise ressemble plus à un système vivant qu’à une machine parfaitement huilée. Cette ouverture vers des modèles issus de la biologie, de la sociologie et de la psychologie rend la modélisation de l’entreprise d’autant plus complexe que l’information qui assure le lien entre toutes ses composantes est désormais largement disponible, indéfiniment stockable et récupérable,  et circule sans limitation. Plus encore l’entreprise qui s’est toujours vécue comme une entité cohérente et stable est désormais ouverte en permanence sur le monde extérieur, ses clients, fournisseurs, partenaires constituant un ensemble mouvant et complexe irrigué par les technologies de la communication.

Si la dimension technologique est visible et (souvent) mesurable, d’autres transformations comportementales ou organisationnelles doivent être intégrées dans la compréhension des nouveaux modèles qui permettent de comprendre comment l’entreprise se nourrit de son environnement pour évoluer en continu. Plus encore, il s’agit pour le dirigeant confronté à l’évolution parfois erratique d’une multitude de paramètres de discerner les risques et les opportunités de changements pour piloter l’évolution de façon raisonnée. Passer d’un constat parfois désillusionné à une pratique dynamique, entraînante pour l’ensemble des acteurs de l’entreprise est l’enjeu du management.

Un équilibre dynamique

Si l’allergie au changement  présumée de la population française est probablement largement surestimée, les conditions d’acceptation du changement impliquent un niveau de transparence et d’équité qui n’a pas été atteint au cours des dernières années. Plus encore, l’accompagnement des changements d’emploi, de compétences, de cadre social doit être exemplaire pour créer les conditions acceptables à l'indispensable mise en mouvement des entreprises et de leurs collaborateurs.

La logique d'un développement durable oblige à construire entre les quatre composants indissociables de l’économie moderne un équilibre dynamique : l’efficacité de la sphère  productive, la dynamique de la consommation, la démocratie citoyenne et l’équilibre structurel des finances publiques. Si l’entreprise est au cœur de ces enjeux, elle est elle-même génératrice de complexité et d’ambigüité et la tâche de ses dirigeants n’est pas facilitée par la divergence des courants organisationnels bousculés par la technologie. 

La reconstruction de la confiance est un élément clef de la redynamisation des entreprises et du corps social. C’est parce que certaines entreprises dépassent l’individualisme pour recréer le sens de la communauté qu’elles fécondent la communauté du sens. L’esprit d’initiative collective, le souci des collègues, l’entraide, comme l’accueil des jeunes en apprentissage sont autant de vecteurs de performance qui stimulent la qualité du travail fourni par l’équipe mais aussi l’engagement dans la communauté plus large de la région, du pays. 

Entre l’obésité organisationnelle, qui dilue les responsabilités comme les talents, et le culte de l’anonymat dans des entreprises où les personnes se dissolvent dans le réseau numérique, il faut retrouver le sens du contact immédiat. Le passage de la société de main-d’œuvre à la société de cerveau-d’œuvre institue un changement total dans le modèle historique de commandement. Les salariés d’aujourd’hui ne peuvent pas s’approprier les solutions si ils ne sont appropriés les problèmes. L’adhésion ne s’obtient ni par la contrainte ni par la peur ni par le culte du dirigeant, à grand renfort de communication, mais par la métabolisation  de tous les paramètres contextuels par les collaborateurs eux-mêmes. C’est en tissant les réseaux de confiance que l’on peut atteindre des résultats exceptionnels.  Bien sûr ceci ne fera pas disparaître les risques inhérents à la transformation économique majeure en cours. Mais en les expliquant pour préparer constamment les collaborateurs au changement, en développant et reconnaissant l’esprit critique, seul terreau de l’initiative, on peut reconstruire, par la base, un tissu à la fois résistant et flexible.

Ce qui est indispensable pour les collaborateurs des entreprises ou des organisations publiques est évidemment indispensable pour les citoyens. La performance de l'entreprise ne peut être le fruit de collaborateurs passifs, désinformés et sans vision. La performance de la collectivité dans son aptitude à relever les défis du long terme ne peut non plus se faire avec des citoyens passifs, désinformés et sans vision. Se répondent en écho la sphère de la création de richesse et la sphère de l'équilibre de la communauté. Les valeurs et les outils sont en fait les mêmes.

* A lire :

- "Le rapport Stiglitz : pour une vraie réforme du système monétaire et financier international", LLL, 2010