mercredi 1 octobre 2014

La robotique de service est au coin de la rue




La robotique de service est au coin de la rue


Cet article est le cinquième d'une série de sept consacrée à la robotique, dont la publication s'étalera sur plusieurs mois.
Un robot, c'est une machine intelligente dotée d'un degré d'autonomie, avec trois caractéristiques : des capteurs pour comprendre son environnement, des processeurs pour l'analyser et prendre des décisions, et des actionneurs (moteurs, outils, bras articulés) pour agir sur le monde réel. Présents depuis plusieurs décennies dans l'industrie, les robots arrivent aujourd'hui dans les services. Les enjeux sont différents. Pour bien les comprendre, prenons le temps de préciser ce que recouvre ce terme si vague de « services », qui représente aujourd'hui plus de 70% du PIB des économies développées.

Il y a services et services
En économie, un service consiste en la mise à disposition d'une capacité technique ou intellectuelle à un particulier ou à une entreprise. On a coutume d'opposer services et industrie, en insistant sur deux points : dans un service, le travail est fourni directement à l'usager (entreprise ou personne), et ce sans transformation de matière.

Ce dernier point est contestable : un restaurateur, un coiffeur, un chirurgien transforment de la matière. Une approche plus fine distinguerait le monde industriel, espace clos où des hommes et des machines transforment la matière en masse ou en série, et les services, ensemble d'activités insérées dans des espaces variés (maison, rue, entreprise) et travaillant sur l'homme (coiffure, médecine…), sur son environnement (ménage, surveillance, sécurité), le suppléant ou l'épaulant pour certaines tâches spécialisées (banque, conseil), ou tout simplement lui facilitant la vie pour ses déplacements ou pour mettre des biens à sa disposition (commerce, logistique).
La variété des tâches répond à celle des acteurs impliqués. Certains services mobilisent des organisations publiques, d'autres des entreprises, d'autres appartiennent à l'économie informelle, comme le baby-sitting. Certains s'adressent principalement à des individus, d'autres à des organisations et notamment à des entreprises. Mais derrière l'immense diversité du monde des services, on retrouve une idée simple : ce qui caractérise un service, c'est l'interaction avec le monde humain, par opposition à l'industrie qui est tournée vers la matière.
C'est dans ce contexte qu'Olivier Fallou et Robert Millet, dans un séminaire organisé en 2012 par le Pôle interministériel de prospective et d'anticipation des mutations économiques, introduisent la robotique de service en insistant sur « une  capacité d'opération dans un environnement conçu pour l'homme, en interaction avec un environnement conçu pour l'homme, et en interaction avec l'homme ». Qui dit service dit monde humain. D'où des contraintes particulières, comme par exemple « une sécurité de fonctionnement permettant le fonctionnement en présence d'un public éventuellement large, et le cas échéant non professionnel ».
Que représente aujourd'hui le secteur de la robotique de service ? Il s'agit d'un marché émergent, qui a bénéficié de la dynamique de la robotique industrielle et qui est aujourd'hui en plein essor. Selon la Fédération internationale de la robotique, il pourrait atteindre 100 milliards d'euros en 2018 et 200 milliards en 2023, contre 25 milliards en 2015. Les constructeurs sont très majoritairement des PME et des start-up issues de laboratoires de recherche, surtout dans le domaine de la robotique personnelle. Des sociétés importantes, actrices de la robotique industrielle, sont en veille très active sur certaines applications de la robotique de service, soit en direct, soit via des start-up de laboratoire (comme Kuka en Allemagne ou Fanuc au Japon).
À la variété des acteurs industriels répond celle des produits. Il y a par exemple les robots humanoïdes comme Baxter, qui a un écran en guise de tête, exécute les tâches simples qu'on lui apprend et peut détecter la présence d'une personne pour la saluer. Mais ils ne sont pas seuls en lice. La Fédération internationale de la robotique note la multitude des formes et de structures, mais aussi de domaines d'application. Les robots de service ne sont pas forcément mobiles, ni forcément autonomes. « Dans certains cas, ils se composent d'une plateforme mobile sur laquelle un ou plusieurs bras sont attachés et contrôlés de la même façon que les bras des robots industriels. En outre, contrairement à leurs homologues industriels, les robots de service n'ont pas à être autonomes ou entièrement automatiques. Dans de nombreux cas, ces machines peuvent même aider un utilisateur humain ou être opérées à distance. »

Quels sont les services susceptibles d'être robotisés?
Dans une étude de 2003 qui fait désormais référence, David Autor, Frank Levy et Richard Murnane pointaient que le critère fondamental pour le remplacement des hommes par des machines, c'est le caractère routinier des tâches et leur simplicité, et dans ces conditions la distinction entre industrie et services n'avait guère d'importance. La vague de la robotisation ne ferait pas de détail.

Les services que l'on peut robotiser, ou qui sont susceptibles de l'être demain ou après-demain, sont donc caractérisés par des tâches répétitives, où les choix sont limités. Car si un robot se caractérise par une autonomie de mouvement associée à une autonomie de décision (sur tout ou partie des actions élémentaires qu'il doit accomplir), il reste inadapté à des actions complexes qui requièrent une capacité d'initiative. Sauf à être accompagné par l'homme, comme c'est le cas dans la dronautique ou la chirurgie.
Les activités qui se prêtent à la robotisation sont nombreuses : on cite ainsi la logistique et le transport, le nettoyage industriel, la surveillance et la maintenance (sites, espaces publics, infrastructures), la construction/démolition, l'assistance médicale, l'assistance domestique, l'aide à l'autonomie…
Essayons d'y voir plus clair. Une première distinction fait apparaître deux grandes catégories : la robotique professionnelle et la robotique personnelle.
À côté des robots militaires et de la robotique chirurgicale (qui font l'objet de deux articles dans cette série), la première catégorie comprend des robots destinés à accomplir une tâche dans un lieu public ou une entreprise. Parmi ces tâches, le nettoyage industriel et celui des lieux publics, les robots de livraison dans les bureaux ou les hôpitaux. Les robots d'intervention (robots de terrain, robots-pompiers, de démolition…) appartiennent aussi à cette catégorie, qui se définit par la présence d'un opérateur spécialisé, ayant pour mission de démarrer et arrêter le robot, mais aussi de surveiller son travail.
Dans la seconde catégorie se rangent les produits « grand public », comme l'aspirateur-robot, qui sont déjà présents dans nos demeures, mais aussi des machines destinées à des personnes handicapées ou fragilisées : fauteuils roulants automatisés, robots d'assistance à la motricité, robots-compagnons et robots-animaux domestiques, pour la compagnie ou l'exercice. La Fédération internationale de la robotique définit cette catégorie en insistant sur le fait qu'il s'agit de tâches « non commerciales », et sur le fait que les robots sont utilisés par des personnes sans qualification particulière.

Intervenir en milieu extrême
Le marché de la robotique de service professionnelle est dominé aujourd'hui par la robotique de défense (voir le deuxième article de cette série) et la robotique dite d'intervention. Ces deux domaines sont caractérisés par des environnements dangereux. Les missions d'intervention confiées aux robots consistent par exemple à accéder à des installations ou des équipements en proie à un incendie, ou encore potentiellement contaminés par des polluants chimiques ou radioactifs, pour observer, mesurer, prélever, et réaliser diverses manœuvres.

Le Groupe Intra, qui possède le premier parc mondial de robots d'intervention, a été créé en 1988 par les trois principaux acteurs du nucléaire français, EDF, le CEA et  Areva (alors Cogema) ; il s'est équipé d'une flotte d'engins mobiles robotisés, semi-autonomes, développés par le CEA et des partenaires industriels comme Cybernetix, et notamment d'un robot composé de deux corps articulés qui lui permettent de monter et descendre des escaliers et même de franchir des obstacles hauts de 40 cm ! « Pour cela, le robot soulève sa partie avant ou arrière, explique Jean-Marc Alexandre, chercheur au CEA. Ce mouvement se fait grâce au déplacement du bras manipulateur du robot qui peut se mouvoir d'une partie à l'autre, modifiant ainsi le centre de gravité des deux corps. » Pour résister aux radiations destructrices, le robot est équipé d'une électronique durcie qui résiste à des taux 100 fois supérieurs à l'électronique classique.
Les robots d'intervention ressemblent souvent plus à des véhicules militaires qu'à des robots. Guardian, Terra Mec et Thermite, par exemple forment une équipe de pompiers-robots mis en vente par la compagnie américaine Howe and Howe Technologies. Le premier est un bras qui déplace les débris; le second est une charrue qui dégage le chemin vers le site à arroser et le troisième projette 2270 litres d'eau à la minute. Tout trois ressemblent à de petits tracteurs. Dans un autre environnement, les robots sous-marins, comme ceux développés par le Centre européen de technologies sous-Marines (qui comprend 32 chercheurs de cinq pays : Portugal, Allemagne, Espagne, Italie, France), peuvent être utilisés dans le cas de marées noires, pour localiser les nappes de pétrole.
1-robotfirefig
Une apparence plus proche de l'homme peut avoir ses avantages, notamment dans des environnements conçus spécifiquement pour lui. On apprenait ainsi en avril 2014 que l'US Navy teste un robot humanoïde pompier appelé SAFFiR, destiné à éteindre des incendies en pleine mer. Le robot a été développé par les équipes de recherche des universités Virginia Tech, UCLA et l'Université de Pennsylvanie. Comme l'explique Franck Latxague, fondateur du site Humanoïdes.fr, « les robots devront être capable d'accomplir différentes tâches comme par exemple se tenir en équilibre malgré le navire qui tangue, ouvrir des vannes, ramasser des objets, diriger la lance à eau vers la source de chaleur et éteindre les flammes évidemment. Ils posséderont des capteurs de vision et de détection pour repérer les corps humains à travers la fumée. Ils pourront mémoriser le plan du navire et se déplacer de manière autonome à l'intérieur de celui-ci. »
À côté de ces situations d'urgence, la vie des robots démolisseurs apparaît bien plus tranquille, mais l'environnement dans lequel opèrent ces machines est lui aussi dangereux pour les hommes, des risques d'écroulement aux poussières. Elles ont l'avantage de la performance, pour des tâches qui ne requièrent pas une précision particulière. Le groupe suédois Husqvarna a par exemple développé toute une gamme de robots démolisseurs télécommandés qui offrent à la fois puissance, manœuvrabilité, stabilité et grande portée.

Cent fois sur le métier…
À côté des opérations dangereuses en milieu extrême, les robots s'avèrent particulièrement bien adaptés pour des activités routinières, notamment celles qui sont fastidieuses ou épuisantes.

Prenons le cas d'Amazon. Le géant du commerce électronique a souvent été mis en cause sur les conditions de travail dans ses gigantesques entrepôts, et en retour le management a du mal à gérer les absences, le turn-over, ainsi que les vols commis par les employés. Les robots offrent une solution idéale : ils forment une main-d'œuvre silencieuse, taillable et corvéable à merci, et qui n'aura jamais la tentation de piocher dans les stocks. Amazon a annoncé en 2012 l'acquisition de Kiva Systems, qui développe du matériel de manutention robotisé, pour 585 millions d'euros. Son objectif est le remplacement progressif des employés de ses entrepôts par des robots, intégrés dans un système d'information qui permettra d'automatiser la chaîne de A à Z, de la gestion des stocks à l'envoi en passant par l'empaquetage. L'enjeu, semble-t-il, est moins de rogner sur les coûts que de gagner en efficacité. La robotisation est notamment un élément décisif dans la recherche de la vitesse et de la réactivité, qui sont comme l'explique Brad Stone des éléments décisifs de la stratégie de la firme de Seattle pour faire la différence avec ses concurrents.
La logistique est aujourd'hui un marché en croissance pour la robotique de service. Elle ne concerne pas que les entrepôts mais aussi, par exemple, les bureaux et les hôpitaux, où des robots sont déjà utilisés pour transporter des médicaments. Dans les entrepôts, les robots sont des plateformes mobiles comparables à celles qui sont déjà utilisées depuis les années 1950 à ceci près qu'elles seront entièrement automatisées et accompliront une gamme de tâches bien plus vaste, rendant inutile l'intervention humaine. Dans les bureaux et hôpitaux, ce sont de petits chariots électriques automatisés.
À côté de ces machines il existe aussi des systèmes alternatifs, comme celui de Balyo, une entreprise créée en 2005. Raul Bravo, cofondateur de l'entreprise et ingénieur de l'Ecole Polytechnique, explique au magazine 01.net que si l'objectif reste d'automatiser les déplacements de marchandise dans un entrepôt, la solution développée est très différente : ils s'agit d'un simple boîtier, le MoveBox, qui permet à un chariot électrique standard de devenir autonome. Nul besoin d'infrastructure au sol : le boîtier se repère de lui-même grâce à son système de reconnaissance d'image 3D. « Nous sommes les seuls au monde à proposer un tel système sans aucune infrastructure au sol », explique Raul Bravo.
Restons un moment dans les entrepôts. Parmi les tâches routinières que les robots peuvent accomplir avec des performances égales, sinon supérieures aux humains, figure la surveillance. Le robot e-Vigilante développé par Eos Innovation est ainsi capable de faire des rondes dans le noir, de détecter grâce à ses capteurs le moindre signe suspect et de prévenir un responsable, qui pourra procéder à une « levée de doute » : il est alors possible de prendre la main à distance sur le robot grâce à la caméra et aux haut-parleurs intégrés. Là encore, le robot permet d'éviter de mettre en danger un humain, tout en améliorant la performance. L'enjeu est de réduire les coûts de surveillance tout en optimisant la sécurité à l'intérieur des sites surveillés. Le robot présente aussi des avantages par rapport aux caméras fixes, dont les malfrats savent repérer les angles morts. E-vigilante circule à une vitesse moyenne de 4 à 6 km/h, mais il peut faire des pointes à 10 km/h en cas de besoin. Il est petit (35 cm), mais si on essaie de l'attraper, une alarme stridente se déclenche et il émet des flashs aveuglants. Le modèle économique d'Eos Innovation est fondé sur la location-maintenance du matériel. Les clients déboursent 2500 euros par mois pour un modèle d'entrée de gamme.
À côté de la surveillance, certains métiers de la restauration, particulièrement pénibles,  sont en passe d'être robotisés. C'est sans surprise le cas dans les fast-foods, conçus depuis longtemps sur un modèle industriel. La société californienne Momentum Machines propose une chaîne de hamburgers robotisée capable de réaliser la découpe des tomates, la cuisson du steak et l'adjonction d'une dose de sauce. Ce robot peut fabriquer 360 sandwiches en une heure ! En Chine, on a beaucoup parlé du Robot Restaurant de Harbin, où une vingtaine de robots font le service et cuisinent certaines préparations comme les baoze ou les nouilles. La restauration est, en Chine comme ailleurs, un secteur en tension qui a du mal à recruter.
D'autres tâches peu qualifiées sont aujourd'hui en cours d'automatisation, dans les services de jardinage. Des tondeuses automatisées comme Robomow sont depuis plusieurs années sur le marché. La plupart n'ont pas réellement de système de guidage : leur parcours est aléatoire, la surface à tondre est délimitée par un fil, ce qui présente certaines contraintes d'exploitation et une faible efficacité sur le terrain. Mais une innovation récente pourrait changer la donne, pour les grands espaces (comme les terrains de golf) : le système NAV ON TIME propose une solution guidée par satellite avec un positionnement haute précision, un parcours intelligent paramétrable par l'utilisateur et sans délimitation par fil.
À côté du jardinage, l'agriculture commence à utiliser les services des robots, pour des tâches parfois complexes. Par exemple, le robot VIN taille la vigne, une activité fastidieuse pour laquelle les vignerons ont du mal à trouver de la main-d'œuvre. Ce n'est qu'un début : comme le note Bruno Bonnell, président du syndicat français de la robotique Syrobo, « des robots agricoles sont en cours de développement pour trier les mauvaises herbes ou traire les vaches ».

Des robots et des hommes
Avec ces interventions sur le vivant, on se rapproche du point le plus délicat, le plus intéressant aussi, de la robotique de service : les interactions avec les hommes. Encore anecdotiques sont les robots dédiés aux « relations publiques », qui gèreront l'accueil dans les lieux publics. C'est là, sans surprise, que l'on trouve les « stars » de la robotique, comme l'aspirateur robot Roomba ou l'humanoïde Nao. On entre ici, également, dans une économie différente, partagée entre des machines fabriquées en grandes séries et marchés de niche.

La robotique de service à usage domestique a un marché estimé ainsi par la Fédération internationale de la robotique : « En 2012, trois millions de robots de service domestiques ont été vendus, soit 20% de plus qu'en 2011. » Parmi ses projections pour la période 2013-2016, retenons celle-ci : « Les ventes de robots domestiques pourraient atteindre presque 15 millions d'unités, pour une valeur estimée à 5,6 milliards de dollars. La majorité des pièces serait composée de robots ludiques, notamment en raison de leur prix abordable. Il faudrait aussi prévoir la vente de trois millions de robots éducatifs et dédiés à la recherche. Les robots d'assistance aux personnes à mobilité réduite ne représenteraient que 6400 unités vendues, mais ce marché sera amené à croître considérablement d'ici les 20 prochaines années. »
Si l'Europe est très performante en matière de robotique de service professionnelle (logistique, construction et démolition essentiellement), le leadership de la robotique domestique se partage entre le Japon, les Etats-Unis et la Corée du Sud, pays dont le Premier ministre avait déclaré en 2006 : « Nous voulons mettre un robot dans chaque maison d'ici 2010. »
Le Japon se sert quotidiennement d'un cinquième de la production mondiale. En France, 190 000 pièces se sont vendues en 2012, soit 21% de plus qu'en 2011. Ne nous leurrons pas. Si Roomba rencontre un tel succès, c'est aussi qu'il a atteint un rapport performance/prix enfin acceptable pour le grand public (400 euros environ). Ce ratio joue un très grand rôle dans le développement du marché. Un robot-tondeuse à 5000 euros ne rencontrerait pas de clientèle. Avec des premiers prix à 950 euros, ils sortent définitivement de la catégorie des gadgets de luxe.
Une grande partie des robots destinés à un usage domestique, des tondeuses aux aspirateurs, sont en réalité de simples appareils électro-ménagers améliorés. Plus novateurs apparaissent les robots compagnons et les robots d'assistance.
robot-NAO
Nao, l'un des robots les plus médiatisés aujourd'hui, tient compagnie à des personnes en perte d'autonomie ou à des enfants autistes ou hospitalisés. Commercialisé depuis 2008 par la société Aldebaran, cet humanoïde de 58 centimètres de haut a été vendu à plusieurs milliers d'exemplaires et son successeur Pepper devrait connaître le même destin. La concurrence s'organise avec Asimo, un humanoïde développé par Honda.
Proches des robots animaux de compagnie comme le Genibo du coréen Dasatech, voire des deskpets commercialisés pour quelques dizaines d'euros, les robots compagnons humanoïdes présentent toutefois une sophistication bien supérieure et ils sont appelés, de plus en plus, à se rendre utiles, en suppléant notamment aux problèmes de mobilité des personnes qu'ils assistent. Nao peut aller chercher un objet et le ramener à son propriétaire, par exemple.
Répondant à des problématiques d'autonomie qui sont amenées à prendre toujours plus d'importance avec le vieillissement de la population mondiale, ces robots pourraient à terme voir leur essor favorisé par les systèmes de sécurité sociale, qui en en remboursant l'achat ouvriraient la voie à une production en grande série.
Mais les fonctionnalités de Nao et de ses homologues restent limitées. Contrairement aux affirmations les plus optimistes, il est difficile, voire impossible, d'évaluer quand les robots de service personnel s'assiéront dans nos canapés. Ce n'est qu'en se tournant vers le passé que l'on comprend ce qu'ils sont vraiment : des sujets de recherche pas prêts d'aboutir. Le robot-aspirateur, commercialisé récemment, était en développement depuis 20 ans. Google vient d'annoncer en fanfare le démarrage de la production de 100 prototypes de voitures sans volant ni pédales. Gardons en tête que les plus grands industriels de l'automobile travaillent la technologie autonome depuis le début des années 1980 et que le « DARPA Grand Challenge » a déjà 10 ans : cette compétition, organisée par l'agence américaine responsable des projets en recherche avancée pour la Défense, mettait en jeu des véhicules terrestres sans pilote. La robotique est une discipline coûteuse et fastidieuse. Pour atteindre son but, c'est-à-dire la fiabilité de ses engins, elle ne peut faire l'économie du temps. Ainsi, soyons réalistes : les robots de service personnel actuellement vantés ne sortiront pas du laboratoire avant dix ou quinze ans.
Si les robots de service personnel spécialisés (aspirateur, nettoyage de vitres, etc.) peuvent continuer à se répandre, les robots de service personnel plus génériques (compagnons, assistants) ne dépassent pas leurs insuffisances fondamentales. Sur le plan moteur, la position debout n'est pas encore acquise. Les déambulateurs robotisés sont encore majoritaires. Sur le plan de la perception, aucun robot domestique ne sait encore reconnaître, comme le fait déjà un bébé de deux ans, un objet générique, comme une chaise, par exemple, qui peut prendre les formes les plus variées. Sur le plan de la manipulation, rien n'est encore vraiment au point. Débarrasser un objet d'une table sans le casser, ouvrir un tiroir ou une porte, manier du linge ou des pièces non solides… voilà des actions on ne peut plus difficiles à recréer chez un robot. RI-MAN, robot infirmier créé en 2006 par Riken, peut certes soulever et déplacer un malade. Mais il ne faut pas attendre grand-chose de plus.
Si l'aspect moteur est loin d'être maîtrisé, que dire de l'émotion ? Les algorithmes savent certes mimer le rire ou l'empathie, mais les robots se trompent. Ils savent détecter un sourire humain, mais ne savent pas l'interpréter ; ils sont totalement incapables de percevoir la douleur. En fait, les robots ne savent pas encore imiter, ni s'adapter. Il leur manque la pertinence, la souplesse, le sens de la situation. Pierre-Yves Oudeyer, directeur de recherches à l'INRIA, déclarait lors d'une conférence donnée en novembre 2010 : « Pour un robot, un salon avec des enfants est beaucoup plus hostile que le fond des océans. Les enfants chercheront toujours à inventer de nouveaux jeux, de nouvelles interactions, etc. Ce à quoi le robot ne peut pas répondre. »
Au total, les prises de décision du robot fonctionnent pour l'instant dans un monde symbolique fondé sur du préenregistré. C'est comme cela qu'un robot peut battre un champion du monde d'échecs ou nous réserver un billet de train par téléphone. Mais pour le robot domesticus socialus, le défi du monde réel reste quasi entier.

L'entreprise du futur - 2 - L'avènement de l’ultra client

L'entreprise du futur - 2 - L'avènement de l'ultra client

L'entreprise du futur - 2 - L'avènement de l'ultra client

Cet article est le deuxième d'une série dont la publication s'étalera sur plusieurs mois.

Le Cluetrain Manifesto de 1999 s'ouvre sur ces phrases prophétiques : « Les marchés en réseau commencent à s'organiser plus vite que les entreprises qui les ont traditionnellement ciblés. Grâce au web, ces marchés deviennent mieux informés, plus intelligents et plus demandeurs en qualités, qui font défaut à la plupart des entreprises. » Et les auteurs du manifeste embraient avec cette formule devenue fameuse : « Les marchés sont des conversations ».

La dynamique de l'échange, ou les marchés comme conversation
L'intuition de 1999 est devenue la clé de bien des stratégies commerciales, notamment depuis que les réseaux sociaux ont donné aux clients une possibilité inédite de s'exprimer. D'ici quinze ou vingt ans elle pourrait tout simplement être la base de toute relation commerciale bien comprise. Pour vendre un produit ou un service, la conformité technique et la performance seront de plus en plus considérées comme allant de soi. La valeur viendra d'ailleurs.

Deux tendances se dessinent. La première est le développement d'une économie des solutions, dans laquelle les biens seront aussi des services, regroupés en bouquets, offrant aux clients non plus la propriété d'un objet (disons une voiture) mais l'accès à différents usages (autour du transport, de ce que l'on peut faire durant le temps de transport libéré par la conduite automatique). Comme l'écrit Michèle Debonneuil, « les solutions n'ignorent pas les produits industriels, mais elles en organisent l'usage différemment : la production de biens au sens classique du terme se contente de fabriquer et de vendre, au mieux d'assurer un service après-vente. Les solutions sont au contraire centrées sur l'aval, sur l'usage, sur le consommateur. Elles sont fondamentalement centrées sur la personne (human centric). » La performance ou la robustesse d'un bien s'effacent alors devant la qualité des flux dans lesquels il s'inscrit et l' « expérience utilisateur » des usages auxquels il donne accès. Le client devient véritablement un usager, l'entreprise industrielle se mue en fournisseur de services personnalisés.

La deuxième tendance est que le client-usager va émettre, délibérément ou pas, une quantité d'informations que l'entreprise devra capter et interpréter, afin d'évaluer sa satisfaction bien sûr, mais aussi de comprendre ses usages, ses habitudes, ses goûts, et de lui proposer de nouvelles fonctionnalités. Le Big Data, en faisant du client un producteur d'informations, donne un sens nouveau à l'idée du marché comme conversation, qui est aussi un simple – mais riche – échange de données numériques.

Dans la vente aux particuliers, le principal défi consistera à évaluer à chaque instant la disposition d'esprit du client, celle-ci se trouvant quelque part entre la satisfaction fonctionnelle et l'émotion. Regrouper les clients en fonction de leur implication émotionnelle, et le faire  en utilisant des outils numériques, sera un des grands marqueurs du succès. Un client satisfait deviendra naturellement, et pour un coût nul, un agent commercial d'une efficacité inégalable. Ce client relais sera souvent un meilleur connaisseur du produit et l'environnement de celui-ci que la plupart des agents commerciaux de l'entreprise.

Le prosommateur deviendra un ambassadeur de la marque. L'internalisation progressive de cette partie prenante qu'est le client, au sein de ce qu'on appelle parfois la « communauté de marque », aura des conséquences sur le modèle d'affaires. Une entreprise capable de se reposer sur ses clients les plus motivés pour vendre ses produits pourra consacrer sa force de vente professionnelle interne à des fonctions commerciales supérieures, en particulier le « cross-selling » (placer des produits connexes auprès des acheteurs ayant déjà consommé) et le « up-selling » (la montée en gamme). Dans cette approche, le client devient un coopérant motivé, compétent et non rémunéré, auquel l'entreprise délègue une fonction importante. Cette délégation comporte des risques qui devront être gérés au plus haut niveau de l'entreprise. L'enjeu, ce sera la stabilité, voire la pérennité, de la marque.

Cet « enrôlement » du client, indissociable de sa montée en puissance, épargnera-t-elle le commerce entre entreprises ? Tout au contraire. Ce qui vaut pour les particuliers vaudra à plus forte raison pour les organisations, et comme le note Jerry Wind (Wharton School) les différences entre BtoB et BtoC tendent aujourd'hui à s'estomper, notamment du fait de l' « empowerment (montée en puissance, montée en capacité) des particuliers, qui bénéficient aujourd'hui d'un niveau d'information souvent comparable à celui des professionnels. Entre BtoC et BtoB, les évolutions seront toutefois sensiblement différentes, tout simplement parce qu'on ne part pas de la même situation de départ.

Même s'il est plus formalisé et apparemment plus rationnel que le commerce BtoC, le BtoB est marqué par une certaine opacité, du fait de la disjonction entre l'acheteur (typiquement, la direction des achats) et l'utilisateur (tel ou tel service de l'entreprise). Mickael Salomon rappelle ainsi que « les décisions d'achat prises par les entreprise impliquent souvent de nombreuses personnes, qui peuvent être chargées de l'achat, influencer directement ou indirectement sur cette décision ou utiliser le produit ou le service ». En dépit ou du fait de cette complexité, les relations commerciales entre une entreprise et ses sous-traitants sont en général plus durables, et les clients ont un pouvoir plus grand face au fournisseur. Les acheteurs sont des professionnels aguerris aux techniques de vente et de marketing opérées par les entreprises vendeuses et, dans une situation de monopole ou d'oligopole, ils savent que le fournisseur est dépendant de ses clients.

Dans le cadre de cette relation asymétrique, une certaine opacité a longtemps été considérée comme nécessaire par des fournisseurs qui n'avaient guère envie de voir leurs marges réduites à zéro. Mais la culture de la transparence est puissante et dans le monde « ouvert » d'Internet l'information circule. De sorte que la communication des informations, et non plus leur rétention, pourrait bien devenir un atout. La transaction commerciale s'accompagnera de flux de données dans les deux sens. Le BtoB est aujourd'hui en retard sur les pratiques de web-marketing développées dans le BtoC, mais l'importance de la « conversation » n'y est pas moins grande, bien au contraire. Le partage des spécifications techniques hier, l'intégration du fournisseur dans les process aujourd'hui, seront complétés demain par une intégration bien plus poussée du feedback utilisateur, rendue possible par le numérique. Le donneur d'ordre, via ses process de fabrication, était entré chez ses fournisseurs. Ceux-ci vont à leur tour s'introduire chez lui, non plus seulement via la figure traditionnelle du représentant, mais via des flux d'informations. Ils collecteront ainsi des masses de données qu'ils ne conserveront pas, mais rendront à leurs clients : c'est dans la qualité de ces échanges que se jouera la relation commerciale.

smil

Métamorphose du commerce
Bousculé par l'ultra client, le paradigme du commerce va poursuivre sa métamorphose. Comme l'explique Cap Gemini dans un rapport en 2013, la nouvelle coalition d'acteurs engagée dans la « vente » construira des produits, puis des services, puis des solutions composites et les entreprises membres de la coalition devront se battre à chaque instant pour justifier leur légitimité et leur valeur ajoutée. Pour défendre sa place face à la concurrence, le vendeur devra se montrer proactif, ne pas se contenter de répondre à la demande. Au lieu d'un produit ou d'un service standard, le client voudra se voir proposer une expérience personnalisée de bout en bout, expérience à la création de laquelle il exigera de participer de manière ouverte et reconnue. L'entreprise, elle, devra offrir cette personnalisation, tout en contenant ses coûts. Pour résoudre ce paradoxe, elle comptera sur la technologie.

Devenue à certains égards un média à la recherche d'une audience, l'entreprise devra s'équiper en conséquence, de manière à pouvoir animer au mieux la nouvelle relation commerciale. Elle devra en particulier recourir à des outils analytiques lui permettant de suivre l'activité de ses clients au sein des différents groupes dont ils sont membres, afin de tenir compte d'une double volonté simultanée du client du futur : être considéré individuellement, en tant que personne,  mais aussi socialement, c'est-à-dire comme le membre d'une ou plusieurs communautés. L'entreprise devra investir dans des instruments – certains étroitement liés au Big data – lui permettant d'analyser et d'anticiper les tendances.

Dans un rapport de 2009 sur le « parcours de la décision d'achat », le cabinet de stratégie McKinsey avait insisté sur la délinéarisation du processus. Longtemps, la métaphore de l'entonnoir avait pu rendre compte de l'évolution d'un consommateur confronté à plusieurs marques et poussé par les forces de marketing vers l'une d'elles, de manière irréversible. Au sein de l'entonnoir, guidé par les forces concurrentes du marketing de différentes marques, le consommateurs passait par plusieurs étapes : prise de conscience, familiarité, considération, achat et, enfin, loyauté. Avec Internet et les médias sociaux, qui permettent une conversation interactive entre le consommateur et les marques, cette approche est partiellement caduque car les points de contact entre client et marque sont plus nombreux. L'irréversibilité ne fait plus partie de l'équation. Le consommateur considère au départ plusieurs marques et va procéder à leur « évaluation active » avec les outils numériques et sociaux. Quand il sélectionne une marque au moment de l'achat, le processus n'est pas terminé. Toute l'expérience post achat est cruciale – elle dessine la « boucle de loyauté » – car elle conditionnera les parcours d'achat ultérieurs de ce consommateur.

Garder la main ?
Pour garder la maîtrise de la marque dans le nouvel équilibre commercial, l'entreprise efficace souhaitera influencer les comportements futurs et se connectera à de nombreuses sources d'information pour acquérir une vision holistique (totale) du client, ce que les spécialistes appellent aussi le « VoC » (Voice of the Customer). Cette évolution impliquera parfois des évolutions de l'organisation. Pour que cette vision nouvelle entre dans les usages de manière opérationnelle, il faudra faire travailler ensemble, de manière beaucoup plus étroite, trois catégories de talents : les commerciaux, les  techniciens et les experts des données (« data scientists »).

Pour acquérir la connaissance augmentée de l'ultra client, les sources d'information vont se multiplier. Selon Walker, un cabinet américain d'intelligence marketing, les différents canaux numériques utilisés pour échanger avec les clients vont non seulement changer mais leur importance relative va beaucoup évoluer d'ici à 2020. L'ordre actuel place en tête l'e-mail (77 %), devant le téléphone (76 %), le contact en personne (57 %) et le site Web (42 %). En 2020, il sera replacé par un autre quarté où domineront les communautés en ligne (68%), suivies des médias sociaux (63%), des sites Web (61 %) et du courrier électronique (58 %). Le défi sera de fournir à travers tous ces canaux une expérience qui soit globalement cohérente.

Pour Walker, l'arsenal analytique devra comporter au minimum plusieurs outils de « smart data » : l'analyse textuelle, pour scanner les emails des clients et y reconnaître des tendances ; l'analyse descriptive pour mesurer l'état et la stabilité de l'entreprise; l'analyse prédictive pour anticiper les besoins et manques exprimés ou non par les clients ; le profilage et la segmentation  de la clientèle pour constituer des groupes cohérents au regard des variables stratégiques de l'entreprise. Seront également nécessaires des instruments capables de relier le retour client aux statistiques financières et opérationnelles de l'entreprise. En soi, ces outils existent depuis longtemps mais leur utilisation en temps réel est une authentique révolution.

Dans le nouvel écosystème, le commerce n'est plus la conséquence logique de la production. C'est plutôt l'inverse : la production devient une des branches de la relation commerciale : l'acte de produire est conçu en fonction de la connaissance des clients. Les entreprises doivent donc reconsidérer le statut de l'activité commerciale  et lui conférer le rôle stratégique qui sera le sien. C'est le dirigeant qui doit piloter lui-même cette activité. Il ne peut plus la déléguer à un directeur du marketing. C'est la seule manière d'insuffler l'obsession client-centrique indispensable.

Cisco est généralement considérée comme un pionnier en la matière et mesure la satisfaction client depuis 1997, l'ayant remontée, selon l'indice maison, de 4,06 à 4,45 au fil des années. Une conséquence inattendue de cette montée en gamme de l'intelligence marketing : comme pour tous les actifs stratégiques, il deviendra difficile de mesurer son retour sur investissement en termes strictement financiers.  Par exemple, la fluidité des affaires ou une meilleure documentation technique peuvent avoir un impact décisif sur la rétention de clientèle. L'identification des clients à risque sera plus que jamais au centre des préoccupations. La compagnie EMC utilise par exemple les données de « VoC » pour déterminer à quelle fréquence et au moyen de quel instrument adresser des mises à jour logicielles à tel ou tel client.

Une révolution copernicienne de la relation client
Comment fonctionnera alors le service clientèle, devenu tentaculaire, avec des ramifications dans chaque département de l'entreprise ? Il aura la forme d'un hub interactif permettant aux clients d'évoluer sans difficulté entre les différents canaux de distribution. Des agents virtuels sophistiqués recueilleront les informations en provenance du client et les feront circuler au sein de l'organisation, de manière à honorer les demandes, y compris les plus complexes. Le principal défi sera de percevoir les attentes et les émotions du client à travers des interactions essentiellement numériques et les agents du service clientèle – ceux qui animeront la relation numérique – devront posséder une formation sophistiquée et jouir d'une forte autonomie car ils auront dans leurs mains, plus que dans l'ancien paradigme, la réputation de la marque.

Et le client ? Comment arbitrera-t-il ses choix ? Naturellement, le « Big data » ne sera pas à la seule disposition des entreprises. Les clients en seront également de gros consommateurs. Ils voudront choisir comment, quand et par qui être servis. Ils demanderont donc accès aux données des entreprises, avec pour ces dernières à la fois des opportunités de contact et des risques de perte de contrôle. Comme l'explique Doc Searls dans un entretien avec ParisTech Review, de même que les outils de CRM (Customer Relation management) ont offert aux entreprises une connaissance très précise de leurs clients, des outils de VRM (Vendor relation management) vont voir le jour et devenir des instruments usuels de l'acte d'achat.

Le commerce « BtoB » sera impacté spécifiquement avec la fin de ce qu'on appelait depuis les années 1980 la « vente de solutions » (les ancêtres des « solutions » évoquées par Michèle Debonneuil). La méthode consiste à déployer une solution face au besoin identifié chez un client. Dans la pratique, un représentant du fournisseur sélectionnait les clients rencontrant un problème correspondant aux solutions qu'il proposait. Charge ensuite à ce représentant de ferrer son interlocuteur et d'utiliser son entregent pour naviguer au sein de l'entreprise cliente. Une analyse de la Harvard Business Review explique à quel point cette approche est devenue périlleuse pour les fournisseurs qui risquent de se retrouver enfermés dans une simple négociation sur le prix. Les clients ont désormais une excellente compréhension de leur problème et formulent des demandes de propositions (RFP) très précises. Pour exister, le fournisseur doit engager son client très en amont, avant même que celui-ci se formule un besoin. Et penser autrement la relation commerciale : cibler les entreprises agiles en état de flux plutôt que celles qui ont une vision claire de leurs besoins, préférer chez le fournisseur les sceptiques du changement plutôt que les informateurs acquis à sa cause, enfin coacher les agents du changement au lieu de les interroger sur le département achat de leur entreprise. Bref, le fournisseur doit opérer une véritable révolution copernicienne.


Portrait robot de l'entreprise du futur: durable dans l'instable

Portrait robot de l'entreprise du futur: durable dans l'instable

L'entreprise du futur – 1 – Portrait robot de l'entreprise du futur: durable dans l'instable

Cet article est le premier d'une série dont la publication s'étalera sur plusieurs mois.

Comment caractériser le monde économique de demain ? En se contentant d'extrapoler, on pourrait insister sur trois aspects. Ce sera un monde ouvert, où l'accessibilité croissante des technologies permettra à de nouveaux acteurs d'investir des secteurs jadis protégés ; par conséquent une forme d'instabilité s'imposera. Selon les pays et les secteurs, l'évolution sera très variée dans sa rapidité et dans son intensité. Mais la vague numérique continuera à déferler sur le monde, et avec elle des innovations radicales redéfinissant en profondeur les marchés, les modes de production et le rôle des différentes parties prenantes.

La fin de l'avantage compétitif ?
Certaines de ces innovations se produisent sous nos yeux : nouveaux modèles d'affaires (gratuité et freemium, crowdfunding, innovation sociale, économie de la fonctionnalité), décentralisation de la production avec les makers célébrés par Chris Anderson, révolution des modes de distribution avec l'ogre Amazon et ses compères, bouleversement des règles de la propriété intellectuelle avec l'open source et les hackers… D'autres bouleversements sont à venir, certains déjà en germe, d'autres encore dans les limbes.

Même les secteurs jusqu'ici épargnés par la vague numérique commencent à s'inquiéter. L'industrie du luxe, qui a su protéger son pré carré et dont les grandes marques ont le vent en poupe, pourrait bientôt connaître des ruptures. Le spatial, longtemps monopole de facto de certaines agences publiques, s'ouvre désormais aux acteurs privés. L'automobile a entamé sa métamorphose et les nouveaux entrants comme Tesla mettent les constructeurs sous pression. L'ameublement, le BTP, l'agriculture, l'hôtellerie et la restauration sont déjà confrontés à l'arrivée de nouveaux acteurs, souvent inventifs, parfois voraces. Non que ces activités soient appelées à disparaître. Mais les chaînes de valeur se reconfigurent, faisant une place à de nouveaux venus, qui obligent les anciens à s'adapter, voire à se réinventer. Ce qui est arrivé à l'industrie musicale et à la presse, prises entre l'émergence de la gratuité et la puissance des géants du Net, est à cet égard emblématique.

La seule certitude, c'est l'aventure, au sens étymologique du terme : ad venturus, ce qui va arriver. Quelque chose, quelqu'un va arriver. Il ne s'agit plus seulement d'un concurrent, qui jouerait avec les mêmes armes que vous. Mais d'une disruption, d'un changement des règles du jeu, porté par un acteur radicalement différent – un collectif, un milliardaire aventureux, des hackers, mais aussi un petit entrepreneur ambitieux soutenu par des venture capitalists. L'accélérateur TheFamily, à Paris, a théorisé cette menace avec une formule emblématique : Les barbares attaquent !

L'entreprise du futur risque fort d'évoluer dans un monde où l' « avantage compétitif », fondement du succès depuis la fameuse théorie de Michael Porter, sera devenu une notion largement caduque. Rita Gunther McGrath, professeur à la Columbia Business School, est spécialisée en stratégie des entreprises en environnement volatil. Dans son livre The End of Competitive Advantage, elle explique que dans de nombreux secteurs, la numérisation a fait tomber les barrières à l'entrée et que tout relâchement dans l'innovation peut menacer une entreprise.

Dans ces conditions, la capacité de comprendre son environnement, de s'adapter, voire de se réinventer, sera plus que jamais un atout, conditionnant non pas seulement le développement mais la survie d'une entreprise. Il ne s'agit pas seulement de voir venir l'attaque, mais bien d'y répondre avec la bonne stratégie. Chacun a en tête la chute de Kodak, emportée par l'essor d'une technologie de rupture inventée par l'un de ses ingénieurs, mais que la firme de Rochester a refusé de développer pour ne pas perturber son activité la plus rentable, la pellicule argentique.

Ce qui est arrivé à Kodak est désormais un cas d'école, porteur d'une leçon ambiguë : le succès d'un modèle d'affaires est source de fragilité. À partir de quand, et jusqu'où, faut-il se détourner d'un modèle qui a fait ses preuves ? Cette question ne se posait jusqu'alors que lors de grandes réorientations stratégiques. Elle pourrait devenir permanente dans le futur.

La taille de la firme sera également un facteur important, ainsi que la forme de son actionnariat. On se souvient de la fragilisation des grands conglomérats à la fin des années 1970 et dans les années 1980. Si certains acteurs – pensons aux plateformes numériques comme Google ou Amazon – pourraient tirer parti de leur gigantisme, pour d'autres la taille ou la variété des activités pourrait se révéler un handicap. Comme le soulignait un rapport récent de McKinsey, les grandes firmes s'adapteront moins facilement. Mais les petites peuvent elles aussi être balayées, dès lors que l'un des géants du numérique se sera mis en tête de s'implanter dans leur secteur, comme le raconte Brad Stone dans The Everything Store: Jeff Bezos and the Age of Amazon.

Il y aura, comme toujours et plus que jamais, des perdants. Mais aussi des gagnants. Est-il possible aujourd'hui d'esquisser le portrait robot des entreprises qui auront su se développer dans ce nouvel environnement ? Quelques auteurs y réfléchissent. Leurs travaux, parfois controversés, peuvent nous guider.

La matière et les flux
Jeremy Rifkin évoque dans un livre récent une « troisième révolution industrielle » marquée par la convergence des technologies de la communication et des énergies renouvelables. L'économie industrielle associée à ce nouveau modèle ne serait plus fondée sur la production massive et centralisée de biens en grande série, mais sur une production distribuée, décentralisée, coopérative.

Sans forcément suivre Rifkin dont le propos n'est pas toujours très rigoureux, on peut considérer sérieusement certaines de ses intuitions, qui éclairent une partie des changements en cours. L'entreprise néo-tayloriste dont le modèle émerge dans les années 1970-1980 était fondée sur un certain imaginaire économique et social : l'accumulation individuelle de capital matériel. Elle avait vocation à nous fournir toujours plus d'objets, d'une qualité ou d'une sophistication croissante, pour un prix toujours plus bas. Un exemple achevé de cette stratégie serait le suédois Ikea, mais c'est dans l'automobile, avec les Japonais, qu'il a trouvé ses formules industrielles les plus intéressantes. Or ce modèle trouve aujourd'hui ses limites. Qui nous dit que la possession des objets restera notre idéal de vie ? En réalité, beaucoup de choses ont changé sans forcément que nous nous en rendions compte. La voiture, objet emblématique de la deuxième révolution industrielle, se partage ou se loue. Elle est de moins en moins considérée comme un bien et de plus en plus comme un service. Les biens produits en grande série par Ikea sont de plus en plus éphémères. On les achète, on les utilise, on les jette. L'horizon de la production de masse, aujourd'hui, ce ne sont pas des objets mais des flux, qui passent dans nos vies sans s'y arrêter très longtemps. Les livres électroniques et les films sont le symbole de ces nouveaux usages : nous les achetons, mais pouvons-nous dire que nous les possédons ? On les acquiert, on les consomme, mais ce sont des objets immatériels, stockés à distance. Avec Deezer et Spotify, certaines offres d'Amazon ou encore Netflix, nous ne possédons plus qu'un droit d'accès, certes quasi illimité, mais qu'on ne pourrait plus qualifier de propriété. Les objets connectés, eux, sont bien physiques. Mais ils trouvent leur valeur dans les données immatérielles qui les traversent, dans les systèmes d'information dans lesquels ils sont inscrits.

Les entreprises appelées à produire ces nouveaux biens-services, ces objets-flux, ne pourront plus concevoir leur activité comme les industriels et les fournisseurs de service d'aujourd'hui. Les nouveaux objectifs d'usage définiront de nouveaux modèles d'affaire, de nouvelles chaînes de valeur : les biens et services seront forcément intégrés. Bien rares seront les acteurs capables de tenir toute la chaîne. Les autres seront obligés de s'associer les uns aux autres, non plus verticalement, selon des relations de sous-traitance, mais horizontalement. L'entreprise du XXIe siècle sera fondée  sur la coproduction et l'accumulation collective de capital immatériel.

Le modèle Hollywood ou le capital relationnel
Pour passer avec succès d'un modèle à l'autre, il faudra redéfinir en profondeur la notion de performance. Car l'entreprise sera avant tout le membre d'un réseau, une co-entreprise, parfois même une fédération d'entreprises, un ensemble composite regroupé en cluster.

On ne classera plus les entreprises en fonction de leur taille petite, moyenne ou grande, mais en fonction de leurs liens plus ou moins étroits avec des réseaux d'entreprises de tailles éventuellement très différentes, qui s'associent entre elles afin de faire des affaires et créer de la valeur. Le modèle « Hollywood », dans lequel des entreprises se regroupent le temps de réaliser un film puis s'éloignent pour rejoindre un autre projet, permet de comprendre le nouveau paradigme : il s'agit de mutualiser et de coordonner des ressources matérielles, d'accéder à des compétences et des savoir-faire à moindre coût. Abriter le minimum de ressources tout en en garantissant l'accès à toutes : telle serait la recette. Cette évolution a commencé, et le modèle néo-tayloriste développé dans les années 1970-1980 s'efface déjà : dans un modèle collaboratif, il est vain de tout planifier et tout contrôler : l'organisation du travail et le management empruntent davantage au modèle des jeux qu'à l'imaginaire militaire qui les a longtemps imprégnés. Les relations de travail « à vie » n'existent plus et les collaborations ponctuelles se multiplient : les collectifs d'hier ont muté, et le concept même de salariat – qui avait fini par s'imposer au cœur de tout l'édifice du travail dans la société industrielle – devient flou.

Pour le projectiviste Denis Ettighoffer, « l'entreprise contemporaine devient une société relationnelle et doit à ce titre se constituer un capital relationnel. Les méthodes de production d'idées et de création de valeur conjuguée constituant l'économie collaborative n'ont rien à voir avec les méthodes traditionnelles de productivité. Dans l'entreprise en réseau, la logique des fonctions cède la place à une logique de la relation. L'expansion continue des connaissances provoque une rupture dans l'appréhension de la richesse. Ce qui crée de la valeur n'est plus la partie physique du travail mais la composante créatrice et relationnelle de l'activité de chaque opérateur humain. Accéder aux idées et aux connaissances pertinentes devient aussi vital que de disposer de matériaux rares ou même de capitaux car les connaissances permettent de remplacer telle ou telle ressource physique qui ferait défaut ».

Dans cette économie relationnelle, la circulation des savoirs et l'intensification des échanges sont la voie royale de création de valeur. Or ces échanges reposent sur une ouverture méticuleuse et systématique vers l'extérieur de l'entreprise, en se rappelant une loi empirique : 80% des innovations sur les processus viennent de l'intérieur de l'entreprise et 80% des innovations sur les produits et services proviennent des partenaires et des clients. Denis Ettighoffer met les dirigeants en garde : « trop souvent, l'utilisation des réseaux reste cantonnée au développement de la productivité plutôt qu'à l'élaboration de processus d'idéation, clé de la valeur ajoutée conjuguée ». La pollinisation des idées et des savoirs par les réseaux sera à l'avenir aussi importante que les gains de productivité de jadis. Ce sont les talents, l'imagination et la créativité qui priment, car tout le reste est irrémédiablement standardisé.

Dans la même veine, l'Américain Paul Romer, professeur d'économie à Stanford, a développé une théorie de l'économie des idées, sujette à de vives controverses, où les idées sont à l'origine d'une croissance au moins aussi spectaculaire que celle apportée par les gains de productivité obtenus par la systémique informatique. De ses travaux, il ressort que l'économie des idées est structurellement différente de celle des objets. La seconde, physique, finie, débouche sur la pénurie et les rendements décroissants. L'autre tire sa puissance et sa richesse de la possibilité illimitée de partage et d'amélioration incrémentale des idées, avec des rendements croissants. Cette valorisation du patrimoine immatériel, c'est ce que certains appellent l'économie quaternaire.

Organisation : l'essor prévisible de l'intrapreneuriat
Comment les entreprises pourront-elles survivre dans leur forme actuelle, alors que tous les fondements de leur existence sont sapés ? Elles sont déstabilisées par le numérique qui bouscule les frontières, celle qui sépare l'entreprise de son extérieur et celles qui séparent les fonctions au sein de l'entreprise. Aujourd'hui déjà, les usages privés des technologies de l'information s'immiscent progressivement dans l'entreprise, constituent un réseau de connaissance parallèle et mettent sous pression les hiérarchies traditionnelles. Des appareils numériques initialement conçus pour un usage domestique s'adaptent au marché professionnel, les employés construisent peu à peu un « Shadow IT » – une informatique parallèle – où chacun apporte et utilise son outil préféré en contournant la norme.

Enfin, la nouvelle organisation cherche à briser les silos, cherche à favoriser le travail « en mode start-up » et stimule l' « intrapreneuriat », pour pousser le salarié à agir en entrepreneur à l'intérieur même de son entreprise. Autre bouleversement architectural : dans l'entreprise intégrée au sein de l'économie de la connaissance, le pouvoir est entre les mains de ceux qui sont au contact des meilleures sources d'information extérieures à l'entreprise. La hiérarchie fordienne pyramidale, qui repose largement sur la rétention d'information, devient progressivement caduque car elle ralentit le flux des connaissances.

Certains experts avaient prévu de longue date les limites de l'entreprise fordienne classique et l'opportunité que représente le démultiplicateur numérique. John Hagel, un ancien stratège numérique de McKinsey, insistait dès les années 2000 sur la chute inéluctable du rendement des actifs des entreprises : 75% entre 1965 et 2010, malgré de spectaculaires hausses de la productivité. Hagel suggère donc d'éclater les entreprises en entités plus petites. Sur ce morcellement du tissu entrepreneurial, l'économiste Charles Handy avait développé dans les années 1980 le modèle du « trèfle à trois feuilles » pour décrire la silhouette  de l'entreprise du futur. La première feuille, c'est le cœur, avec un petit nombre de permanents, très qualifiés et très bien rémunérés pilotant les deux autres feuilles : d'une part le personnel flexible intérimaire à temps partiel et les sous-traitants, y compris les indépendants. Il s'agit en quelque sorte d'une entreprise sans personnel. Cette entreprise noue avec chaque cercle concentrique de partenaires des relations calibrées et on l'a donc parfois baptisée « nœud de contrats ». Dans ce modèle, le statut du travail est infiniment fragmenté.

Tout en prêchant l'adaptation, John Hagel exprimait des doutes sur le bien-fondé d'une intégration profonde des systèmes d'information : intégration entre front office et back office, coopération inter-entreprises, externalisation… Son argument : plus les systèmes sont intégrés, plus le risque d'erreur et son impact sur l'ensemble croissent. En outre dans un contexte de restructuration chronique, l'intégration informatique est un obstacle au changement. Pour John Hagel, qui ne néglige pas les effets délétères de la course en avant technologique, la solution, c'est la modularité, la déstructuration des organisations elles-mêmes en plus petites organisations spécialisées, autonomes, reliées aux autres par les « liens lâches » – en pratique, de simples interfaces standardisées. Voilà pour leur évolution interne.

Quel périmètre stratégique pour l'entreprise étendue ?
L'autre changement, c'est que l'entreprise sort de ses murs. Le fonctionnement en « entreprise étendue » se diffuse parce qu'il reflète bien la nécessité de prendre en compte les parties prenantes à la périphérie de l'entreprise. Le modèle partenarial destiné à favoriser la réalisation de projets est aujourd'hui revendiqué par des grandes entreprises dans leur relation avec leur écosystème de PME sous-traitantes. À l'extérieur, les entreprises seront performantes si elles savent s'entourer d'un écosystème robuste de clients, de fournisseurs et de partenaires, qui leur permet de se concentrer sur leur cœur d'activité.

network

La question devient alors : comment définir le « périmètre stratégique » d'une entreprise, son « core business » ? Pour John Hagel, les activités stratégiques des entreprises relèvent de trois catégories : développer la relation client, innover dans les produits et services, mettre en place une infrastructure efficiente. Or, ces trois activités ont des objectifs et des contraintes qui ne sont pas toujours compatibles. Schématiquement, si ma priorité est la relation client, alors je veux maximiser le panier de vente moyen et donc proposer une très large gamme de produits, quitte à vendre des produits et services venant de partenaires. En revanche, si ma priorité est de construire une infrastructure efficiente, je dois me spécialiser dans un domaine particulier, afin de rentabiliser des investissements souvent importants, quitte à mettre en place un réseau de vente indirect pour trouver le plus grand nombre de clients intéressés par ma gamme restreinte de produits. Si je décide que mon entreprise sera innovante avant tout, je dois recruter des talents, verser des salaires importants et cultiver l'individualisme, ce qui sera exactement l'inverse des caractéristiques de mes employés si je suis orienté vers l'infrastructure.

Le mouvement perpétuel ?
Ces différents schémas d'activité stratégique pourraient constituer la trame du paysage industriel de demain. Ils ont en commun une attention extrême envers l'environnement extérieur, qui contraste avec les modèles managériaux du XXe siècle, concentrés sur ce qui se passe à l'intérieur de l'entreprise.

Il faut imaginer – c'est l'un des buts de la série d'articles que nous entamons ici – des dirigeants et des modes de management différents. D'ores et déjà la question se pose : cette attention constante portée à un environnement instable et volatile, est-elle tenable ? Rita Gunther McGrath, dans The End of Competitive Advantage, recommande une sorte de réorganisation perpétuelle comme garantie de la survie. Mais cette perspective a un air de déjà vu. On sait aujourd'hui les défauts de la « révolution permanente » érigée en modèle de management. Les trente dernières années ont vu la difficile mise en mouvement d'organisations qui, pendant des décennies, avaient fait d'une certaine stabilité la clé de leur expansion. Voyant dans cette culture de stabilité une forme de paralysie, certains dirigeants ont cherché à tout prix la « mise en inconfort » de leurs collaborateurs, avec des résultats parfois dramatiques.

Une des difficultés de l'entreprise du futur sera de garder le cap. On le voit avec les grandes figures des géants du net, qui ont avant les autres fait l'expérience d'un environnement hypervolatile. La plupart, de Steve Jobs à Jeff Bezos, sont des figures à mi-chemin entre le génie et le maniaque, ayant en commun d'épuiser leurs collaborateurs et de désorienter leur management. Un Bezos, par exemple, est à la fois fixé sur un objectif stratégique intangible et capable de bouleverser un grand projet en deux minutes. La mobilité permanente permet d'édifier des empires, mais elle n'est pas facile à vivre pour ceux qui y travaillent.

Il est parfaitement possible que les salariés du futur s'accommodent de cette mobilité généralisée, qui correspond aux valeurs et aux habitudes de la fameuse « génération y ». Dans ce cas, les projections de Rita Gunther McGrath pourraient définir un nouveau modèle, socialement accepté et économiquement efficace.

Mais il est possible, aussi, que cet idéal nomade se heurte à l'inertie du monde réel. Faut-il alors imaginer un monde à deux vitesses, avec des entreprises hyper-innovantes et d'autres réduites à la fourniture de biens et services sans grande valeur ajoutée, réduits à de simples commodities ? Ou un vaste mouvement de freinage réglementaire, traduisant l'incapacité des sociétés à accepter cette volatilité générale ? Une seule chose est sûre. Les tendances à l'œuvre sont puissantes, et le mouvement de destruction-création engagé avec la vague numérique vient seulement de commencer. Nous n'avons encore rien vu.