Dans les quatre premiers articles de cette série sur les propagandes de l’innovation, j’ai traité du sujet des différentes formes de propagande de l’innovation en décrivant pourquoi le marketing de l’innovation était rentré dans le champ de la propagande, illustré comment les données de marché étaient souvent présentées en trompe l’œil, passé en revue quelques exemples d’erreurs scientifiques, pratiques ou économiques, puis évoqué quelques manipulations médiatiques en prenant l’exemple des BitCoins.
Dans cette cinquième partie, je m’attaque à la construction de mythes sociétaux autour du numérique. Un vaste sujet qui ne sera qu’effleuré ici-même !
Ces mythes sont notamment alimentés par les gourous du numérique et leurs nombreux livres “d’aéroport” : Brian Solis, Seth Godin, Chris Anderson ou Jeremy Rifkin pour ne prendre que quelques exemples. Le principe est assez simple : partant souvent d’exemples de startups et d’usages émergents, ils en déduisent des changements de sociétés profonds, souvent largement sur-évalués ou un peu simplistes. S’ensuivent des recommandations pour les marques ou les entrepreneurs, souvent dans des logiques d’annonceurs.
Une autre manifestation : le premier degré de la novlang dans les technologies qui consiste à changer régulièrement l’appellation de concepts communs pour les mettre au gout du jour.
C’est un autre aspect des propagandes du numérique : pour se renouveler, elles rebaptisent les tendances jugées un peu vieillottes avec de nouvelles terminologies. Ce sont souvent des initiatives marketing de sociétés établies qui cherchent à créer leur nouvel “océan bleu”. Des marchés inexplorés où elles pourraient devenir ou redevenir leaders.
Ainsi, le SaaS est devenu cloud, la business intelligence des années 1990 et le datamining des années 2000 s’est transformé en “big data”, les nuances entre l’avant et l’après relevant d’une épistémologie dont seuls les marketeurs technologiques ont le secret. La domotique ? On n’en parle plus, c’est péché et symbole d’échec. On est passé à la maison intelligente et à l’Internet des objets ! C’est la même chose, en plus mieux ! Certes, avec des évolutions technologiques comme la prolifération des capteurs connectés.
Le second degré porte sur les analyses et prédictions sociologiques et économiques qui construisent à elles-seules des mythes. Le tout est souvent associé à de la prospective. En voici donc quelques exemples…
Les foules intelligentes
Depuis l’avènement de l’Internet, ce thème des foules intelligentes est régulièrement remis sur le couvert. Il a été notamment lancé dans “The wisdom of crowds” de James Surowiecki publié en 2005. L’intelligence des foules relève souvent de la force du nombre et de la statistique. Cela valide plutôt des théories statistiques de répartitions gaussiennes des choix que des raisonnements ou de l’intelligence collective qualitative.
La théorie est battue en brèche quand on analyse les mouvements de suivisme qui ne relèvent pas de l’intelligence mais plutôt du cerveau reptilien et des phénomènes de suivisme.
Quand il s’agit d’alimenter l’Internet en contenus de valeurs, il y a cohabitation entre un effet de masse et une forme d’élitisme. Il y subsiste la règle des 100-10-1 dans la plupart des sites contributifs : pour 100 utilisateurs, il y a 10 contributeurs légers et occasionnels ou relais et 1 contributeur engagé. C’est vrai dans les sites où l’on évalue les produits et on le retrouve dans Wikipedia. L’encyclopédie en ligne attire environ 500 millions de visiteurs uniques par mois et est alimentée par deux millions de contributeurs, dont 130 000 actifs par mois. On est donc à 0,4% de contributeurs par rapport au nombre de lecteurs. On est loin de la foule même si le nombre est impressionnant à l’échelle planétaire ! De nombreux sites contributifs rêvent de bénéficier de la même masse de contributions, mais c’est plus difficile, surtout pour la création de contenus élaborés.
Dans Twitter, on constate un phénomène équivalent mais il est moins accentué : 40% des utilisateurs actifs n’envoient jamais de tweets et ne font que lire ceux des autres. Twitter est pour eux un média d’information. Le ratio est élevé par rapport aux autres sites contributifs. Pour une raison simple : la contribution dans Twitter est très légère et ne demande pas de se creuser énormément les méninges ! Surtout quand on sait qu’elle atteint des pics lors des émissions hautement intellectuelles de la TV réalité. Il suffit aussi de lire les forums de discussions dans n’importe quel média pour constater que l’Internet révèle autant l’intelligence que la bêtise des foules. On se demande parfois où penche l’équilibre tellement cette dernière est visible !
Sur et via Internet, on reproduit à l’envie des systèmes élitistes même s’ils présentent la particularité de pouvoir se renouveler plus fréquemment et de permettre à des inconnus d’émerger plus fréquemment. Les notions d’influence et le Klout y contribuent. Cet élitisme cherche des portes-voie qui vont influencer les masses dans des logiques médiatiques qui reproduisent des schémas anciens “influenceurs/influencé” et ne font pas plus qu’avant appel à l’intelligence des foules.
Autre exemples d’invalidation de l’intelligence des foules : les embouteillages (tout le monde part en même temps), le remplissage des métros à Paris (je rentre sans laisser les autres sortir, même si moins de 5% des passagers se comportent comme cela), les astuces marketing qui s’appuient bien plus sur les péchés capitaux que sur les vertus cardinales, les effets de panique liées aux pénuries qui génèrent le chacun pour soi voire même les phénomènes de harcèlement qui prolifèrent sur Internet. Et quand l’audience du New York Times migre vers Buzzfeed, il n’est pas évident que cela relève de l’intelligence des foules mais plus d’une évolution de l’appétence pour de l’information plus facile à consommer.
Il suffit d’aller dans un hypermarché un samedi matin ou pendant “un pont” pour constater que, même sans pénurie, l’intelligence des consommateurs baisse avec l’augmentation de leur densité au m2. Le quotient intellectuel d’une audience est même inversement proportionnel à sa taille. On le vérifie dans les médias ainsi que dans les conférences : plus l’audience est large, plus le spectacle doit l’emporter sur l’intelligence et le savoir, plus il faut simplifier les messages, jouer sur l’émotionnel plus que sur le rationnel et généralement, faire vite. Qui plus est, sur Internet, la bêtise humaine est désinhibée grâce à la protection fournie par l’anonymat. Elle s’exprime plutôt massivement et fait énormément d’ombre à l’intelligence, assimilable dans son état primaire à une expression écrite convenable et argumentée, combinée au respect de l’interlocuteur.
Malgré tout, le volume des audiences et le faible cout de la contribution génèrent un effet de volume pouvant être très impressionnant. C’est un phénomène bien décrit dans “L’âge de la multitude” de Henri Verdier et Nicolas Colin. Mais cette multitude provient aussi de la sphère professionnelle comme avec les applications développées autour de plateformes logicielles.
L’autre exemple souvent mis en avant : les révolutions arabes qui auraient été facilitées par les réseaux sociaux. Ces réseaux ont certainement contribué à la diffusion de la contestation auprès d’une partie de la population, notamment les jeunes bien équipés. Mais ils n’ont pas empêché un retour au fondamentalisme dans de nombreux pays. Jeremy Rifkin parle de “pouvoir latéral” qui remplacerait les “pouvoirs hiérarchiques” traditionnels. Comme en Egypte, où les pouvoirs forts et centralisés se succèdent aux autres (cf par exemple ceci) ? Ou bien en Libye, en plein chaos ?
L’intelligence des foules est en tout cas bien pratique dans les propagandes numériques ! Elle justifie a-postériori tous les effets moutonniers et notamment les reculades incessantes face aux atteintes à la vie privée. L’homme est ainsi fait qu’il privilégie généralement les bénéfices courts terme aux bénéfices long terme. C’est d’ailleurs sur ce principe que fonctionnent beaucoup de mécanismes publicitaires. Le neuro-marketing qui se développe en ce moment va dans le même sens pour exploiter les réflexes de base et neutraliser toute forme de rationalité ou d’intelligence du consommateur.
L’intelligence des foules justifie une autre pratique : la généralisation du “travail gratuit” dans le domaine de l’immatériel. Nous sommes rentrés dans une spirale de dévalorisation du travail intellectuel et créatif. Comme l’intelligence est censée être abondante, pourquoi donc la rémunérer ? Les médias remplacent par exemple progressivement des articles de journalistes (rémunérés) par des contributions d’experts (qui ne le sont pas, mais bénéficient ainsi d’une “visibilité”). Et ils rechignent à payer les photographes pour se tourner vers les banques d’images !
Quand le web 2.0 est apparu il y a 10 ans, pas mal de startups ont été bercées d’illusions sur l’intelligence des foules et son incarnation dénommée ‘user generated content”. Combien de sites – notamment dans la recommandation d’achats – comptaient sur cela pour alimenter leurs bases d’avis de consommateurs ?
Ces sites se heurtaient à plusieurs difficultés : créer un inventaire de contenus suffisamment dense pour attirer les premiers utilisateurs, attirer une masse critique de consommateurs, et ensuite, le faire dans la durée et pour couvrir une offre aussi large que possible. Il était toujours facile de capter des recommandations sur les produits leaders, qui n’en avaient pas vraiment besoin (genre un iPhone), et bien plus dur de couvrir la “longue traine” de l’offre commerciale avec un bon taux de couverture. Qui plus est, les avis des consommateurs étaient généralement rudimentaires (bien, pas bien, bof) alors que l’on cherche en général un peu plus de profondeur d’information que cela ! Cela ne veut pas dire que l’UGC ne fonctionne pas. Mais il favorise généralement les grands acteurs mondiaux, seuls capables de capter une masse critique d’informations. Amazon et eBay dans le commerce en ligne, Youtube dans la vidéo, etc.
Les bonnes pratiques consistent à élargir son offre par cercles concentriques, et faire en sorte que pour chaque cercle, le niveau de contribution soit suffisant pour générer une bonne valeur d’usage. La focalisation peut-être thématique ou géographique, voire les deux. Le défi consiste à identifier et recruter les fameux 1% de consommateurs actifs qui vont alimenter le site en UGC ou, maintenant, en offres relatives à l’économie collaborative.
A contrario, l’UGC automatique est bien plus facile à capter, notamment grâce aux objets connectés. C’est l’approche de Netatmo qui utilise ses stations météo pour générer des cartes de température ou du bruit à partir des données captées automatiquement par tous ses clients. Mais c’est de la donnée, pas du contenu. Au lieu de la règle des 1-10-100, le taux de couverture n’est handicapé que par l’opt-in ou l’opt-out des utilisateurs, une fois pour toutes. Et les taux d’opt-in dépassent sans difficultés plusieurs dizaines de %.
Le consommacteur
Dans la lignée du thème précédent, voilà un autre mythe bien construit qui alimente tout le business du “marketing digital”. Le consommacteur est ce citoyen de l’ère numérique qui rêve toute la journée d’acheter des produits de marques, de dialoguer avec elles et qui passe son temps à donner son avis sur tous les produits qu’il achète ! Voire même sur ceux qui n’existent pas encore dans un exercice de “co-création”.
Le consommacteur est engagé, il donne son avis, il contribue. La réalité ? En général, il souhaite qu’on lui fiche la paix. Encore la règle des 1-10-100… ! Le 1% sont les “influenceurs”, suivis par les autres. Les études de marché montrent que le bouche à oreille est toujours le medium de réputation le plus important et il mettrait les influenceurs du web en tête de peloton.
Là encore, la généralisation peut jouer des tours. L’effet de levier des consommacteurs dépend des catégories de produits. Le phénomène est très développé pour les produits qui ont une forte valeur sociale et qui sont affectés par les effets de mode, comme dans le fashion ou les contenus. Pour tout un tas de produits de commodité, notamment dans l’alimentation, le phénomène est plus atténué.
Le consommacteur est surtout un moyen de développer des pratiques marketing qui coutent moins cher et qui consistent à faire travailler le client soit pour co-concevoir les produits, soit pour en faire la promotion ! C’est dans la logique du travail gratuit, déjà évoquée.
Mais l’élasticité du modèle n’est pas infinie. Les “influenceurs” sont sollicités de toutes parts et n’ont pas un temps infini à consacrer aux marques. Surtout si leur rôle d’influenceur n’est pas une activité à plein temps (ce qui d’ailleurs pour moi les classe dans le rôle de médias comme les autres…).
Nombre de startups commettent ainsi l’erreur d’intégrer uniquement du communautaire, de l’UGC et de l’activation d’influenceurs dans leur plan marketing avec quasiment zéro budget. Elles le font très souvent extrêmement maladroitement, avec des envois de mails en masse réalisés par des stagiaires ou des agences de relations publiques alors qu’il faudrait mieux cibler et personnaliser les messages et si possible les faire envoyer par les fondateurs de la startup ! Elles oublient aussi que marketing mix est plus complexe, et que cela demande plus d’investissements en temps et en moyens financiers ! Elles oublient aussi plus simplement les relations presse traditionnelles. Les clients lisent encore la presse écrite, quel que soit le tuyau de diffusion, papier ou numérique !
Même les innovations de services qui reposent sur de la contribution et/ou de l’intermédiation telles que Airbnb, Lyft ou Uber font appel à des ressources financières significatives pour monter en puissance. Uber a ainsi levé $307m alors que la société ne gère pas de flotte de véhicules mais n’est qu’un simple intermédiaire entre les chauffeurs et les passagers ! Idem pour Airbnb qui a levé plus de $700m à ce jour ! L’économie des services est rapidement très capitalistique quand l’ambition est mondiale !
La confiance
Autre mythe souvent mis en avant, notamment avec les systèmes de paiement : la confiance ! Ce serait l’un des socles de l’Internet. La confiance serait une fonctionnalité à mettre en avant pour promouvoir un service.
A vrai dire, on appelle confiance ce qui n’est que de l’ignorance ou une illusion. Assistez pour faire l’expérience à une conférence d’un expert en sécurité. Il va réduire en un tour de main votre confiance dans les outils numériques et provoquer chez vous tout d’abord un début de panique, au minimum de l’inquiétude, puis une envie irrésistible de mieux protéger votre ordinateur et l’ensemble de votre vie numérique. La confiance ne reviendra qu’une fois tout bouclé à double tour, et encore, le doute subsistera.
Si vous ne savez pas à quels risques vous vous exposez, vous aurez toujours “confiance”. Même topo quand on découvre les mécanismes de publicités ciblées analysant nos faits et gestes numériques : Google qui lit vos mails Gmail, qui connait vos besoins via vos recherches, Criteo qui analyse vos visites sur les sites de commerce en ligne, l’opérateur de TV payante qui vous fait de la recommandation de contenus en fonction de vos habitudes de consommation, etc. Certains résistent en passant à un autre outil sans se rendre compte qu’il dépend parfois des précédents : ainsi, de nombreux moteurs de recherche alternatifs utilisent en fait les APIs des grands moteurs du marché (certes, en jouant le rôle de proxy, ils vous isolent un peu, mais sait-on…).
Quelle est la proportion des internautes qui lisent les interminables clauses générales d’utilisations, surtout celles qui changent à tout bout de champ comme celles de l’App Store ? Ils ne lisent pas non pas parce qu’ils ont confiance, mais parce que c’est matériellement impossible : faute de temps et parfois de bande passante et de compétences juridiques. Allez vérifier par exemple si les photos que vous publiez sur Facebook vous appartiennent toujours. Il faut se documenter à droite et à gauche pour s’y retrouver, et encore, les sons de cloche sur Internet sont plutôt dissonants sur ce point.
L’usage des services gratuits en ligne est dans le même cas. C’est une stratégie des petits pas de la confiance qui fait que nous acceptons plus qu’avant de livrer notre ADN émotionnel et cognitif aux réseaux et services en ligne. Il est d’ailleurs difficile de revenir en arrière avec des réseaux limités qui sont censés apporter un environnement plus sécurité ou une audience plus limitée. C’est le cas des réseaux sociaux familiaux qui n’ont jamais atteint le taux de pénétration des réseaux sociaux généralistes. Et les réseaux comme Path (lancé en 2010, et financé à hauteur de $77m) qui limitent le nombre d’Internautes que vous pouvez suivre ? Ils ne décollent pas vraiment, ou en tout, pas à la hauteur des réseaux tels que Facebook ou Twitter. Cela n’a rien à voir avec la confiance. Celle-ci passe à la trappe face à la force du groupe et de la viralité.
L’affaire Snowden a révélé une perte de confiance envers les Etats occidentaux dont on a découvert les capacités de surveillance électronique. Ces capacités étaient pourtant bien connues des connaisseurs (cf Big brother nous surveillait déjà) mais c’est leur révélation publique à l’échelle planétaire qui a rogné la confiance. Avec un scénario unique : la confiance à la fois dans les Etats et dans les acteurs privés du secteur, aidant ces Etats, volontairement ou pas.
La réponse des industriels est claire notamment pour ce qui concerne les objets connectés : derrière les déclarations de bonnes intentions, cette confiance, que vous l’ayez ou pas, ce sera pareil, vous y passerez ! Vous avez bien déjà accepté de partager votre vie intime avec les autres via les outils de connectivité d’Internet ! Donc, vous suivrez le mouvement comme avant, sans vous poser trop de questions. Envoyées à la trappe les réflexions citoyennes et les réserves concernant le respect de la vie privée !
La confiance pose une autre question : les vertus d’un système sont-elles préservées une fois qu’il devient la norme ? C’est une question à se poser pour les réseaux sociaux comme pour les monnaies. Pour reprendre le thème du post précédent sur les Bitcoins, une monnaie “refuge” n’en est plus une si tout le monde l’utilise ! Même question à se poser pour les objets connectés qui mesurent tout, à tout bout de champ !
Un très grand nombre de startups s’évertuent depuis une grosse quinzaine d’années à proposer des solutions diverses de signature électronique ou de sécurisation. Elles peinent en général, surtout dans le grand public. Vendre de la confiance n’est pas suffisant comme valeur d’usage. Il faut autre chose, qui se résume souvent à gagner du temps et/ou de l’argent ou bien d’augmenter le plaisir (dans le marché grand public). D’où l’imposition de certaines de ces solutions par la voie règlementaire ! Ou bien le couplage de bénéfices qui relèvent de la confiance avec d’autres qui sont plus facilement matérialisables, tels que la simplicité ou la rapidité de fonctionnement.
La fin de la propriété
Là encore, on part de quelques exemples et on en déduit des conclusions hâtives. Le thème est propagé par les acteurs de l’économie collaborative et du partage. Partant du succès des sites de partage de voiture (Blablacar et autres) ou de logements (Airbnb), et aussi à la consommation de contenus dématérialisés (via iTunes et le sites de musique ou de vidéo sur abonnement) on extrapole facilement à tout le reste. On n’achète plus des produits, mais des usages et des services !
Cela mérite un peu de recul. Posons-nous la question pratique : dans quels cas avons-nous besoin posséder le produit ou tout du moins l’avoir sous la main et dans quels cas pouvons nous faire appel à d’autres pour en avoir l’usage ?
Ce n’est pas une question de sociologie nécessitant de lire dix ouvrages de référence mais une question de bon sens !
Tout dépend de l’usage du produit et de la combinaison de plusieurs facteurs : le délai pour l’obtenir, le cout de la location par rapport à la propriété (ou la durée d’amortissement de la propriété), le choix (l’objet qui correspond à son besoin), le montant de l’investissement pour la propriété, la fréquence d’utilisation, le fait que l’objet est facilement déplaçable (allez prêter votre cbaine hi-fi…), le plaisir ou pas de posséder l’objet en question et l’affichage social qui va avec, et le côté générique du produit (qui peut passer d’une main à l’autre) ou le niveau de personnalisation nécessaire pour son usage. L’économie du partage se développe lorsque des innovations technologiques permettent de modifier un ou plusieurs de ces paramètres dans le sens de la mutualisation et du partage. Cela ne fonctionne pas dans tous les cas !
L’économie du partage de biens physiques ne peut d’ailleurs généralement pas fonctionner sans propriété : les deux sont liées ! Les logements de Airbnb et les voitures de Blablacar sont bien partagés par des gens qui les possèdent. Ou bien dans le cas de services tels que Uber, on a juste à faire à des prestataires de services traditionnels, à l’instar des taxis.
A contrario, pour les produits d’usage fréquent et très personnels comme votre smartphone ou votre laptop, le partage est quasiment hors de question, même dans le cas de ce dernier et en faisant appel au cloud via des solutions telle s que les Chromebooks ! Le petit outillage de bricolage est peu partagé et le gros est loué chez Kiloutou. Vos ustensiles de cuisine sont logés à la même enseigne : ce qui s’utilise fréquemment est chez vous. Vous pouvez cependant louer ce dont vous n’avez pas besoin fréquemment, comme pour organiser un barbecue.
Par contre, le partage de produits apporte par contre beaucoup de valeur lorsqu’il est associé à du partage de connaissances. C’est un peu le fonctionnement des Fablabs ou des Hacker Spaces.
La voiture est un exemple d’équilibre instable. On possède généralement une voiture car on peut l’utiliser quand on le souhaite. On la gare chez soi ou en bas de chez soi (ou presque…). Par contre, si on veut en louer, il faut trouver le loueur près ou loin de chez soi. Ou l’Autolib, qui n’est pas forcément plus près. Dans les entreprises, le leasing de flottes de voitures est une forme de semi-propriété. La plupart de ces véhicules sont attribués à des individus, ce qui est voisin de la propriété du point de vue de l’accès. Dans quelques cas, une partie de la flotte des véhicules d’entreprise est mutualisée.
D’ici une quinzaine d’année et avec les voitures à conduite automatique, tout changera. Elles seront plus facilement mutualisables. On pourra les “siffler” avec son mobile et la plus proche qui sera disponible arrivera sous notre nez presque instantanément. Quand le délai d’accès au produit se rapproche de celui que l’on possède, la propriété peut effectivement être remplacée par l’usage sur abonnement.
Pour les usages fréquents mais non répétés, la propriété n’a en effet pas de sens. C’est pour cela que la vidéo à la demande et surtout la SVOD se développent. Pourquoi empiler des DVD, même Bluray, si c’est pour les regarder en moyenne une seule fois ? C’est lié à la dématérialisation des supports et la fin des CD et des DVD. Tout comme les sites d’abonnement à la musique style Deezer, Pandora ou Spotity. Le stock de contenus est tellement abondant qu’il vaut mieux y avoir un accès large quand on le souhaite que posséder une copie du contenu. D’ailleurs, dans le domaine des contenus (musique, vidéo, logiciels, jeux), on ne possède jamais le contenu. On a un droit d’usage associé à un support physique ou pas. Les prochains sur la liste ? Les livres et les bibliothèques personnelles.
Il y a aussi une bonne part de la population qui “n’aime pas déranger” et qui préfère être autonome plutôt de devoir demander à quelqu’un de lui prêter un objet quelconque. Ce phénomène est accentué dans les villes ou les relations de voisinage sont moins denses que dans les petites communes où l’esprit d’entre-aide est généralement plus développé.
A vrai dire, on est loin de la fin de la propriété, tout du moins dans le monde physique. C’est plutôt l’ère de l’optimisation et de la mutualisation.
En quoi cette thématique de l’économie du partage sert-elle de propagande de l’innovation ? Elle alimente le business de tous les acteurs de l’économie du partage avec un thème sociétal porteur. Elle a aussi justifié des évolutions dans les modèles de tarification des logiciels, passant de la licence perpétuelle à des abonnements. Le consommateur n’y trouve pas forcément son compte surtout si on lui impose la chose. Demandez aux graphistes ce qu’ils pensent de la politique de licence d’Adobe avec la Creative Suite, sans compter les pannes de cloud ! Dans ce cas là, c’est surtout du marketing permettant de lisser les revenus !
L’économie à cout marginal nul
Voilà un concept popularisé par l’économiste Jeremy Rifkin dans son dernier livre “The zero marginal cost society”. Il y développe un thème qu’il avait déjà abordé dans son ouvrage précédent “The third industrial revolution”.
Il reprend à son compte certains éléments des propagandes numériques pour annoncer la fin du travail ou des usines, notamment dans “The End of Work” (1995, assez visionnaire). Dans “The Zero Marginal Cost Society” (2014), il prévoit la fin du capitalisme via l’Internet des objets et l’impression 3D, voir le résumé).
Il considère que les progrès technologiques vont amener à zéro le cout marginal de production des biens, services et même de l’énergie. Nous serons dans un futur proche des “prodsumers” (mon expression) dans toutes les catégories, capables de fabriquer voire concevoir leurs propres produits (avec de l’impression 3D) et notre propre énergie (avec le solaire domestique). Il pense que le solaire photovoltaïque va continuer à suivre la loi de Moore côté prix et qu’il suffira à recharger les batteries de nos voitures électriques. En 2030, 100 trillions d’objets connectés seront intégrés dans un réseau neuronal “global”.
Jeremy Rifkin anticipe l’émergence d’un nouveau système économique qui extrapole la docta actuelle : les social commons, l’économie collaborative, le partage des objets. Comme on aura besoin de moins de travail pour produire les biens, de nouveaux métiers émergeront dans les social commons. Il ne fait pas de différence bien claire entre l’économie des social commons (qui peut rester marchande même si elle s’apparente parfois au troc) et l’économie de marché classique.
Il propose en tout cas de redistribuer les revenus de l’économie de marché à celle des “social commons”. Pas étonnant avec cela que ce consultant travaille plutôt avec les gouvernements allemands et français, ou avec la région de Lille, qu’avec son pays d’origine, les USA, même sous coupe démocrate.
Mais son raisonnement présente pas mal de limites. Dans le solaire, Rifkin extrapole un peu rapidement ce qui peut se passer avec des maisons individuelles sur de grands terrains en Californie, un état très ensoleillé. Quid de la grosse moitié des habitants de cette planète qui habitent dans des villes (actuellement, et 75% de prévu en 2050), qui plus est pas suffisamment ensoleillées ?
L’énergie solaire se trouve surtout dans les pays ensoleillés et industrialisés, générant d’autres formes d’inégalités. Elle est inégalement répartie, sans compter les questions du stockage et du transport qui sont loin d’être réglées ! Il est toutefois possible de créer des bâtiments à énergie positive ou presque à énergie positive, en limitant les déperditions d’énergie, en réduisant la consommation électrique et en rendant le bâtiment autonome dans sa production par tous les moyens associant en général l’éolien et le solaire.
Quant aux coûts marginaux égaux à zéro, c’est une vue de l’esprit. Il oublie les consommables (pour l’impression 3D), le temps que dure l’impression, la manipulation, les erreurs et la maintenance. Pour l’Internet, il oublie évidemment les coûts d’exploitation qui bénéficient certes d’économies d’échelle mais sont loin d’être nuls. Ne serait-ce que l’énergie pour alimenter les data centers et le remplacement régulier des disques durs qui tombent en panne tous les trois ans !
Les grands acteurs de l’Internet doivent échafauder des plans pour s’approvisionner en énergie, quitte à parfois construire les datacenters près des sources d’énergie, comme les barrages hydrauliques, ou à monter des systèmes alambiqués de cofinancement de sources d’énergies renouvelables qui ne sont pas utilisées directement par les datacenters (cf les Purchase Newewable Energy de Google).
Même dans le meilleur des cas, les coûts variables deviennent des coûts fixes, plus élevés, notamment dans les bâtiments à énergie positive. Dans les énergies renouvelables, le retour sur investissement des installations est censé aller de 8 à 15 ans selon les cas. Avec le solaire photovoltaïque, il fluctue lorsque le tarif de revente de l’électricité à l’EDF baisse. Et lorsque l’on remplace un cout variable par un cout fixe couvert par l’emprunt, on encourage le développement du système financier et l’augmentation des dettes ! Le cout devient alors financier, par l’intérêt et les remboursements de cette dette, par entièrement couverts par la production d’énergie. La dette fait réapparaitre un cout variable, sous une autre forme !
Même dans la création de logiciels, il y a des coûts variables. La complexité augmente toujours avec l’élargissement de la base des utilisateurs ! Certes, ces couts variables sont faibles au regard des coûts fixes et du chiffre d’affaire si les volumes de diffusion sont très importants. Mais ils restent variables dans la pratique.
Il est d’ailleurs intéressant de constater l’effet de ciseau des modes : le cloud consistait pour les entreprises à remplacer des capex (capital expenses, dépenses d’immobilisation) par des opex (operating expenses, dépenses de fonctionnement). Les serveurs internes sont remplacés par de la location de ressources de datacenters. Avec le zero marginal cost, c’est le contraire : on remplace en théorie des opex (accès à l’énergie) par des capex (création de capacités de production en interne). Dans les deux cas, il y a des coûts variables car ceux-ci sont mensualisés du fait du mode de financement.
Les modèles économiques à couts variables faibles sont dans la continuité de l’histoire du capitalisme qui a toujours fonctionné sur le principe des économies d’échelle. Un patron en génère grâce à des salariés puis à l’usage de technologies, financées par du capital. Ce qui change, c’est l’accroissement des économies d’échelle permises par le numérique. C’est ce qui génère la très grande profitabilité des éditeurs de logiciels, grands acteurs de l’Internet et aussi des leaders des semi-conducteurs !
Cet enrichissement ne les a pas détruits jusqu’à preuve du contraire ! Du fait du transfert de leur valeur ajoutée vers des coûts fixes importants assortis de la constitution de plateformes et d’écosystèmes très denses, ils ont créé des barrières à l’entrée et sont devenus des monopoles ou quasi-monopoles de fait et des législateurs privés de notre vie numérique ! Ils peuvent vendre leurs services et produits avec de fortes marges sans être trop inquiétés par la concurrence, tout du moins, tant qu’ils ne ratent pas une rupture technologique majeure du marché.
C’est le principe même d’une startup que de créer un modèle de vente répétable avec de fortes économies d’échelle, le tout étant financé par du capital (business angel, capital risque) permettant de créer l’offre et de la déployer plus rapidement que des business traditionnels.
Qui plus est, le numérique a détruit énormément d’emplois de la classe moyenne, surtout aux USA. Loin d’entrainer la fin du capitalisme, le numérique l’a plutôt amplifié. Allez chercher un logement à San Francisco pour voir !
L’autre biais de Jeremy Rifkin concerne le timing. Il envisage un monde pacifié grâce aux technologies. Alors qu’il est fort probable qu’il traversera des crises importantes avant car la transition énergétique se fera dans la douleur et trop lentement pour ralentir significativement le réchauffement planétaire. La terre est devenue une gigantesque Ile de Pâques (cf “Collapse”de Jared Diamond) !
La glorification de la génération Y
Autre mythe qui a la vie dure, celui de la génération Y et des “digital natives” qui sont parés de plein de vertus car ils sont nés avec le numérique. Vertus peut-être, mais pas que des vertus. Ils gagnent des capacités et en perdent en même temps. Notamment dans la capacité de concentration.
Qui plus est, les analystes renforcent artificiellement les différences entre la génération Y et les autres générations. Alors que les usages numériques sont maintenant développés dans toutes les classes d’âge. Ils génèrent d’ailleurs les mêmes symptômes comme la perte d’attention, l’illusion du multi-tâches et la drogue de la connectivité permanente. Ce n’est pas pour rien que François Hollande a du interdire l’usage des SMS pendant les Conseils des Ministres, un endroit où les “Gen Y” ne sont pas légion ! Tout en faisant une bourde énorme juste avant les municipales de mars 2014 en associant “numérique” avec “jeunes” (“Oui, il faut un vrai ministère du Numérique. En tout cas, il faut que la jeunesse soit représentée.“) ! Qui plus est, le numérique est une machine à tuer l’ennui qui génère son propre ennui et ne satisfait pas forcément tant que cela les jeunes générations !
Dans la vraie vie, la mythique “génération Y” change ses habitudes lorsqu’elle rentre dans la vie active. Elle passe d’une étape de la vie où l’aventure et les découvertes sont remplacées par le salariat (en dominante, face à l’entreprenariat), la routine, les managers, la vie de couple, les enfants à élever, les tâches administratives. Elle retrouve l’usage de la TV car les sorties sont plus rares, etc. Le grand cycle de la vie ! Pour les innovateurs, il reste donc à faire le tri entre les changements induits par le numérique chez les jeunes et les moins jeunes, puis à identifier les grands invariants de la vie en société !
Dans l’épisode suivant, qui sera le dernier, on traitera de la figure de l’ennemi, des facteurs humains de l’adoption de l’innovation, et avec quelques autres conseils à l’attention des entrepreneurs et les disrupteurs en herbe.
Olivier Ezratty – Fondateur Blog Opinions Libres
Derniers articles
Les propagandes de l’innovation – 4
Les propagandes de l’innovation – 3
Les propagandes de l’innovation – 2
Les propagandes de l’innovation – 1