En ce moment même, sous nos yeux, le web vacille sous les assauts de l’intelligence artificielle. Ce qui devait être une révolution de l’accès à la connaissance, l’IA, devient une machine à siphonner le travail des médias, sans retour pour ceux qui le produisent. Chaque clic perdu, chaque visite détournée fragilise un peu plus le journalisme, les sites de référence, la diversité des voix. Mais en sciant ainsi la branche où elle est assise, l’IA prépare sa propre asphyxie : sans contenus frais, elle finira par recycler du vide. À force de tuer ses sources, l’IA menace d’entraîner tout le web dans un suicide collectif.
Lorsque Tim Berners-Lee a inventé le World Wide Web en 1989, il ne songeait pas à bâtir une place de marché ou une usine à données. Il rêvait d’un espace commun, libre et ouvert, fondé sur le partage du savoir et la circulation des idées. Le web originel reposait sur une valeur cardinale : l’hyperlien. Chaque page, chaque ressource, menait vers une autre. L’esprit était celui d’un réseau de coopération, pas celui d’une compétition féroce pour la captation d’attention.
Trois décennies plus tard, ce pacte fondateur est en train de se déliter. La montée en puissance des intelligences artificielles génératives bouleverse le rapport entre producteurs de contenu et internautes. Hier encore, le moteur de recherche était une boussole : il conduisait vers les sites, garantissant à ces derniers un flux de visiteurs, et donc des revenus via la publicité ou l’abonnement. Aujourd’hui, l’IA se pose comme une interface directe, absorbant les questions et régurgitant des réponses synthétiques. Plus besoin de cliquer. Plus besoin, même, de savoir d’où vient l’information.
Ce glissement est radical. Selon Similarweb, le trafic issu des recherches a chuté de 15 % en un an. Les sites de santé perdent jusqu’à 31 % de leur audience, ceux de référence 15 %, et les plateformes éducatives ou scientifiques environ 10 %. Autrement dit, les sites qui portaient une mission de service public — informer, expliquer, éduquer — sont parmi les plus fragilisés. En parallèle, OpenAI revendique environ 800 millions d’utilisateurs pour ChatGPT. Google, qui contrôle 90 % du marché de la recherche, a intégré des « aperçus IA » à ses résultats, réduisant encore l’incitation à visiter les sites.
Un des chiffres les plus marquants vient d’une étude d’Authoritas : un site classé en première position sur une requête peut perdre jusqu’à 79 % de son trafic si son lien est relégué sous un résumé IA intégré dans les résultats de recherche.
Un autre rapport cite des baisses comprises entre 15 % et 64 % de trafic organique selon le type de requête ou secteur, à l’instar de ce que les fonctions d’“aperçu IA” entraînent. Dans 37 des 50 plus grands domaines d’information, l’audience a diminué d’une année sur l’autre après le lancement des “AI Overviews” de Google.
En outre, le pourcentage de recherches “news” aboutissant à zéro clic (c’est-à-dire où l’utilisateur obtient la réponse directement sans visiter le site source) est passé de 56 % à 69 % en un an (de 2024 à 2025). Des médias majeurs ont subi des baisses colossales : Forbes et HuffPost ont perdu environ 40 % de trafic, DailyMail ~32 %, CNN ~28 %.
Cela montre que l’impact n’est pas marginal : certains médias “top” subissent des écroulements à deux chiffres.
En Europe et en France : des signaux émergent. Sur le continent, les éditeurs interrogés lors du Digiday Publishing Summit Europe évoquaient le « déclin de trafic sur site » comme leur principal défi. Le rapport Uncovering News Deserts in Europe souligne que dans l’Union européenne, de nombreux médias locaux sont en situation fragile, certains disparaissent ou réduisent fortement leur fonctionnement faute de revenus suffisants pour entretenir une audience en ligne.
Quand les excès du web ouvrent un boulevard à l’IA
Il serait injuste de présenter l’IA comme seule responsable de l’effondrement du modèle du web. Si elle prospère aujourd’hui, c’est aussi parce qu’internet a trahi, depuis longtemps déjà, une partie de ses promesses originelles. À l’idéal d’un espace de partage fluide et transparent s’est substituée une jungle publicitaire. Bannières clignotantes, vidéos automatiques, cookies omniprésents, pop-ups envahissants : pour lire un article, l’internaute doit souvent franchir une série d’obstacles dignes d’un parcours du combattant.
À ces pratiques s’ajoute une autre dérive : l’inflation de contenus médiocres. Des sites opportunistes, générés pour plaire aux algorithmes de Google, ont saturé les résultats de recherche. Ces « fermes à clics » brouillent la frontière entre l’information fiable et la poudre aux yeux, rendant la navigation toujours plus frustrante. Le web, qui devait incarner la richesse et la diversité, s’est trop souvent transformé en supermarché de la distraction et de la monétisation agressive.
Dans ce contexte, le succès des agents conversationnels et des IA génératives s’explique aussi par un besoin de simplicité. Poser une question à ChatGPT ou activer le mode IA de Google semble offrir une réponse claire, débarrassée du vacarme publicitaire et des pièges du référencement. L’IA se présente comme un raccourci confortable, une solution élégante face à un web devenu illisible.
Mais cette « propreté » apparente cache un problème plus profond : en contournant les sites sources, l’IA accélère leur déclin. Or ce sont précisément ces sites — médias, chercheurs, créateurs — qui produisent la matière première indispensable aux IA. Si l’on laisse le web se vider de sa substance, il ne restera bientôt plus rien à résumer. L’IA n’aura alors fait qu’exploiter les dérives d’un système fatigué pour mieux précipiter sa chute.
L’économie des médias menacée
Pour les médias, le constat est brutal. Leur modèle d’affaires dépendait d’une équation simple : produire du contenu, attirer du trafic, monétiser ce trafic. L’arrivée des IA casse cette chaîne de valeur. Les articles sont aspirés, digérés, reformulés, et restitués aux lecteurs sous forme de résumés ou de réponses directes. Le média, maillon essentiel, devient invisible.
Certains grands groupes tentent de négocier. Le New York Times a poursuivi OpenAI et Amazon. News Corp a signé des accords de licence. Reddit a décroché 60 millions de dollars par an de Google. Mais combien de médias locaux, de pure players indépendants, ou de chercheurs isolés peuvent se battre à cette échelle ? La majorité n’a pas la puissance de feu juridique ni économique pour imposer une rémunération équitable.
C’est tout l’écosystème de la presse et de l’information qui se trouve ainsi menacé. Moins de clics, c’est moins de revenus publicitaires, donc moins de journalistes embauchés, moins d’enquêtes, moins de diversité éditoriale. À terme, cela revient à scier la branche sur laquelle repose la démocratie informationnelle. Car sans médias vivants, qui contrôlera les faits, qui produira la matière brute que les IA prétendent ensuite synthétiser ?
Le paradoxe d’une IA cannibale
Un paradoxe abyssal se dessine. L’IA s’alimente des contenus publiés sur le web. Elle a besoin de cette matière première — articles, bases de données, archives — pour fonctionner, apprendre, et générer ses réponses. Mais si, en siphonnant le trafic, elle tue les sites qui produisent ces contenus, elle sape son propre écosystème. C’est une boucle fatale : une IA sans sources fraîches finira par tourner en vase clos, recyclant ses propres productions, au risque de s’appauvrir intellectuellement et de répandre des erreurs démultipliées.
Nous ne sommes pas face à une simple crise de modèle économique. Nous sommes face à un risque systémique. La disparition progressive des médias indépendants ne signifierait pas seulement la perte d’un pilier démocratique. Elle condamnerait aussi l’IA à l’asphyxie cognitive. Comment continuer à « répondre » si plus personne ne crée, si plus personne n’enquête, si plus personne ne nourrit l’espace commun ?
Trois avenirs possibles pour le web à l’ère de l’IA
Le web appauvri et centralisé
C’est le scénario de l’abandon. Les grands groupes technologiques et quelques médias « premium » se partagent les miettes du trafic, grâce à des accords d’exclusivité avec les plateformes d’IA. L’information devient une marchandise rare, filtrée par quelques acteurs globaux qui contrôlent l’accès, la visibilité et la monétisation. Les petits sites disparaissent, les médias locaux ferment, la diversité des voix s’éteint. L’internaute, dans ce monde, n’est plus qu’un consommateur passif, recevant des réponses prédigérées par les IA, sans jamais voir la source ni comprendre qui parle. L’illusion de l’abondance masque un appauvrissement dramatique du débat public et de la pluralité des savoirs.
Le sursaut collectif
Ici, l’équilibre est encore possible. Les États imposent aux géants de l’IA des règles de redistribution — un peu comme les radios paient des droits aux artistes. Des outils techniques (paywalls pour robots, protocoles de rémunération automatique, identifiants de sources infalsifiables) garantissent que la valeur créée par les IA profite aussi aux producteurs. Mais ce sursaut ne peut pas reposer uniquement sur les régulateurs ou les éditeurs : les internautes ont un rôle crucial. Ils peuvent soutenir les médias via l’abonnement, préférer consulter les sites directement plutôt que de se contenter des réponses IA, et exiger des garanties de transparence sur les sources utilisées par les modèles. Par leurs choix quotidiens, les usagers peuvent orienter le marché : un clic conscient vaut parfois plus qu’un vote.
Le retour aux valeurs fondatrices
C’est le scénario le plus ambitieux, presque utopique : refonder le web sur l’esprit de Tim Berners-Lee, celui d’un espace ouvert, décentralisé et coopératif. Les IA y seraient intégrées, mais comme médiatrices responsables et non comme prédatrices. Chaque réponse générée pointerait vers ses sources, chaque création serait attribuée et rémunérée. L’information circulerait de nouveau sous forme de liens, de communautés et de dialogues. Pour y parvenir, il faudrait que les internautes réapprennent à habiter le web, pas seulement à le consommer : publier, partager, vérifier, contribuer. En refusant la passivité, ils redeviendraient les acteurs de ce réseau vivant.
Le futur du web n’est pas écrit d’avance. Les grandes plateformes d’IA ont un pouvoir immense, mais elles ne peuvent pas fonctionner sans matière première : sans nous, sans nos clics, nos partages, nos abonnements, nos créations. Si les internautes se résignent à n’utiliser que des interfaces d’IA, le web libre s’éteindra. S’ils exigent des sources visibles, s’ils soutiennent les médias indépendants, s’ils privilégient la qualité à la facilité, alors un autre chemin reste possible.
Être ou ne pas être ? Telle est aujourd’hui la question. Le web a toujours été une œuvre collective. Sa survie le sera aussi.
Le web n’est pas un simple outil : c’est un bien commun. Et comme tout bien commun, il peut disparaître si nous cessons de l’entretenir. Face aux géants de l’IA qui aspirent nos contenus et réécrivent l’information sans citer ni rémunérer les sources, chaque internaute a un rôle à jouer.
- Lire à la source : ne pas se contenter d’un résumé IA, mais cliquer, visiter, comprendre qui parle.
- Soutenir les médias : par un abonnement, un don, ou simplement en choisissant les plateformes indépendantes.
- Exiger la transparence : demander que les réponses IA renvoient clairement vers les sites qui les nourrissent.
- Créer, partager, publier : ne pas laisser le web se réduire à une base de données morte, mais continuer à l’alimenter de voix humaines.
Sauver le web, c’est refuser d’être spectateur d’un suicide collectif. C’est affirmer que l’information n’a de valeur que si elle reste vivante, diverse, attribuée. Le futur d’internet ne dépend pas seulement des ingénieurs ou des politiques, il dépend de nous tous.
À nous de choisir : être consommateurs passifs d’un miroir artificiel, ou gardiens actifs d’un réseau vivant.
Si ce n’est déjà fait, abonnez-vous à UP’ Magazine pour préserver sa pérennité et son indépendance, pour que le web libre continue de vivre.








merci pour cet article qui interpelle. Oui la réflexion est très pertinente concernant les médias. je me demande tout de même: Quel serait cet intérêt collectif qui pourrait nous inciter collectivement à demander à sauver le web?