Internet risque de se scinder : humains et robots

Les experts préviennent qu'Internet est au bord d'une fracture majeure, créant deux mondes distincts : celui des utilisateurs et celui des robots. Ce changement menace de rompre le plus ancien « contrat » d'Internet, selon lequel sites web et moteurs de recherche bénéficient ensemble.
Depuis des décennies, les sites Web accueillent des robots d’exploration (robots) provenant de moteurs de recherche comme Google.
Cela permet d'indexer, de classer et d'accéder facilement au contenu, ce qui génère un trafic important vers les sites web. Le ratio « deux robots pour un utilisateur » crée une relation symbiotique : les robots collectent des données, les sites web génèrent du trafic et l'activité se développe.
Cependant, l'essor de l'IA générative change radicalement la donne. Des outils d'IA comme ChatGPT (OpenAI) ou Claude (Anthropic) « dévorent » tout Internet pour entraîner leurs modèles.
Selon Cloudflare, chaque fois qu'OpenAI demande à un utilisateur de visiter un site Web, il y a simultanément environ 1 500 visites de robots exploités par OpenAI.
Pour Anthropic, ce chiffre est encore plus élevé, atteignant 60 000 robots par utilisateur. Cela montre que le trafic humain diminue, tandis que le trafic automatisé (provoqué par les robots) augmente rapidement, dépassant souvent le trafic humain.
La menace existentielle de l'IA
Le problème principal réside dans le fait que ces robots d'IA ne renvoient souvent pas au contenu source original. Ils synthétisent et fournissent des réponses directement dans leurs propres interfaces, ce qui maintient l'engagement des utilisateurs et exclut les sites web et les créateurs de contenu de la chaîne de valeur.

L’IA change la façon dont nous interagissons avec l’Internet traditionnel (Photo d’illustration : GARP).
Linda Tong, PDG de Webflow, une entreprise de conception et d'hébergement web, considère qu'il s'agit de l'un des changements les plus profonds qu'elle ait observés en 20 ans d'activité sur Internet. « Cela transforme fondamentalement la façon dont les gens trouvent et interagissent avec les marques », a-t-elle déclaré. « Et pour certaines entreprises, c'est une menace existentielle. »
Du SEO à l'AEO : la nouvelle ère de la recherche
Depuis 30 ans, la visibilité sur Google est la clé du succès de tout site web. Tout un secteur du référencement naturel (SEO) a explosé pour aider les entreprises à être plus compétitives. Mais l'IA ne suit pas les mêmes règles.
Au lieu de créer un lien vers le document source, les grands modèles de langage (LLM) comme ChatGPT, Claude ou même Gemini de Google lisent et réutilisent ce document pour répondre directement aux questions des utilisateurs, en grande partie sans attribuer la source.
Cette évolution donne naissance à un nouvel acronyme : l'AEO (optimisation du moteur de recherche pour l'IA). L'AEO est une stratégie qui rend le contenu plus visible pour l'IA et plus efficace lorsqu'il est assimilé par l'IA, même si la réponse de l'IA ne donne jamais lieu à un clic. Si le SEO a défini l'ère de la recherche, l'AEO pourrait définir l'ère de l'IA générative.
Internet est divisé : humains et robots
Tong affirme que Webflow a vu le trafic de son robot d'exploration IA augmenter de plus de 125 % en seulement six mois.
Dans l'écosystème Internet, plus de 50 % du trafic Internet provient désormais de robots. Face à l'explosion du trafic généré par ces derniers, certaines entreprises commencent à fixer des limites, littéralement. Elles créent deux versions de leurs sites web :
- Version humaine : avec des visuels riches et attrayants, des interactions et des histoires de marque.
- Version du bot : minimaliste, optimisée pour la lisibilité par machine, conçue pour « nourrir » l'IA sans exposer les fonctionnalités les plus importantes, préservant la valeur nécessaire pour attirer les clics des utilisateurs.

Certains éditeurs ne montrent désormais que des résumés ou des extraits aux robots d'exploration, dans l'espoir d'attirer l'indexation sans compromettre leur modèle de monétisation.
Leçons tirées des articles instantanés de Facebook
Pour certaines entreprises comme Webflow, la collecte de données par l'IA peut constituer un véritable avantage commercial. Si Webflow est recommandé lorsqu'un utilisateur demande à ChatGPT quelle est la meilleure plateforme de création de sites web, c'est une visibilité précieuse.
Les utilisateurs qui viennent via l’IA ont tendance à être plus instruits et à avoir une « intention plus élevée », ou sont plus prêts à devenir clients, que ceux qui viennent de la recherche.
Cependant, cette logique ne fonctionne plus pour les entreprises qui dépendent à la fois du trafic et des lecteurs, en particulier les canaux médiatiques, les créateurs de contenu et toute personne dont le modèle économique dépend du trafic Web traditionnel.
Si un chatbot résume un article ou cite l'essentiel, l'utilisateur ne cliquera probablement jamais. Sans clic, pas d'impressions publicitaires, pas d'inscriptions par e-mail, pas de données d'audience, pas de revenus, pas de valeur réelle.
Adam Singholda, PDG de Taboola (plateforme de technologie publicitaire), l'a dit sans détour : « Nous avons déjà vu cela. Des éditeurs ont confié leur contenu à Facebook pour qu'il utilise les Instant Articles, et que s'est-il passé ? Pas de trafic et pas d'argent. »
Facebook a lancé Instant Articles en 2015, promettant des temps de chargement rapides et une expérience mobile fluide. Cependant, cette solution n'a pas réussi à générer des revenus significatifs pour les éditeurs. Les lecteurs sont restés sur Facebook, contournant les sites web des éditeurs et, avec eux, la publicité, les inscriptions par e-mail et les outils de suivi qui alimentaient leurs modèles économiques.
Finalement, Facebook a discrètement fermé le programme en 2023.
Singholda estime que les outils d'IA comme Perplexity et ChatGPT reproduisent cette erreur à plus grande échelle. De nombreux éditeurs ont signalé une baisse de 20 à 30 % du trafic de recherche au cours de l'année écoulée, malgré l'adoption généralisée des outils d'IA.
Payer ou faire preuve de créativité pour survivre
Face à cette lente déconnexion entre contenu et trafic, les éditeurs et les plateformes réagissent. Certains ont signé des accords de licence (comme Reddit, le New York Times et Vox Media) qui permettent à des entreprises d'IA d'accéder à leur contenu en échange de frais élevés. Mais ces accords restent exceptionnels.
Tong envisage un avenir différent : un avenir où les éditeurs contrôlent qui peut accéder à leur contenu et ce qu'ils peuvent y voir. Grâce à un partenariat entre Webflow et Cloudflare, les entreprises peuvent désormais distinguer les bons robots des mauvais robots et des LLM. Elles peuvent choisir de partager une partie du contenu, un résumé, ou de ne pas le partager du tout.
L'application de cette règle reste toutefois délicate. Tous les robots ne respectent pas le fichier robots.txt (la politique d'exploration d'un site). Certaines entreprises ont été accusées d'utiliser des serveurs proxy pour explorer du contenu même après son blocage. Cela signifie que même lorsque les barrières sont en place, l'exploration continue.
Dans un monde où les robots répondent en premier, la différence entre être reconnu et être détrôné pourrait faire la différence entre le succès et l'échec de toute une industrie. Il existe déjà des sites web créés par l'IA qui ne sont pas destinés à être lus par des humains, mais à être exploités par d'autres IA : un circuit fermé de contenu créé par des machines, pour des machines.

Les entreprises de médias et les producteurs de contenu sont confrontés à des défis majeurs en raison de l’IA (Photo : GARP).
Pour y faire face, des entreprises comme Taboola misent sur de nouveaux modèles, notamment Deeper Dive, une expérience d'IA intégrée aux sites Web des éditeurs.
Au lieu de perdre des utilisateurs au profit de robots externes, les lecteurs peuvent poser des questions et obtenir des réponses basées sur les rapports existants de la publication. « Vous bénéficiez de l'interactivité de l'IA, mais l'éditeur conserve la relation, le trafic et la confiance », a déclaré Singholda.
Cette confiance pourrait devenir la monnaie la plus précieuse à l'ère de l'IA. Dans un monde où les réponses sont fluides, les gens veulent toujours du concret. « Nous sommes des êtres humains. Lorsqu'il s'agit de choses importantes, comme l'argent, la santé ou les enfants, nous voulons toujours savoir qui parle », a déclaré Singholda.
Source : https://dantri.com.vn/cong-nghe/ngay-tan-cua-internet-truyen-thong-dang-den-gan-20250721090232643.htm
Comment (0)